L’intelligenza artificiale (IA) rappresenta una delle pietre miliari della rivoluzione tecnologica dei nostri tempi, trasformando radicalmente settori come la salute, l’industria e la finanza. Tuttavia, dietro a questo progresso si celano sfide legali complesse che sollevano interrogativi fondamentali sulla responsabilità, la privacy e i diritti umani.
Indice dei contenuti
ToggleCertamente possiamo dire che l ‘AI ha rivoluzionato il panorama delle imprese, introducendo cambiamenti significativi nei processi operativi, nelle strategie di business e nell’interazione con i clienti.
L’impatto dell’utilizzo dell’IA è tangibile in diverse aree, promuovendo l’efficienza operativa, la competitività e l’innovazione e possiamo per questo parlare di benefici evidenti e concreti.
La sua rapida diffusione solleva anche questioni etiche e giuridiche cruciali.
La necessità di una regolamentazione legale dell’Intelligenza Artificiale è emersa come una priorità fondamentale per garantire un utilizzo responsabile e sicuro di questa tecnologia avanzata.
In generale…
Sappiamo che il regolamento verrà approvato nei mesi di marzo e aprile prossimi quando il Parlamento Europeo si esprimerà con il proprio voto e consentirà allo stesso, nel mese di maggio, di divenire legge con la pubblicazione in Gazzetta Ufficiale UE.
Il testo che è stato approvato non dovrebbe più subire modifiche e possiamo pertanto affermare che l’obiettivo, spinto dall’urgenza, sia stato quello di regolamentare i modelli di AI generativa.
Il regolamento ha individuato dei temi fondamentali sui quali fondare le logiche dell’intero documento. Garantire prima di tutto che i diversi sistemi di intelligenza artificiale non generino rischi, e di conseguenza danni a persone, cose e ambiente. Per questo impronta un sistema di valutazione di rischi, di successiva mitigazione degli stessi e un sistema di registrazione per chi rientra nel rischio elevato.
Garantisce trasparenza e non discriminazione per i fruitori dei sistemi di intelligenza artificiale e non dimentica la responsabilità in caso di violazione delle disposizioni o di errori da parte di un sistema di AI.
Le logiche utilizzate dall’unione sono orientate “al rischio” ossia la regolamentazione si fa più stretta a seconda del rischio riscontrato, come vediamo in seguito.
Il regolamento AI Act
Giuridicamente l’AI Act è il primo regolamento al mondo che va ad inquadrare e istituire un quadro normativo uniforme diretto alla regolamentazione dello sviluppo e dell’uso dei sistemi di AI nel rispetto dei valori e dei diritti dell’Unione Europea.
La prima parte del Regolamento va a trattare l’ambito di applicazione e le definizioni.
Questa la definizione del sistema di intelligenza artificiale: “un software sviluppato con una o più delle tecniche e degli approcci elencati nell’allegato I, che può, per una determinata serie di obiettivi definiti dall’uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”.
L’ AI Act cerca di stabile un quadro normativo per l’utilizzo dell’intelligenza artificiale e definisce i livelli di rischio associati all’impatto nella vita delle persone.
4 sono i livelli di classificazione del rischio:
- Rischio inaccettabile
- Rischio elevato/alto
- Rischio limitato
- Rischio minimo o nullo.
Se i sistemi di AI costituiscono una vera minaccia per le persone saranno considerati a rischio inaccettabile e saranno vietati dall’UE.
Vi sono già delle pratiche vietate come lo scraping delle immagini o dei filmati di telecamere a circuito chiuso. La rilevazione delle emozioni delle persone sul luogo di lavoro o addirittura la manipolazione comportamentale cognitiva.
Anche la categorizzazione biometrica utile alla deduzione dei dati sensibili è considerata a rischio inaccettabile.
Per quanto riguarda l’identificazione biometrica remota, l’accordo definisce le situazioni nelle quali l’uso è strettamente necessario anche per le autorità.
Il rischio elevato o alto si riferisce a quei sistemi di intelligenza artificiale utilizzati nel settore giustizia, nella pubblica sicurezza o nel settore sanità.
In questi casi sono assolutamente richiesti standard di scurezza elevati e dovranno essere garantiti trasparenza e affidabilità, per questo sarà necessario garantire un iter di controllo e una supervisione adeguata.
L’utilizzo dei modelli di Intelligenza Artificiale generativa, come ChatGPT di OpenAI e Bard di Google, è consentito a condizione che i loro output siano generati dall’intelligenza artificiale e rientrano nel rischio limitato. In questo caso è necessario garantire una trasparenza minima e gli utenti devono essere a conoscenza dell’interazione con il sistema di AI.
Il rischio minimo o nullo ci fa già pensare a un bassissimo impatto nell’utilizzo dei modelli di AI ed infatti possiamo far rientrare in questa categoria le applicazioni che utilizziamo più frequentemente, le quali utilizzano sistemi di intelligenza artificiale semplici.
Dopo un’attenta valutazione in materia di sicurezza, diritti delle persone, manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici, saranno i governi ad attribuire dei punteggi sociali.
Ogni stato membro dell’Unione Europea designa un’autorità di notifica con il compito di predisporre e dare esecuzione alle procedure utili alla designazione e controllo degli organismi di valutazione di conformità e monitoraggio.
Come è possibile prevedere sono previste sanzioni per chi non è Compliant.
Le imprese che violeranno le norme potranno incappare in 3 fasce sanzionatorie:
- Fino a 10 milioni di euro o al 2% del fatturato annuo per false/incomplete/inesatte informazioni;
- Fino a 20 milioni di euro o al 4% del fatturato annuo in caso di altre non conformità.
- Fino a 30 milioni di euro o al 6% del fatturato annuo in caso di inosservanza delle regole e dei requisiti o per pratiche illecite.
Il principio di trasparenza nell’utilizzo dei sistemi di IA
Tra i principi fondamentali del regolamento, vi è l’obbligo di rispettare i diritti fondamentali, la trasparenza nell’implementazione dei sistemi di IA, la valutazione dei rischi e il controllo umano nei processi decisionali automatizzati.
Uno degli aspetti chiave del regolamento è l’enfasi sulla trasparenza. Le imprese che utilizzano l’IA devono fornire spiegazioni comprensibili sui processi decisionali automatizzati, garantendo che gli utenti siano consapevoli di come e perché vengano prese determinate decisioni. Questo implica una maggiore responsabilità e chiarezza nelle pratiche aziendali, con l’obiettivo di evitare l’opacità che potrebbe derivare dall’uso non regolamentato dell’IA.
Il regolamento richiede di condurre valutazioni approfondite dei rischi associati ai loro sistemi di IA. Ciò significa che le organizzazioni dovranno adottare misure per identificare e mitigare potenziali impatti negativi dei loro sistemi, garantendo che siano conformi agli standard stabiliti dall’ACT.
Inoltre, l’Artificial Intelligence ACT introduce la possibilità di certificazioni per dimostrare la conformità ai requisiti normativi, creando un ulteriore incentivo per le aziende ad adottare pratiche responsabili nell’implementazione dell’IA.
Un altro elemento chiave del regolamento è il requisito di garantire un adeguato controllo umano nei processi decisionali automatizzati. Le aziende devono garantire che le decisioni cruciali siano soggette a revisione e intervento umano quando necessario. Questo aspetto mira a prevenire il rischio di discriminazione o decisioni sbagliate che potrebbero derivare dall’automatizzazione completa senza supervisione umana.
Nulla nega che l’Artificial Intelligence Act rappresenti una promozione all’adozione di pratiche etiche e responsabili.
Mentre le imprese si adattano a questa nuova realtà normativa, è cruciale che integrazione e conformità diventino parte integrante delle strategie aziendali. Solo attraverso l’adozione di approcci responsabili, si potrà massimizzare i benefici dell’IA nel rispetto dei principi etici e legali stabiliti dal regolamento.
Comitato Europeo per l’intelligenza artificiale
È stato istituto un Comitato che fornisce consulenza e assistenza alla Commissione Europea così da permettere un’efficace cooperazione tra le autorità nazionali di controllo del regolamento.
Inoltre, contribuisce agli orientamenti sulle questioni emergenti nel mercato interno, sempre in relazione alle materie disciplinate dall’AI Act.
È composto dalle autorità nazionali di controllo e dal Garante europeo della protezione dei dati e adotta un suo regolamento interno che contiene aspetti operativi sull’esecuzione dei compiti.
Questi i suoi compiti:
- raccoglie e condivide conoscenze e migliori pratiche tra gli Stati membri;
- contribuisce all’uniformità delle pratiche amministrative negli Stati membri, anche per il funzionamento degli spazi di sperimentazione normativi di cui all’articolo 53;
- formula pareri, raccomandazioni o contributi scritti su questioni relative all’attuazione del presente regolamento, in particolare:
- sulle specifiche tecniche o sulle norme esistenti relative ai requisiti di cui al titolo III, capo 2;
- sull’uso delle norme armonizzate o delle specifiche comuni di cui agli articoli 40 e 41;
- sulla preparazione di documenti di orientamento, compresi gli orientamenti per stabilire le sanzioni amministrative pecuniarie di cui all’articolo 71.
Per concludere
L’AI Act rappresenta un passo significativo verso una regolamentazione che mira a promuovere l’innovazione ma pone allo stesso tempo l’accento sulla protezione dei diritti individuali, sull’etica e la sicurezza.
Richiede un coinvolgimento responsabile dell’essere umano e della macchina, una prova nuova e trascinante in un contesto operativo ancora da scoprire.
Ora non ci resta che attendere l’entrata in vigore del testo prevista per il 1° gennaio 2026.