Tutto quello che c’è da sapere sulla legislazione dell’UE in materia di IA che cambierà le carte in tavola

0
361
intelligenza artificiale

Il Parlamento europeo vota per approvare la prima normativa completa sull’IA. Ecco un breve riassunto della legge sull’IA, la cui influenza probabilmente si estenderà oltre i confini dell’UE.

Il Parlamento europeo ha votato oggi per procedere con la prima legislazione completa sull’intelligenza artificiale, nota come AI Act.

Si tratta del primo passo di un processo che culminerà nel corso dell’anno con l’approvazione di una versione definitiva della legge, come riporta il New York Times. In questo modo l’Europa diventerebbe un modello globale per la regolamentazione del settore tecnologico, come è avvenuto, ad esempio, per la privacy dei dati.

“Oggi abbiamo fatto la storia”, ha dichiarato Brando Benifei, membro italiano della Commissione europea, autore dell’AI Act, come riportato dal Washington Post. Secondo Benifei, i legislatori europei “tracceranno la strada” per il resto del mondo in materia di “IA responsabile”.

La Commissione europea ha iniziato a redigere la proposta di 108 pagine nel 2021, con un’urgenza maggiore dopo l’esplosivo rilascio di ChatGPT nell’autunno del 2022, oltre ai concorrenti di Google, Microsoft e creatori di immagini come Dall-E e Midjourney.

Gli Stati Uniti non hanno ancora approvato una legislazione simile, optando per approcci più morbidi come il National Artificial Intelligence Initiative Act (2020) e l’AI Bill of Rights (ottobre 2022).

Il mese scorso, in occasione di un’audizione del Senato sull’IA, Sam Altman, CEO di OpenAI, ha esortato il Congresso ad agire e ad attuare norme più severe per mitigare i potenziali danni di questi sistemi potenti e poco trasparenti. Anche il presidente di Microsoft Brad Smith ha invitato gli Stati Uniti e altri Paesi a istituire agenzie governative dedicate alla regolamentazione dell’IA.

Cosa contiene la legge UE sull’IA?

L’AI Act definisce l’intelligenza artificiale come un software in grado, “per un determinato insieme di obiettivi definiti dall’uomo, di generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”, e prosegue delineando gli ideali e i regolamenti che i sistemi “ad alto rischio” e i loro utenti devono rispettare.

Il documento stabilisce che, prima di essere rilasciati al pubblico, i sistemi ad alto rischio devono essere sottoposti a una valutazione per garantire che siano conformi alla normativa e che siano progettati per ridurre il rischio attraverso “una progettazione e uno sviluppo adeguati”. Per quanto riguarda i modelli di intelligenza artificiale che continuano ad “apprendere” dopo il loro rilascio iniziale, come ChatGPT, si richiede un “sistema di monitoraggio post-vendita” per osservare, documentare e segnalare i cambiamenti significativi ed eventuali problemi.

Per quanto riguarda i dati, i creatori di modelli di intelligenza artificiale devono rivelare le fonti di informazioni protette da copyright che i loro sistemi utilizzano per generare i risultati. Il regolamento limita inoltre “l’uso e l’elaborazione dei dati biometrici coinvolti in modo esaustivo”, in particolare nella tecnologia di riconoscimento facciale.

I sistemi che rispettano i regolamenti devono esporre al pubblico un badge della Commissione europea come segno di conformità. La proposta istituisce anche un Consiglio europeo per l’intelligenza artificiale.

Sebbene l’atto si concentri sulle aziende che costruiscono (e traggono profitto) dai modelli di intelligenza artificiale, include anche alcune disposizioni per il pubblico, al fine di limitare la diffusione della disinformazione. Ad esempio, richiede a chiunque utilizzi l’IA per creare un deepfake convincente di un’altra persona in immagini, audio o video, di rivelare “che il contenuto è stato creato o manipolato artificialmente, etichettando di conseguenza l’output dell’intelligenza artificiale e rivelandone l’origine artificiale”.

Allo stesso tempo, la legge riconosce “l’ampia gamma di vantaggi economici e sociali” dell’IA. L’obiettivo è quello di “promuovere l’innovazione dell’IA stabilendo un ambiente controllato di sperimentazione e test nella fase di sviluppo e di pre-commercializzazione”.

La legge è abbastanza restrittiva, tuttavia, che a un certo punto Altman ha detto che OpenAI avrebbe cessato le operazioni in Europa se fosse stata approvata, anche se in seguito ha revocato questa affermazione.

Un ghostwriter americano?

A volte, la retorica dell’AI Act sembra invocare gli ideali americani di libertà personale e privacy. Il testo definisce l’uso del riconoscimento facciale basato sull’IA per l’applicazione della legge negli spazi pubblici “particolarmente intrusivo per i diritti e le libertà delle persone interessate, nella misura in cui può influire sulla vita privata di gran parte della popolazione [ed] evocare una sensazione di costante sorveglianza”.

La libertà di pensiero è un altro punto focale della proposta di legge. Il disegno di legge vieta i sistemi di IA che “utilizzano tecniche subliminali al di fuori della coscienza di una persona al fine di distorcerne materialmente il comportamento”. Inoltre, i sistemi che utilizzano l’IA devono notificare alle persone che stanno interagendo con un sistema di IA, a meno che non sia “ovvio dalle circostanze”, così come quando sono esposti a un modello che registra ed elabora dati emotivi e biometrici.

LEAVE A REPLY

Please enter your comment!
Please enter your name here