Gli Stati Uniti e l’Unione Europea si aspettano di pubblicare un codice di condotta volontario sulle tecnologie di intelligenza artificiale (AI) “molto, molto presto”, secondo quanto dichiarato da alcuni funzionari.
Il capo dell’Unione Europea (UE) per le tecnologie Margrethe Vestager e il Segretario di Stato americano Anthony Blinken hanno dichiarato che le due forze politiche sono vicine alla pubblicazione di una serie di raccomandazioni per lo sviluppo etico delle tecnologie AI.
I politici hanno fatto questo annuncio mercoledì (31 maggio), intervenendo a una riunione del Consiglio per il commercio e la tecnologia UE-USA.
“Abbiamo bisogno di un’intelligenza artificiale responsabile”, ha dichiarato Vestager. “L’intelligenza artificiale generativa è un vero e proprio cambiamento di gioco”.
“Pensiamo che sia davvero importante che i cittadini vedano che le democrazie sono in grado di fornire risultati”, ha aggiunto la Vestager, che spera “di poterlo fare nel modo più ampio possibile, con i nostri amici in Canada, nel Regno Unito, in Giappone, in India, coinvolgendo il maggior numero possibile di persone”.
La Vestager ha rivelato che il codice potrebbe essere pubblicato “entro poche settimane”, mentre il Segretario di Stato americano ha sottolineato la necessità di un documento che aiuti a “stabilire codici di condotta volontari aperti a tutti i Paesi che la pensano allo stesso modo”.
“Quando emergono nuove tecnologie c’è quasi sempre un vuoto”, ha detto Blinken, “con il tempo necessario ai governi e alle istituzioni per capire come legiferare o regolamentare”.
La notizia risponde alla crescente pressione esercitata sugli enti pubblici in merito all’aumento di popolarità di strumenti di IA generativa come ChatGPT di OpenAI e ai potenziali rischi che essi comportano.
In una dichiarazione congiunta, gli Stati Uniti e l’Unione Europea hanno definito l’IA una “tecnologia trasformativa molto promettente per i nostri cittadini”, sottolineando il potenziale della tecnologia in termini di crescita economica.
“Ma per cogliere le opportunità che presenta, dobbiamo mitigarne i rischi”, si legge. “L’Unione europea e gli Stati Uniti riaffermano il loro impegno a favore di un approccio all’IA basato sul rischio per far progredire tecnologie di IA affidabili e responsabili”.
Il codice di condotta è stato presentato come una risposta alle crescenti richieste di regolamentazione dell’IA e come una soluzione temporanea in attesa che i Paesi discutano su quali restrizioni giuridicamente vincolanti imporre alla tecnologia.
L’UE sta attualmente lavorando all’AI Act, la prima legislazione globale al mondo che regolamenta l’uso della tecnologia AI. Tuttavia, è improbabile che la legislazione entri in vigore prima del 2026.
“Nella migliore delle ipotesi, entrerà in vigore tra due anni e mezzo o tre anni. Ovviamente è troppo tardi”, ha dichiarato la Vestager ai giornalisti. “Dobbiamo agire subito”.
Al contrario, gli Stati Uniti non hanno ancora intrapreso alcun progetto significativo per regolamentare l’IA, concentrandosi invece sull’invito agli amministratori delegati delle aziende di IA a rispettare la loro responsabilità “morale” di proteggere la società dai potenziali pericoli delle nuove tecnologie.
Molti di questi dirigenti, come il fondatore di OpenAI, Sam Altman, si sono schierati a favore di una maggiore regolamentazione dell’IA, proponendo misure come la creazione di un’agenzia statunitense o mondiale che fornisca licenze alle aziende che intendono sviluppare strumenti di IA.
“Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”, hanno dichiarato i leader tecnologici, tra cui Altman, in una dichiarazione congiunta pubblicata martedì 30 maggio.
Gli strumenti di IA generativa possono generare testo in risposta a una richiesta, compresi articoli, saggi, battute e persino poesie. Uno studio pubblicato a gennaio ha dimostrato che ChatGPT è stato in grado di superare un esame di legge, ottenendo un voto complessivo di C+. Tuttavia, governi ed esperti hanno sollevato preoccupazioni sui rischi che questi strumenti potrebbero comportare per la privacy, i diritti umani e la sicurezza delle persone.
La scorsa settimana, i rappresentanti delle nazioni del G7 hanno sottolineato la necessità di stabilire regole globali per gli strumenti di IA generativa “in linea con i nostri valori democratici condivisi” e hanno annunciato la creazione di un nuovo gruppo di lavoro sull’IA.