I rapidi progressi dell'intelligenza artificiale (AI), come ChatGPT di OpenAI, sostenuta da Microsoft, stanno complicando gli sforzi dei governi per concordare leggi che regolino l'uso della tecnologia.

Ecco i passi più recenti che gli organi di governo nazionali e internazionali stanno compiendo per regolamentare gli strumenti di IA:

AUSTRALIA

* Regolamenti di pianificazione

L'Australia obbligherà i motori di ricerca a redigere nuovi codici per impedire la condivisione di materiale pedopornografico creato dall'AI e la produzione di versioni deepfake dello stesso materiale.

BRITANNIA

* Regolamenti di pianificazione

I principali sviluppatori di AI hanno concordato il 2 novembre, in occasione del primo vertice globale sulla sicurezza dell'AI in Gran Bretagna, di collaborare con i governi per testare i nuovi modelli di frontiera prima del loro rilascio, per aiutare a gestire i rischi della tecnologia in via di sviluppo.

Più di 25 Paesi presenti al summit, tra cui gli Stati Uniti e la Cina, oltre all'Unione Europea, il 1° novembre hanno firmato una "Dichiarazione di Bletchley" per lavorare insieme e stabilire un approccio comune sulla supervisione.

La Gran Bretagna ha dichiarato al summit che avrebbe triplicato a 300 milioni di sterline (364 milioni di dollari) il suo finanziamento per la "AI Research Resource", che comprende due supercomputer che sosterranno la ricerca per rendere sicuri i modelli avanzati di AI, una settimana dopo che il Primo Ministro Rishi Sunak aveva detto che la Gran Bretagna avrebbe creato il primo istituto di sicurezza AI del mondo.

L'autorità britannica di controllo dei dati ha dichiarato in ottobre di aver emesso un avviso di esecuzione preliminare nei confronti di Snapchat di Snap Inc. per la possibile incapacità di valutare adeguatamente i rischi per la privacy del suo chatbot generativo AI per gli utenti, in particolare per i bambini.

CINA

* Attuazione di regolamenti temporanei

Wu Zhaohui, vice ministro cinese della scienza e della tecnologia, ha dichiarato alla sessione di apertura del Vertice sulla sicurezza dell'IA in Gran Bretagna il 1° novembre che Pechino è pronta ad aumentare la collaborazione sulla sicurezza dell'IA per aiutare a costruire un "quadro di governance" internazionale.

In ottobre, la Cina ha pubblicato i requisiti di sicurezza proposti per le aziende che offrono servizi basati sull'IA generativa, compresa una lista nera di fonti che non possono essere utilizzate per addestrare i modelli di IA.

Ad agosto, il Paese ha emesso una serie di misure temporanee, richiedendo ai fornitori di servizi di presentare valutazioni di sicurezza e di ricevere l'autorizzazione prima di rilasciare prodotti di AI per il mercato di massa.

UNIONE EUROPEA

* Regolamenti di pianificazione

Francia, Germania e Italia hanno raggiunto un accordo sulle modalità di regolamentazione dell'IA, secondo un documento congiunto visto da Reuters il 18 novembre. Il documento spiega che gli sviluppatori di modelli di fondazione dovranno definire le schede modello, utilizzate per fornire informazioni su un modello di apprendimento automatico.

Il 24 ottobre, i legislatori europei hanno raggiunto un accordo su una parte fondamentale delle nuove regole sull'AI, che delineano i tipi di sistemi che saranno designati come "ad alto rischio", avvicinandosi a un accordo più ampio sulla legge storica sull'AI, attesa per dicembre, secondo cinque persone che hanno familiarità con la questione.

FRANCIA

* Indagine su possibili violazioni

L'ente francese per la tutela della privacy ha dichiarato in aprile che sta indagando sulle denunce relative a ChatGPT.

G7

* Ricerca di input sui regolamenti

Il 30 ottobre, i Paesi del Gruppo dei Sette hanno concordato un codice di condotta in 11 punti per le aziende che sviluppano sistemi avanzati di IA, che "mira a promuovere un'IA sicura, protetta e affidabile in tutto il mondo".

ITALIA

* Indagine su possibili violazioni

L'autorità italiana per la protezione dei dati prevede di rivedere le piattaforme di IA e di assumere esperti del settore, ha detto un alto funzionario a maggio. ChatGPT è stato temporaneamente vietato nel Paese a marzo, ma è stato reso nuovamente disponibile ad aprile.

GIAPPONE

* Indagine su possibili violazioni

Il Giappone prevede di introdurre entro la fine del 2023 dei regolamenti che probabilmente saranno più vicini all'atteggiamento degli Stati Uniti rispetto a quelli più severi previsti nell'Unione Europea, ha dichiarato a luglio un funzionario vicino alle deliberazioni.

Il garante della privacy del Paese ha avvertito OpenAI di non raccogliere dati sensibili senza il permesso delle persone.

POLONIA

* Indagine su possibili violazioni

L'Ufficio polacco per la protezione dei dati personali ha dichiarato a settembre che stava indagando su OpenAI per un reclamo secondo cui ChatGPT viola le leggi dell'UE sulla protezione dei dati.

SPAGNA

* Indagine su possibili violazioni

L'agenzia spagnola per la protezione dei dati personali ha avviato in aprile un'indagine preliminare sulle potenziali violazioni dei dati da parte di ChatGPT.

NAZIONI UNITE

* Regolamenti di pianificazione

Il 26 ottobre, il Segretario Generale delle Nazioni Unite António Guterres ha annunciato la creazione di un organo consultivo di 39 membri, composto da dirigenti di aziende tecnologiche, funzionari governativi e accademici, per affrontare le questioni della governance internazionale dell'IA.

Il Consiglio di Sicurezza delle Nazioni Unite ha tenuto la sua prima discussione formale sull'IA a luglio, affrontando le applicazioni militari e non militari dell'IA che "potrebbero avere conseguenze molto serie per la pace e la sicurezza globale", ha detto Guterres all'epoca.

STATI UNITI

* Ricerca di input sui regolamenti

Gli Stati Uniti lanceranno un istituto per la sicurezza dell'IA per valutare i rischi noti ed emergenti dei modelli di IA cosiddetti "di frontiera", ha dichiarato il Segretario al Commercio Gina Raimondo il 1° novembre durante l'AI Safety Summit in Gran Bretagna.

Il Presidente Joe Biden ha emesso un nuovo ordine esecutivo il 30 ottobre per richiedere agli sviluppatori di sistemi di IA che presentano rischi per la sicurezza nazionale degli Stati Uniti, l'economia, la salute pubblica o la sicurezza di condividere i risultati dei test di sicurezza con il Governo.

Il Congresso degli Stati Uniti a settembre ha tenuto delle audizioni sull'AI e un forum sull'AI con la partecipazione del CEO di Meta Mark Zuckerberg e del CEO di Tesla Elon Musk. Più di 60 senatori hanno partecipato ai colloqui, durante i quali Musk ha chiesto un "arbitro" statunitense per l'AI.

La Federal Trade Commission degli Stati Uniti ha aperto a luglio un'indagine su OpenAI, sostenendo che ha violato le leggi sulla protezione dei consumatori. (Compilazione a cura di Alessandro Parodi e Amir Orusov a Danzica; Redazione a cura di Milla Nissi e Emelia Sithole-Matarise)