I rapidi progressi dell'intelligenza artificiale (AI), come ChatGPT di OpenAI, sostenuta da Microsoft, stanno complicando gli sforzi dei governi per concordare leggi che regolino l'uso della tecnologia.

Ecco i passi più recenti che gli organi di governo nazionali e internazionali stanno compiendo per regolamentare gli strumenti di IA:

AUSTRALIA

* Regolamenti di pianificazione

Il governo australiano ha dichiarato il 17 gennaio che avrebbe istituito un organismo consultivo per mitigare i rischi dell'IA e che intende collaborare con gli organismi del settore per introdurre una serie di linee guida, tra cui incoraggiare le aziende tecnologiche a etichettare e filigranare i contenuti generati dall'IA.

BRITANNIA

* Regolamenti di pianificazione

I principali sviluppatori di AI hanno concordato a novembre, in occasione del primo Summit globale sulla sicurezza dell'AI in Gran Bretagna, di collaborare con i governi per testare i nuovi modelli di frontiera prima del loro rilascio, per aiutare a gestire i rischi della tecnologia in via di sviluppo.

Più di 25 Paesi presenti al summit, tra cui gli Stati Uniti e la Cina, oltre all'Unione Europea, hanno firmato una "Dichiarazione di Bletchley" per lavorare insieme e stabilire un approccio comune sulla supervisione.

La Gran Bretagna ha dichiarato al summit che avrebbe triplicato a 300 milioni di sterline (364 milioni di dollari) il suo finanziamento per la "AI Research Resource", che comprende due supercomputer che sosterranno la ricerca per rendere sicuri i modelli avanzati di AI, una settimana dopo che il Primo Ministro Rishi Sunak aveva detto che la Gran Bretagna avrebbe creato il primo istituto di sicurezza AI del mondo.

L'autorità britannica di controllo dei dati ha dichiarato in ottobre di aver emesso un avviso di esecuzione preliminare nei confronti di Snapchat di Snap Inc. per la possibile incapacità di valutare adeguatamente i rischi per la privacy del suo chatbot generativo AI per gli utenti, in particolare per i bambini.

CINA

* Attuazione di regolamenti temporanei

Wu Zhaohui, vice ministro cinese della scienza e della tecnologia, ha dichiarato alla sessione di apertura del Vertice sulla sicurezza dell'IA in Gran Bretagna a novembre che Pechino è pronta ad aumentare la collaborazione sulla sicurezza dell'IA per aiutare a costruire un "quadro di governance" internazionale.

In ottobre, la Cina ha pubblicato i requisiti di sicurezza proposti per le aziende che offrono servizi basati sull'IA generativa, compresa una lista nera di fonti che non possono essere utilizzate per addestrare i modelli di IA.

Ad agosto, il Paese ha emesso una serie di misure temporanee, richiedendo ai fornitori di servizi di presentare valutazioni di sicurezza e di ricevere l'autorizzazione prima di rilasciare prodotti di AI per il mercato di massa.

UNIONE EUROPEA

* Regolamenti di pianificazione

Due gruppi chiave di legislatori dell'UE hanno ratificato un accordo provvisorio sulle regole dell'IA il 13 febbraio, in vista di un voto del Parlamento europeo ad aprile che aprirà la strada alla prima legislazione mondiale sulla tecnologia.

Il 2 febbraio, i Paesi dell'UE hanno approvato un accordo politico raggiunto a dicembre sull'AI Act, che mira a controllare meglio l'uso dell'AI da parte dei governi nella sorveglianza biometrica e le modalità di regolamentazione dei sistemi AI.

L'accordo richiede che i modelli di fondazione e i sistemi di IA per scopi generali rispettino gli obblighi di trasparenza prima di essere immessi sul mercato. Questi includono la stesura della documentazione tecnica, il rispetto della legge sul copyright dell'UE e la diffusione di sintesi dettagliate sui contenuti utilizzati per la formazione.

FRANCIA

* Indagine su possibili violazioni

L'ente francese per la tutela della privacy ha dichiarato in aprile che sta indagando sulle denunce relative a ChatGPT.

G7

* Ricerca di input sui regolamenti

I Paesi del G7 hanno concordato in ottobre un codice di condotta in 11 punti per le aziende che sviluppano sistemi avanzati di IA, che "mira a promuovere un'IA sicura, protetta e affidabile in tutto il mondo".

ITALIA

* Indagine su possibili violazioni

L'autorità italiana per la protezione dei dati ha in programma di rivedere le piattaforme di AI e di assumere esperti del settore, ha detto un alto funzionario a maggio. ChatGPT è stato temporaneamente vietato in Italia nel marzo 2023, ma è stato reso nuovamente disponibile in aprile.

GIAPPONE

* Regolamenti di pianificazione

Il garante della privacy del Giappone ha avvertito OpenAI di non raccogliere dati sensibili senza il permesso delle persone.

POLONIA

* Indagine su possibili violazioni

L'Ufficio polacco per la protezione dei dati personali ha dichiarato a settembre che stava indagando su OpenAI per un reclamo secondo il quale ChatGPT viola le leggi europee sulla protezione dei dati.

SPAGNA

* Indagine su possibili violazioni

L'agenzia spagnola per la protezione dei dati personali ha avviato in aprile un'indagine preliminare sulle potenziali violazioni dei dati da parte di ChatGPT.

NAZIONI UNITE

* Regolamenti di pianificazione

Il Segretario Generale delle Nazioni Unite António Guterres ha annunciato in ottobre la creazione di un organo consultivo di 39 membri, composto da dirigenti di aziende tecnologiche, funzionari governativi e accademici, per affrontare le questioni della governance internazionale dell'IA.

STATI UNITI

* Ricerca di input sui regolamenti

Gli Stati Uniti, la Gran Bretagna e più di una dozzina di altri Paesi hanno presentato a novembre un accordo non vincolante di 20 pagine che contiene raccomandazioni generali sull'IA, come il monitoraggio dei sistemi per gli abusi, la protezione dei dati dalla manomissione e la verifica dei fornitori di software.

Gli Stati Uniti lanceranno un istituto per la sicurezza dell'AI per valutare i rischi noti ed emergenti dei modelli di AI cosiddetti "di frontiera", ha dichiarato il Segretario al Commercio Gina Raimondo il 1° novembre durante il Summit sulla sicurezza dell'AI in Gran Bretagna.

Il Presidente Joe Biden ha emesso un ordine esecutivo il 30 ottobre per richiedere agli sviluppatori di sistemi di IA che presentano rischi per la sicurezza nazionale degli Stati Uniti, l'economia, la salute pubblica o la sicurezza, di condividere i risultati dei test di sicurezza con il Governo.

CITTÀ DEL VATICANO

* Ricerca di input sui regolamenti

Papa Francesco ha chiesto a dicembre un trattato internazionale legalmente vincolante per regolare l'IA, affermando che non si deve permettere agli algoritmi di sostituire i valori umani e mettendo in guardia da una "dittatura tecnologica" che minaccia l'esistenza umana. (Compilazione a cura di Alessandro Parodi e Amir Orusov a Danzica; Redazione Emelia Sithole-Matarise, William Maclean, Milla Nissi)