I rapidi progressi dell'intelligenza artificiale (AI), come ChatGPT di OpenAI, sostenuta da Microsoft, stanno complicando gli sforzi dei governi per concordare leggi che regolino l'uso della tecnologia.

Ecco i passi più recenti che gli organi di governo nazionali e internazionali stanno compiendo per regolamentare gli strumenti di IA:

AUSTRALIA

* Regolamenti di pianificazione

L'Australia chiederà ai motori di ricerca di redigere nuovi codici per impedire la condivisione di materiale pedopornografico creato dall'AI e la produzione di versioni deepfake dello stesso materiale, ha dichiarato l'8 settembre il regolatore internet del Paese.

BRITANNIA

* Regolamenti di pianificazione

Il 18 settembre, l'Autorità britannica per la concorrenza e i mercati (CMA) ha definito sette principi volti a responsabilizzare gli sviluppatori, ad evitare che le Big Tech vincolino la tecnologia nelle loro piattaforme murate e a fermare comportamenti anticoncorrenziali come il bundling.

I principi proposti, che giungono sei settimane prima che la Gran Bretagna ospiti un summit globale sulla sicurezza dell'IA, saranno alla base del suo approccio all'IA quando assumerà nuovi poteri nei prossimi mesi per supervisionare i mercati digitali.

Il regolatore della concorrenza britannico ha dichiarato a maggio che avrebbe iniziato ad esaminare l'impatto dell'IA sui consumatori, sulle aziende e sull'economia e se fossero necessari nuovi controlli.

CINA

* Attuazione di regolamenti temporanei

La Cina ha emesso una serie di misure temporanee in vigore dal 15 agosto, che richiedono ai fornitori di servizi di presentare valutazioni di sicurezza e di ricevere l'autorizzazione prima di rilasciare prodotti di AI per il mercato di massa.

In seguito alle approvazioni governative, quattro aziende tecnologiche cinesi, tra cui Baidu e SenseTime Group, hanno lanciato i loro chatbot AI al pubblico il 31 agosto.

UNIONE EUROPEA

* Regolamenti di pianificazione

Il 13 settembre, la Presidente della Commissione Europea Ursula von der Leyen ha chiesto l'istituzione di un gruppo di lavoro globale per valutare i rischi e i benefici dell'IA, analogamente al gruppo di lavoro globale IPCC che informa i responsabili politici sul clima.

I legislatori dell'UE hanno concordato a giugno delle modifiche in una bozza della legge sull'AI del blocco. I legislatori dovranno ora definire i dettagli con i Paesi dell'UE prima che la bozza di regole diventi legge.

Il problema principale dovrebbe essere il riconoscimento facciale e la sorveglianza biometrica, dove alcuni legislatori vogliono un divieto totale, mentre i Paesi dell'UE vogliono un'eccezione per la sicurezza nazionale, la difesa e gli scopi militari.

FRANCIA

* Indagine su possibili violazioni

L'ente francese per la tutela della privacy CNIL ha dichiarato ad aprile di stare indagando su diversi reclami relativi a ChatGPT, dopo che il chatbot era stato temporaneamente vietato in Italia per una sospetta violazione delle norme sulla privacy.

L'Assemblea Nazionale francese ha approvato a marzo l'uso della videosorveglianza AI durante le Olimpiadi di Parigi 2024, ignorando gli avvertimenti dei gruppi per i diritti civili.

G7

* Ricerca di input sui regolamenti

I leader del Gruppo dei Sette (G7) riuniti a Hiroshima, in Giappone, hanno riconosciuto a maggio la necessità di una governance dell'IA e delle tecnologie immersive e hanno concordato di far discutere ai ministri la tecnologia come "processo Hiroshima AI" e di riferire i risultati entro la fine del 2023.

I Paesi del G7 dovrebbero adottare una regolamentazione "basata sul rischio" in materia di IA, hanno affermato i ministri digitali del G7 dopo una riunione tenutasi ad aprile.

IRLANDA

* Ricerca di input sui regolamenti

L'Intelligenza Artificiale Generativa deve essere regolamentata, ma gli organi di governo devono capire come farlo in modo appropriato, prima di affrettare i divieti che "non reggeranno", ha detto ad aprile il capo della protezione dei dati irlandese.

ISRAELE

* Ricerca di input sui regolamenti

Israele sta lavorando alle normative sull'IA per raggiungere il giusto equilibrio tra l'innovazione e la salvaguardia dei diritti umani, ha dichiarato a giugno Ziv Katzir, direttore della pianificazione nazionale dell'IA presso l'Israel Innovation Authority.

Israele ha pubblicato una bozza di politica sull'AI di 115 pagine nell'ottobre 2022 e sta raccogliendo il feedback del pubblico prima di una decisione finale.

ITALIA

* Indagine su possibili violazioni

L'autorità italiana per la protezione dei dati prevede di rivedere le piattaforme di intelligenza artificiale e di assumere esperti di AI, ha detto un alto funzionario a maggio.

ChatGPT è diventato disponibile per gli utenti in Italia ad aprile, dopo essere stato temporaneamente vietato a causa delle preoccupazioni dell'autorità nazionale per la protezione dei dati a marzo.

GIAPPONE

* Indagine su possibili violazioni

Il Giappone prevede di introdurre entro la fine del 2023 dei regolamenti che probabilmente saranno più vicini all'atteggiamento degli Stati Uniti rispetto a quelli più severi previsti nell'Unione Europea, ha dichiarato a luglio un funzionario vicino alle deliberazioni.

Il garante della privacy del Paese ha dichiarato a giugno di aver avvertito OpenAI di non raccogliere dati sensibili senza il permesso delle persone.

SPAGNA

* Indagine su possibili violazioni

L'agenzia spagnola per la protezione dei dati ha dichiarato ad aprile che stava avviando un'indagine preliminare sulle potenziali violazioni dei dati da parte di ChatGPT. Ha anche chiesto al garante della privacy dell'UE di valutare i problemi di privacy relativi a ChatGPT.

NAZIONI UNITE

* Regolamenti di pianificazione

Il Consiglio di Sicurezza delle Nazioni Unite ha tenuto la sua prima discussione formale sull'IA a New York a luglio. Il Consiglio ha affrontato le applicazioni militari e non militari dell'IA, che "potrebbero avere conseguenze molto serie per la pace e la sicurezza globale", ha dichiarato il Segretario Generale delle Nazioni Unite Antonio Guterres.

A giugno, Guterres ha appoggiato la proposta di alcuni dirigenti dell'AI di creare un organo di controllo dell'AI come l'Agenzia Internazionale per l'Energia Atomica, ma ha osservato che "solo gli Stati membri possono crearlo, non il Segretariato delle Nazioni Unite".

Il Segretario Generale delle Nazioni Unite ha anche annunciato l'intenzione di iniziare a lavorare entro la fine dell'anno su un organo consultivo di alto livello sull'IA, per rivedere le modalità di governance dell'IA.

GLI STATI UNITI.

* Ricerca di input sui regolamenti

Il Congresso degli Stati Uniti ha tenuto delle audizioni sull'IA tra l'11 e il 13 settembre e un forum sull'IA con la partecipazione del CEO di Meta Platforms Mark Zuckerberg e del CEO di Tesla Elon Musk.

Più di 60 senatori hanno partecipato ai colloqui, durante i quali Musk ha chiesto un "arbitro" statunitense per l'IA. I legislatori hanno detto che c'è un accordo universale sulla necessità di una regolamentazione governativa della tecnologia.

Il 12 settembre, la Casa Bianca ha dichiarato che Adobe, IBM, Nvidia e altre cinque aziende hanno firmato gli impegni volontari del Presidente Joe Biden che regolano l'AI, che richiedono misure come la filigrana dei contenuti generati dall'AI.

Il 21 agosto, il giudice distrettuale di Washington D.C. Beryl Howell ha stabilito che un'opera d'arte creata dall'IA senza alcun input umano non può essere protetta da copyright secondo la legge statunitense.

La Federal Trade Commission (FTC) degli Stati Uniti ha aperto a luglio un'indagine approfondita su OpenAI, sostenendo che ha violato le leggi sulla protezione dei consumatori. (Compilato da Alessandro Parodi e Amir Orusov a Danzica; Redazione di Kirsten Donovan, Mark Potter, Christina Fincher e Milla Nissi)