Mentre l'Unione Europea si avvicina all'approvazione di un'ampia serie di leggi che regolano l'intelligenza artificiale, i legislatori e gli esperti affermano che l'estromissione a sorpresa del CEO di OpenAI Sam Altman sottolinea la necessità di regole severe.

Altman, cofondatore della startup che l'anno scorso ha dato il via al boom dell'AI generativa, è stato licenziato bruscamente dal consiglio di amministrazione di OpenAI la scorsa settimana, provocando scosse nel mondo tecnologico e spingendo i dipendenti a minacciare dimissioni di massa dall'azienda.

Dall'altra parte dell'Atlantico, la Commissione Europea, il Parlamento Europeo e il Consiglio dell'Unione Europea stanno definendo i dettagli dell'AI Act, una serie di leggi di ampia portata che richiederebbe ad alcune aziende di completare ampie valutazioni dei rischi e di rendere disponibili i dati alle autorità di regolamentazione.

Nelle ultime settimane, i colloqui si sono arenati sulla misura in cui le aziende dovrebbero essere autorizzate ad autoregolarsi.

Brando Benifei, uno dei due legislatori del Parlamento Europeo che guidano i negoziati sulle leggi, ha dichiarato a Reuters: Il comprensibile dramma di Altman che è stato licenziato da OpenAI e ora si è unito a Microsoft ci dimostra che non possiamo fare affidamento su accordi volontari mediati da leader visionari.

La regolamentazione, soprattutto quando si tratta dei modelli di IA più potenti, deve essere solida, trasparente e applicabile per proteggere la nostra società.

Lunedì, Reuters ha riferito che Francia, Germania e Italia hanno raggiunto un accordo sulle modalità di regolamentazione dell'IA, una mossa che dovrebbe accelerare i negoziati a livello europeo.

I tre governi sostengono "l'autoregolamentazione obbligatoria attraverso codici di condotta" per coloro che utilizzano modelli di IA generativa, ma alcuni esperti hanno affermato che questo non sarebbe sufficiente.

Alexandra van Huffelen, ministro olandese per la digitalizzazione, ha detto a Reuters che la saga di OpenAI ha sottolineato la necessità di regole severe.

Ha detto: La mancanza di trasparenza e la dipendenza da poche aziende influenti, a mio avviso, sottolineano chiaramente la necessità di una regolamentazione.

Nel frattempo, Gary Marcus, esperto di AI presso la New York University, ha scritto sulla piattaforma di social media X: "Non possiamo davvero fidarci delle aziende per autoregolamentare l'AI, dove anche la loro stessa governance interna può essere profondamente conflittuale".

"Per favore, non distruggete la legge europea sull'AI; ne abbiamo bisogno ora più che mai". (Relazioni di Martin Coulter e Supantha Mukherjee; Redazione di Susan Fenton)