La lettera, datata 22 marzo e con più di 1.800 firme entro venerdì, chiedeva di interrompere per sei mesi lo sviluppo di sistemi "più potenti" del nuovo GPT-4 di OpenAI, sostenuto da Microsoft, che può tenere conversazioni simili a quelle umane, comporre canzoni e riassumere lunghi documenti.

Da quando il predecessore di GPT-4, ChatGPT, è stato rilasciato lo scorso anno, le aziende rivali si sono affrettate a lanciare prodotti simili.

La lettera aperta afferma che i sistemi di AI con "intelligenza competitiva umana" pongono rischi profondi per l'umanità, citando 12 ricerche di esperti, tra cui accademici universitari, nonché dipendenti attuali ed ex di OpenAI, Google e la sua filiale DeepMind.

I gruppi della società civile negli Stati Uniti e nell'Unione Europea hanno da allora fatto pressione sui legislatori affinché controllino la ricerca di OpenAI. OpenAI non ha risposto immediatamente alle richieste di commento.

I critici hanno accusato il Future of Life Institute (FLI), l'organizzazione che sta dietro alla lettera e che è principalmente finanziata dalla Musk Foundation, di dare priorità a scenari apocalittici immaginari rispetto a preoccupazioni più immediate sull'IA, come i pregiudizi razzisti o sessisti programmati nelle macchine.

Tra le ricerche citate c'è "On the Dangers of Stochastic Parrots", un noto documento co-autore di Margaret Mitchell, che in precedenza ha supervisionato la ricerca etica sull'AI presso Google.

Mitchell, ora scienziato etico capo dell'azienda di AI Hugging Face, ha criticato la lettera, dicendo a Reuters che non era chiaro cosa contasse come "più potente del GPT4".

"Trattando molte idee discutibili come un dato di fatto, la lettera afferma una serie di priorità e una narrativa sull'IA che avvantaggia i sostenitori della FLI", ha detto. "Ignorare i danni attivi in questo momento è un privilegio che alcuni di noi non hanno".

I suoi co-autori Timnit Gebru ed Emily M. Bender hanno criticato la lettera su Twitter, con quest'ultima che ha bollato alcune delle sue affermazioni come "sconsiderate".

Il presidente di FLI Max Tegmark ha detto a Reuters che la campagna non era un tentativo di ostacolare il vantaggio aziendale di OpenAI.

"È piuttosto esilarante. Ho visto persone dire: 'Elon Musk sta cercando di rallentare la concorrenza'", ha detto, aggiungendo che Musk non ha avuto alcun ruolo nella stesura della lettera. "Non si tratta di un'azienda".

RISCHI ORA

Anche Shiri Dori-Hacohen, professore assistente presso l'Università del Connecticut, si è lamentata del fatto che il suo lavoro sia stato citato nella lettera. L'anno scorso è stata coautrice di un documento di ricerca in cui sosteneva che l'uso diffuso dell'IA comportava già seri rischi.

La sua ricerca sosteneva che l'uso attuale dei sistemi di AI potrebbe influenzare il processo decisionale in relazione al cambiamento climatico, alla guerra nucleare e ad altre minacce esistenziali.

Ha detto a Reuters: "Non è necessario che l'AI raggiunga un'intelligenza di livello umano per aggravare questi rischi".

"Ci sono rischi non esistenziali che sono davvero molto importanti, ma non ricevono lo stesso tipo di attenzione a livello hollywoodiano".

Alla richiesta di commentare le critiche, Tegmark di FLI ha detto che i rischi a breve e a lungo termine dell'IA devono essere presi sul serio.

"Se citiamo qualcuno, significa solo che sosteniamo che sta approvando quella frase. Non vuol dire che approvano la lettera o che approviamo tutto ciò che pensano", ha detto a Reuters.

Dan Hendrycks, direttore del Center for AI Safety con sede in California, anch'egli citato nella lettera, ha sostenuto i suoi contenuti, dicendo a Reuters che è ragionevole considerare gli eventi del cigno nero - quelli che sembrano improbabili, ma che avrebbero conseguenze devastanti.

La lettera aperta avverte anche che gli strumenti di AI generativa potrebbero essere utilizzati per inondare Internet di "propaganda e falsità".

Dori-Hacohen ha detto che è "piuttosto ricco" che Musk l'abbia firmata, citando un aumento segnalato della disinformazione su Twitter dopo la sua acquisizione della piattaforma, documentato dal gruppo della società civile Common Cause e da altri.

Twitter lancerà presto una nuova struttura tariffaria per l'accesso ai suoi dati di ricerca, ostacolando potenzialmente la ricerca sul tema.

"Questo ha avuto un impatto diretto sul lavoro del mio laboratorio e su quello di altri che studiano la disinformazione", ha detto Dori-Hacohen. "Stiamo operando con una mano legata dietro la schiena".

Musk e Twitter non hanno risposto immediatamente alle richieste di commento.