La spaccatura che è costata a Sam Altman, ragazzo prodigio dell'intelligenza artificiale, il posto di amministratore delegato di OpenAI, riflette una fondamentale divergenza di opinioni sulla sicurezza, in generale, tra due schieramenti che sviluppano il software che cambia il mondo e riflettono sul suo impatto sociale.

Da una parte ci sono coloro che, come Altman, considerano il rapido sviluppo e, soprattutto, la diffusione pubblica dell'IA come essenziale per testare e perfezionare la tecnologia. Dall'altra parte ci sono coloro che sostengono che il percorso più sicuro da seguire è quello di sviluppare e testare completamente l'IA in laboratorio, per garantire che sia, per così dire, sicura per il consumo umano.

Altman, 38 anni, è stato licenziato venerdì dall'azienda che ha creato il popolare chatbot ChatGPT. Per molti, era considerato il volto umano dell'AI generativa.

Alcuni temono che il software iper-intelligente possa diventare incontrollabile, portando alla catastrofe - una preoccupazione tra i lavoratori del settore tecnologico che seguono un movimento sociale chiamato "altruismo efficace", che crede che i progressi dell'AI debbano andare a beneficio dell'umanità. Tra coloro che condividono questi timori c'è Ilya Sutskever di OpenAI, lo scienziato capo e un membro del consiglio di amministrazione che ha approvato l'estromissione di Altman.

Una divisione simile è emersa tra gli sviluppatori di auto a guida autonoma - anch'esse controllate dall'AI - che sostengono che devono essere sguinzagliate tra le strade urbane dense per comprendere appieno le facoltà e le manie dei veicoli; mentre altri invitano alla moderazione, preoccupati che la tecnologia presenti rischi inconoscibili.

Queste preoccupazioni sull'AI generativa hanno raggiunto il culmine con l'estromissione a sorpresa di Altman, che era anche cofondatore di OpenAI. L'AI generativa è il termine che indica il software in grado di produrre contenuti coerenti, come saggi, codici informatici e immagini simili a foto, in risposta a semplici richieste. La popolarità di OpenAIs ChatGPT nell'ultimo anno ha accelerato il dibattito su come regolamentare e sviluppare al meglio il software.

La domanda è se si tratta solo di un altro prodotto, come i social media o le criptovalute, o se si tratta di una tecnologia che ha la capacità di superare gli esseri umani e diventare incontrollabile, ha detto Connor Leahy, CEO di ConjectureAI e sostenitore della sicurezza. Il futuro appartiene quindi alle macchine? Sutskever ha riferito che Altman stava spingendo il software OpenAIs troppo rapidamente nelle mani degli utenti, compromettendo potenzialmente la sicurezza.

"Non abbiamo una soluzione per dirigere o controllare un'IA potenzialmente superintelligente e per evitare che diventi un'entità anomala", hanno scritto lui e un suo vice in un post sul blog di luglio. "Gli esseri umani non saranno in grado di supervisionare in modo affidabile sistemi AI molto più intelligenti di noi.

Secondo quanto riferito, OpenAI ha annunciato una serie di nuovi prodotti disponibili in commercio durante il suo evento per gli sviluppatori all'inizio del mese, tra cui una versione del suo software ChatGPT-4 e i cosiddetti agenti che funzionano come assistenti virtuali.

Sutskever non ha risposto a una richiesta di commento.

Il destino di OpenAI è considerato da molti tecnologi come critico per lo sviluppo dell'AI. Nel fine settimana, le discussioni per il reintegro di Altman sono fallite, spegnendo le speranze degli accoliti dell'ex CEO.

Il rilascio di ChatGPT lo scorso novembre ha scatenato una frenesia di investimenti nelle aziende di AI, tra cui 10 miliardi di dollari da parte di Microsoft in OpenAI e altri miliardi per altre startup, anche da parte di Alphabet e Amazon.com.

Ciò può contribuire a spiegare l'esplosione di nuovi prodotti di AI, mentre aziende come Anthropic e ScaleAI corrono per mostrare agli investitori i loro progressi. Le autorità di regolamentazione, nel frattempo, stanno cercando di tenere il passo con lo sviluppo dell'IA, comprese le linee guida dell'amministrazione Biden e la spinta per un'autoregolamentazione obbligatoria da parte di alcuni Paesi, mentre l'Unione Europea sta lavorando per attuare un'ampia supervisione del software.

Mentre la maggior parte utilizza un software di AI generativa, come ChatGPT, per integrare il proprio lavoro, come la scrittura di rapidi riassunti di lunghi documenti, gli osservatori sono cauti nei confronti delle versioni che potrebbero emergere, note come intelligenza artificiale generale, o AGI, che potrebbero eseguire compiti sempre più complicati senza alcuna richiesta. Ciò ha suscitato il timore che il software possa, da solo, assumere il controllo dei sistemi di difesa, creare propaganda politica o produrre armi.

OpenAI è stata fondata come organizzazione non profit otto anni fa, in parte per garantire che i suoi prodotti non fossero guidati dal profitto, che avrebbe potuto condurla lungo un pendio scivoloso verso una pericolosa AGI, quella che nello statuto dell'azienda viene definita come qualsiasi minaccia di danneggiare l'umanità o di concentrare indebitamente il potere. Ma da allora, Altman ha contribuito a creare un'entità a scopo di lucro all'interno dell'azienda, allo scopo di raccogliere fondi e altri obiettivi.

Nella tarda serata di domenica, OpenAI ha nominato come CEO ad interim Emmett Shear, l'ex capo della piattaforma di streaming Twitch. A settembre ha sostenuto sui social media un "rallentamento" dello sviluppo dell'AI. "Se in questo momento la velocità è 10, una pausa significa ridurre a 0. Credo che dovremmo puntare a 1-2", ha scritto.

I motivi precisi dietro l'estromissione di Altman non erano ancora chiari lunedì. Ma è lecito concludere che OpenAI dovrà affrontare sfide impegnative per il futuro.