SAN FRANCISCO/NEW YORK - Safe Superintelligence (SSI), appena co-fondata dall'ex scienziato capo di OpenAI Ilya Sutskever, ha raccolto 1 miliardo di dollari in contanti per contribuire allo sviluppo di sistemi di intelligenza artificiale sicuri che superino di gran lunga le capacità umane, hanno dichiarato i dirigenti dell'azienda a Reuters.

SSI, che attualmente ha 10 dipendenti, prevede di utilizzare i fondi per acquisire potenza di calcolo e assumere i migliori talenti. Si concentrerà sulla costruzione di un piccolo team altamente fidato di ricercatori e ingegneri divisi tra Palo Alto, California e Tel Aviv, Israele.

L'azienda ha rifiutato di condividere la sua valutazione, ma fonti vicine alla questione hanno detto che è stata valutata 5 miliardi di dollari. Il finanziamento sottolinea come alcuni investitori siano ancora disposti a fare scommesse fuori misura su talenti eccezionali focalizzati sulla ricerca fondamentale sull'AI. Questo nonostante il generale calo di interesse verso il finanziamento di queste aziende che possono essere poco redditizie per un certo periodo di tempo, e che ha portato diversi fondatori di startup a lasciare i loro posti per i giganti tecnologici.

Tra gli investitori figurano le principali società di venture capital Andreessen Horowitz, Sequoia Capital, DST Global e SV Angel. Ha partecipato anche NFDG, una partnership di investimento gestita da Nat Friedman e dall'amministratore delegato di SSI Daniel Gross.

"Per noi è importante essere circondati da investitori che capiscono, rispettano e sostengono la nostra missione, che è quella di arrivare direttamente alla superintelligenza sicura e, in particolare, di dedicare un paio di anni alla ricerca e sviluppo del nostro prodotto prima di portarlo sul mercato", ha detto Gross in un'intervista.

La sicurezza dell'IA, che si riferisce alla prevenzione di danni causati dall'IA, è un tema caldo tra i timori che un'IA disonesta possa agire contro gli interessi dell'umanità o addirittura causare l'estinzione umana.

Una proposta di legge californiana che cerca di imporre norme di sicurezza alle aziende ha diviso il settore. È osteggiata da aziende come OpenAI e Google, e sostenuta da Anthropic e xAI di Elon Musk.

Sutskever, 37 anni, è uno dei tecnologi più influenti nel campo dell'AI. Ha co-fondato SSI a giugno con Gross, che in precedenza ha guidato le iniziative di AI presso Apple, e Daniel Levy, ex ricercatore di OpenAI.

Sutskever è lo scienziato capo e Levy è lo scienziato principale, mentre Gross è responsabile della potenza di calcolo e della raccolta fondi.

NUOVA MONTAGNA

Sutskever ha detto che la sua nuova impresa ha avuto senso perché "ha identificato una montagna un po' diversa da quella su cui stavo lavorando".

L'anno scorso, ha fatto parte del consiglio di amministrazione della casa madre no-profit di OpenAI, che ha votato per estromettere il CEO di OpenAI Sam Altman a causa di una "rottura delle comunicazioni".

Nel giro di pochi giorni, ha fatto marcia indietro e si è unito a quasi tutti i dipendenti di OpenAI per firmare una lettera che chiedeva il ritorno di Altman e le dimissioni del consiglio di amministrazione. Ma la svolta degli eventi ha diminuito il suo ruolo in OpenAI. È stato rimosso dal Consiglio di Amministrazione e ha lasciato l'azienda a maggio.

Dopo la partenza di Sutskever, l'azienda ha smantellato il suo team "Superallineamento", che lavorava per garantire che l'AI rimanesse allineata con i valori umani, per prepararsi al giorno in cui l'AI supererà l'intelligenza umana.

A differenza della struttura aziendale non ortodossa di OpenAI, implementata per motivi di sicurezza dell'AI ma che ha reso possibile l'estromissione di Altman, SSI ha una struttura regolare a scopo di lucro.

SSI è attualmente molto concentrata sull'assunzione di persone che si adattino alla sua cultura.

Gross ha detto che passano ore a verificare se i candidati hanno un "buon carattere" e cercano persone con capacità straordinarie piuttosto che enfatizzare eccessivamente le credenziali e l'esperienza nel settore.

"Una cosa che ci entusiasma è trovare persone interessate al lavoro, che non sono interessate alla scena, al clamore", ha aggiunto.

SSI afferma che intende collaborare con fornitori di cloud e aziende di chip per finanziare le sue esigenze di potenza di calcolo, ma non ha ancora deciso con quali aziende collaborerà. Le startup AI spesso collaborano con aziende come Microsoft e Nvidia per soddisfare le loro esigenze di infrastruttura.

Sutskever è stato uno dei primi sostenitori dello scaling, un'ipotesi secondo cui i modelli di AI migliorerebbero le prestazioni con grandi quantità di potenza di calcolo. L'idea e la sua esecuzione hanno dato il via a un'ondata di investimenti in AI nei chip, nei data center e nell'energia, gettando le basi per i progressi dell'AI generativa come ChatGPT.

Sutskever ha detto che affronterà la scalabilità in modo diverso rispetto al suo precedente datore di lavoro, senza condividere i dettagli.

"Tutti dicono solo ipotesi di scalata. Tutti trascurano di chiedersi: cosa stiamo scalando?", ha detto.

"Alcune persone possono lavorare molto a lungo e percorrere la stessa strada più velocemente. Non è il nostro stile. Ma se si fa qualcosa di diverso, allora diventa possibile fare qualcosa di speciale".