Il Presidente Joe Biden ha incontrato giovedì i CEO delle principali aziende di intelligenza artificiale, tra cui Microsoft e Google di Alphabet, e ha chiarito che devono garantire che i loro prodotti siano sicuri prima di essere utilizzati.

L'intelligenza artificiale generativa è diventata una parola d'ordine quest'anno, con applicazioni come ChatGPT che hanno catturato l'attenzione del pubblico, scatenando una corsa tra le aziende per lanciare prodotti simili che ritengono possano cambiare la natura del lavoro.

Milioni di utenti hanno iniziato a testare questi strumenti, che secondo i sostenitori sono in grado di fare diagnosi mediche, scrivere sceneggiature, creare memorie legali e fare il debug di un software, ma ciò ha portato a crescenti preoccupazioni su come la tecnologia potrebbe portare a violazioni della privacy, influenzare le decisioni di impiego e alimentare truffe e campagne di disinformazione.

Biden, che ha usato ChatGPT e l'ha sperimentata, ha detto ai funzionari che devono mitigare i rischi attuali e potenziali che l'AI pone agli individui, alla società e alla sicurezza nazionale, ha detto la Casa Bianca.

L'incontro ha incluso una "discussione franca e costruttiva" sulla necessità per le aziende di essere più trasparenti con i politici sui loro sistemi di IA; sull'importanza di valutare la sicurezza di tali prodotti e sulla necessità di proteggerli da attacchi dannosi, ha aggiunto la Casa Bianca.

L'incontro di giovedì, durato due ore e iniziato alle 11.45 ET (1545 GMT), ha visto la partecipazione di Sundar Pichai di Google, Satya Nadella di Microsoft Corp, Sam Altman di OpenAI e Dario Amodei di Anthropic, oltre al Vicepresidente Kamala Harris e a funzionari dell'amministrazione, tra cui il Capo dello Staff di Biden Jeff Zients, il Consigliere per la Sicurezza Nazionale Jake Sullivan, il Direttore del Consiglio Economico Nazionale Lael Brainard e il Segretario al Commercio Gina Raimondo.

Harris ha detto in una dichiarazione che la tecnologia ha il potenziale di migliorare le vite, ma potrebbe porre problemi di sicurezza, privacy e diritti civili. Ha detto ai dirigenti che hanno la "responsabilità legale" di garantire la sicurezza dei loro prodotti di intelligenza artificiale e che l'Amministrazione è aperta ad avanzare nuovi regolamenti e a sostenere una nuova legislazione sull'intelligenza artificiale.

In risposta a una domanda se le aziende sono sulla stessa lunghezza d'onda sulle normative, Altman ha detto ai giornalisti dopo l'incontro che "siamo sorprendentemente sulla stessa lunghezza d'onda su ciò che deve accadere".

L'amministrazione ha anche annunciato un investimento di 140 milioni di dollari da parte della National Science Foundation per lanciare sette nuovi istituti di ricerca sull'AI e ha detto che l'Ufficio di Gestione e Bilancio della Casa Bianca rilascerà una guida politica sull'uso dell'AI da parte del governo federale.

I principali sviluppatori di AI, tra cui Anthropic, Google, Hugging Face, NVIDIA Corp, OpenAI e Stability AI, parteciperanno a una valutazione pubblica dei loro sistemi di AI.

Poco dopo l'annuncio della rielezione di Biden, il Comitato Nazionale Repubblicano ha prodotto un video con un futuro distopico durante un secondo mandato di Biden, costruito interamente con immagini di AI.

Si prevede che tali annunci politici diventeranno sempre più comuni con la proliferazione della tecnologia AI.

Le autorità di regolamentazione degli Stati Uniti non sono all'altezza dell'approccio severo che i governi europei hanno adottato in materia di regolamentazione tecnologica e nell'elaborazione di regole forti sui deepfakes e sulla disinformazione.

"Non la vediamo come una gara", ha detto un alto funzionario dell'amministrazione, aggiungendo che l'amministrazione sta lavorando a stretto contatto con il Consiglio per il Commercio e la Tecnologia degli Stati Uniti e dell'Unione Europea sulla questione.

A febbraio, Biden ha firmato un ordine esecutivo che indirizza le agenzie federali ad eliminare i pregiudizi nell'uso dell'AI. L'amministrazione Biden ha anche rilasciato una Carta dei Diritti dell'IA e un quadro di gestione del rischio. La scorsa settimana, anche la Federal Trade Commission e la Divisione Diritti Civili del Dipartimento di Giustizia hanno dichiarato che utilizzeranno le loro autorità legali per combattere i danni legati all'AI.

I giganti del settore tecnologico hanno promesso più volte di combattere la propaganda elettorale, le fake news sui vaccini COVID-19, la pornografia e lo sfruttamento dei bambini e la messaggistica di odio rivolta ai gruppi etnici. Ma non hanno avuto successo, come dimostrano le ricerche e i fatti di cronaca. (Servizio di Nandita Bose a Washington; Redazione di Heather Timmons, Gerry Doyle e Jonathan Oatis)