Il principale democratico del Senato degli Stati Uniti porterà i leader tecnologici statunitensi, tra cui l'amministratore delegato di Tesla Elon Musk, l'amministratore delegato di Meta Platforms Mark Zuckerberg e l'amministratore delegato di Alphabet Sundar Pichai, a Capitol Hill mercoledì per un forum a porte chiuse su come il Congresso dovrebbe definire le salvaguardie dell'intelligenza artificiale.

"Per il Congresso legiferare sull'intelligenza artificiale significa impegnarsi in uno dei temi più complessi e importanti che il Congresso abbia mai affrontato", ha detto martedì il leader della maggioranza del Senato Chuck Schumer.

I legislatori sono alle prese con il modo in cui mitigare i pericoli della tecnologia emergente, che ha registrato un boom di investimenti e di popolarità tra i consumatori dopo il rilascio di ChatGPT di OpenAI.

I legislatori vogliono garanzie contro i deepfake potenzialmente pericolosi, le interferenze elettorali e gli attacchi alle infrastrutture critiche.

Tra i partecipanti attesi ci sono l'amministratore delegato di OpenAI Sam Altman, l'amministratore delegato di Nvidia Jensen Huang, l'amministratore delegato di Microsoft Satya Nadella, l'amministratore delegato di IBM Arvind Krishna, l'ex amministratore delegato di Microsoft Bill Gates, il presidente dell'AFL-CIO Liz Shuler e i senatori Mike Rounds, Martin Heinrich e Todd Young.

Schumer, che ha parlato di AI con Musk ad aprile, vuole che i partecipanti parlino "del perché il Congresso deve agire, quali domande porre e come costruire un consenso per un'innovazione sicura". Le sessioni iniziano alle 10.00 ET e dureranno fino alle 17.00 ET.

A marzo, Musk e un gruppo di esperti e dirigenti di AI hanno chiesto una pausa di sei mesi nello sviluppo di sistemi più potenti del GPT-4 di OpenAI, citando i potenziali rischi per la società.

Questa settimana, il Congresso sta tenendo tre audizioni separate sull'IA. Il Presidente di Microsoft Brad Smith ha dichiarato martedì a una sottocommissione giudiziaria del Senato che il Congresso dovrebbe "richiedere freni di sicurezza per l'IA che controlla o gestisce infrastrutture critiche".

Smith ha paragonato le salvaguardie dell'IA alla richiesta di interruttori automatici negli edifici, di freni di emergenza per gli autobus scolastici e di sistemi anticollisione per gli aerei.

Le autorità di regolamentazione a livello globale si sono affannate a redigere regole che disciplinano l'uso dell'IA generativa, che può creare testi e generare immagini la cui origine artificiale è praticamente impercettibile.

Adobe, IBM, Nvidia e altre cinque aziende hanno dichiarato martedì di aver firmato gli impegni volontari del Presidente Joe Biden in materia di AI, che richiedono misure come la filigrana dei contenuti generati dall'AI.

Gli impegni annunciati a luglio miravano a garantire che il potere dell'IA non venisse utilizzato per scopi distruttivi. Google, OpenAI e Microsoft hanno firmato a luglio. La Casa Bianca ha anche lavorato ad un ordine esecutivo sull'AI. (Servizio di David Shepardson; Redazione di Lincoln Feast).