I legislatori statunitensi sono alle prese con quali guardrail mettere intorno alla nascente intelligenza artificiale, ma mesi dopo che ChatGPT ha attirato l'attenzione di Washington, il consenso è tutt'altro che certo.

Le interviste con un senatore degli Stati Uniti, con i collaboratori del Congresso, con le aziende di AI e con i gruppi di interesse mostrano che ci sono diverse opzioni in discussione.

Il dibattito sarà al centro dell'attenzione martedì, quando il CEO di OpenAI, Sam Altman, farà la sua prima apparizione davanti ad una commissione del Senato.

Alcune proposte si concentrano sull'IA che può mettere a rischio la vita o il sostentamento delle persone, come nel campo della medicina e della finanza. Altre possibilità includono regole per garantire che l'AI non venga utilizzata per discriminare o violare i diritti civili di qualcuno.

Un altro dibattito è se regolamentare lo sviluppatore di IA o l'azienda che la utilizza per interagire con i consumatori. OpenAI, la startup dietro il chatbot sensazionale ChatGPT, ha discusso di un regolatore autonomo per l'AI.

Non si sa quale approccio vincerà, ma alcuni esponenti della comunità imprenditoriale, tra cui IBM e la Camera di Commercio degli Stati Uniti, sono favorevoli all'approccio che regolamenta solo le aree critiche come le diagnosi mediche, che chiamano approccio basato sul rischio.

Se il Congresso decide che sono necessarie nuove leggi, la Commissione AI della Camera degli Stati Uniti sostiene che "il rischio deve essere determinato dall'impatto sulle persone", ha detto Jordan Crenshaw del Technology Engagement Center della Camera. "Una raccomandazione video potrebbe non rappresentare un rischio così elevato come le decisioni prese sulla salute o sulle finanze".

La crescente popolarità della cosiddetta AI generativa, che utilizza i dati per creare nuovi contenuti come la prosa dal suono umano di ChatGPT, ha scatenato la preoccupazione che la tecnologia in rapida evoluzione possa incoraggiare l'imbroglio agli esami, alimentare la disinformazione e portare a una nuova generazione di truffe.

Il clamore dell'AI ha portato a una raffica di incontri, tra cui una visita alla Casa Bianca questo mese da parte degli amministratori delegati di OpenAI, del suo finanziatore Microsoft Corp e di Alphabet Inc. Il Presidente Joe Biden ha incontrato i CEO.

Il Congresso è impegnato allo stesso modo, dicono gli assistenti del Congresso e gli esperti di tecnologia.

"Il personale di tutta la Camera e del Senato si è praticamente svegliato e si chiede a tutti di fare il punto della situazione", ha detto Jack Clark, co-fondatore della startup di alto profilo Anthropic, il cui CEO ha anche partecipato all'incontro alla Casa Bianca. "Le persone vogliono essere all'avanguardia con l'AI, in parte perché si sentono come se non fossero all'avanguardia con i social media".

Mentre i legislatori si aggiornano, la priorità principale di Big Tech è quella di spingere contro le "reazioni eccessive premature", ha detto Adam Kovacevich, capo della Camera del Progresso pro-tech.

E mentre i legislatori come il Leader della Maggioranza del Senato Chuck Schumer sono determinati ad affrontare le questioni relative all'AI in modo bipartisan, il fatto è che il Congresso è polarizzato, le elezioni presidenziali si terranno l'anno prossimo e i legislatori stanno affrontando altre questioni importanti, come l'aumento del tetto del debito.

Il piano proposto da Schumer prevede che esperti indipendenti testino le nuove tecnologie AI prima del loro rilascio. Chiede inoltre di garantire la trasparenza e di fornire al Governo i dati necessari per prevenire i danni.

MICROMANAGEMENT DEL GOVERNO

L'approccio basato sul rischio significa che l'IA utilizzata per diagnosticare il cancro, ad esempio, sarebbe esaminata dalla Food and Drug Administration, mentre l'IA per l'intrattenimento non sarebbe regolamentata. L'Unione Europea si è mossa per approvare regole simili.

Ma l'attenzione ai rischi sembra insufficiente per il senatore democratico Michael Bennet, che ha presentato un disegno di legge che richiede una task force governativa sull'AI. Ha detto di essere a favore di un "approccio basato sui valori" per dare priorità alla privacy, alle libertà civili e ai diritti.

Le regole basate sui rischi potrebbero essere troppo rigide e non cogliere pericoli come l'uso dell'AI per raccomandare video che promuovono la supremazia bianca, ha aggiunto un collaboratore di Bennet.

I legislatori hanno anche discusso il modo migliore per garantire che l'IA non venga utilizzata per discriminazioni razziali, magari per decidere chi può ottenere un mutuo a basso tasso di interesse, secondo una persona che segue le discussioni del Congresso e che non è autorizzata a parlare con i giornalisti.

In OpenAI, il personale ha pensato a una supervisione più ampia.

Cullen O'Keefe, ricercatore di OpenAI, ha proposto in una conferenza di aprile all'Università di Stanford la creazione di un'agenzia che imponga alle aziende di ottenere licenze prima di addestrare potenti modelli di IA o di gestire i centri dati che li facilitano. L'agenzia, ha detto O'Keefe, potrebbe chiamarsi Office for AI Safety and Infrastructure Security, o OASIS.

Interpellata sulla proposta, Mira Murati, Chief Technology Officer di OpenAI, ha detto che un organismo affidabile potrebbe "responsabilizzare gli sviluppatori" sugli standard di sicurezza. Ma più importante della meccanica è l'accordo "su quali sono gli standard, quali sono i rischi che si cerca di mitigare".

L'ultimo grande regolatore creato è stato il Consumer Financial Protection Bureau, istituito dopo la crisi finanziaria del 2007-2008.

Alcuni repubblicani potrebbero essere contrari a qualsiasi regolamentazione dell'AI.

"Dovremmo fare attenzione che le proposte di regolamentazione dell'IA non diventino il meccanismo per la microgestione governativa del codice informatico come i motori di ricerca e gli algoritmi", ha detto a Reuters un collaboratore repubblicano del Senato. (Relazioni di Diane Bartz e Jeffrey Dastin; Redazione di Chris Sanders e Anna Driver)