L'amministrazione Biden è pronta ad aprire un nuovo fronte nel suo sforzo di salvaguardare l'IA degli Stati Uniti dalla Cina e dalla Russia, con piani preliminari per mettere delle barriere intorno ai modelli di IA più avanzati, il software di base dei sistemi di intelligenza artificiale come ChatGPT, hanno detto le fonti.

Il Dipartimento del Commercio sta valutando una nuova spinta normativa per limitare l'esportazione di modelli AI proprietari o closed source, il cui software e i dati su cui vengono addestrati sono tenuti nascosti, hanno detto tre persone a conoscenza della questione.

Qualsiasi azione completerebbe una serie di misure messe in atto negli ultimi due anni per bloccare l'esportazione di sofisticati chip AI in Cina, nel tentativo di rallentare lo sviluppo di Pechino di questa tecnologia all'avanguardia per scopi militari. Tuttavia, sarà difficile per le autorità di regolamentazione tenere il passo con i rapidi sviluppi del settore.

Il Dipartimento del Commercio ha rifiutato di commentare, mentre l'Ambasciata russa a Washington non ha risposto immediatamente a una richiesta di commento. L'Ambasciata cinese ha descritto la mossa come un "tipico atto di coercizione economica e di bullismo unilaterale, a cui la Cina si oppone fermamente", aggiungendo che adotterà le "misure necessarie" per proteggere i suoi interessi.

Attualmente, nulla impedisce ai giganti dell'AI statunitensi come OpenAI, sostenuta da Microsoft, Google DeepMind di Alphabet e la rivale Anthropic, che hanno sviluppato alcuni dei modelli di AI closed source più potenti, di venderli a quasi tutti nel mondo senza la supervisione del Governo.

I ricercatori del governo e del settore privato temono che gli avversari degli Stati Uniti possano utilizzare i modelli, che estrapolano grandi quantità di testo e immagini per riassumere informazioni e generare contenuti, per sferrare attacchi informatici aggressivi o addirittura creare potenti armi biologiche.

Una delle fonti ha detto che qualsiasi nuovo controllo sulle esportazioni sarebbe probabilmente rivolto a Russia, Cina, Corea del Nord e Iran. In un rapporto di febbraio, Microsoft ha dichiarato di aver tracciato gruppi di hacker affiliati ai governi cinese e nordcoreano, nonché all'intelligence militare russa e alla Guardia Rivoluzionaria iraniana, mentre cercavano di perfezionare le loro campagne di hacking utilizzando modelli linguistici di grandi dimensioni.

POTENZA DI CALCOLO

Per sviluppare un controllo sulle esportazioni dei modelli di AI, le fonti hanno detto che gli Stati Uniti potrebbero rivolgersi a una soglia contenuta in un ordine esecutivo sull'AI emesso lo scorso ottobre, che si basa sulla quantità di potenza di calcolo necessaria per addestrare un modello. Una volta raggiunto tale livello, uno sviluppatore deve riferire i suoi piani di sviluppo di modelli AI e fornire i risultati dei test al Dipartimento del Commercio.

Questa soglia di potenza di calcolo potrebbe diventare la base per determinare quali modelli di AI sarebbero soggetti a restrizioni di esportazione, secondo due funzionari statunitensi e un'altra fonte informata sulle discussioni. Hanno rifiutato di essere nominati perché i dettagli non sono stati resi pubblici.

Se venisse utilizzata, probabilmente limiterebbe solo l'esportazione di modelli che devono ancora essere rilasciati, poiché si ritiene che nessuno abbia ancora raggiunto la soglia, sebbene Gemini Ultra di Google sia considerato vicino, secondo EpochAI, un istituto di ricerca che segue le tendenze dell'AI.

L'agenzia è lontana dal finalizzare una proposta di regola, hanno sottolineato le fonti. Ma il fatto che una tale mossa sia presa in considerazione dimostra che il Governo degli Stati Uniti sta cercando di colmare le lacune nel suo sforzo di ostacolare le ambizioni di Pechino in materia di AI, nonostante le serie sfide per imporre un regime normativo muscolare sulla tecnologia in rapida evoluzione.

Mentre l'amministrazione Biden esamina la concorrenza con la Cina e i pericoli di un'IA sofisticata, i modelli di IA "sono ovviamente uno degli strumenti, uno dei potenziali punti di strozzatura a cui bisogna pensare", ha detto Peter Harrell, ex funzionario del Consiglio di Sicurezza Nazionale. "Resta da vedere se è possibile, in effetti, in termini pratici, trasformarlo in un punto di strozzatura controllabile dalle esportazioni", ha aggiunto.

ARMI BIOLOGICHE E ATTACCHI INFORMATICI?

La comunità di intelligence americana, i think tank e gli accademici sono sempre più preoccupati dei rischi posti dai cattivi attori stranieri che hanno accesso a capacità avanzate di intelligenza artificiale. I ricercatori di Gryphon Scientific e Rand Corporation hanno notato che i modelli avanzati di AI possono fornire informazioni che potrebbero aiutare a creare armi biologiche.

Il Dipartimento di Sicurezza Nazionale ha affermato che gli attori informatici probabilmente utilizzeranno l'AI per "sviluppare nuovi strumenti" per "consentire attacchi informatici su larga scala, più veloci, efficienti e più evasivi" nella sua valutazione della minaccia alla patria per il 2024.

"Il potenziale di esplosione per l'uso e lo sfruttamento dell'IA è radicale e stiamo facendo molta fatica a seguirlo", ha dichiarato Brian Holmes, funzionario dell'Ufficio del Direttore dell'Intelligence Nazionale, in occasione di un incontro sul controllo delle esportazioni a marzo, segnalando l'avanzamento della Cina come una preoccupazione particolare.

CRACKDOWN AI

Per rispondere a queste preoccupazioni, gli Stati Uniti hanno adottato misure per arginare il flusso di chip AI americani e gli strumenti per realizzarli in Cina.

Ha anche proposto una regola per richiedere alle aziende cloud statunitensi di informare il governo quando i clienti stranieri utilizzano i loro servizi per addestrare potenti modelli AI che potrebbero essere utilizzati per attacchi informatici.

Ma finora non ha affrontato il tema dei modelli di AI in sé. Alan Estevez, che supervisiona la politica di esportazione degli Stati Uniti presso il Dipartimento del Commercio, ha dichiarato a dicembre che l'agenzia stava esaminando le opzioni per regolamentare le esportazioni di modelli linguistici open source di grandi dimensioni (LLM) prima di chiedere un feedback al settore.

Tim Fist, esperto di politiche sull'AI presso il think tank CNAS di Washington DC, afferma che la soglia "è una buona misura temporanea fino a quando non svilupperemo metodi migliori per misurare le capacità e i rischi dei nuovi modelli".

Jamil Jaffer, ex funzionario della Casa Bianca e del Dipartimento di Giustizia, ha affermato che l'amministrazione Biden non dovrebbe utilizzare una soglia di potenza di calcolo, ma optare per un controllo basato sulle capacità del modello e sull'uso previsto. "Concentrarsi sul rischio per la sicurezza nazionale piuttosto che sulle soglie tecnologiche è la soluzione migliore, perché è più duratura e focalizzata sulla minaccia", ha detto.

La soglia non è ancora stata fissata. Una delle fonti ha detto che il Commercio potrebbe finire con un limite inferiore, abbinato ad altri fattori, come il tipo di dati o gli usi potenziali per il modello AI, come la capacità di progettare proteine che potrebbero essere utilizzate per creare un'arma biologica.

Indipendentemente dalla soglia, le esportazioni di modelli AI saranno difficili da controllare. Molti modelli sono open source, il che significa che rimarrebbero al di fuori dei controlli sulle esportazioni in esame.

Anche l'imposizione di controlli sui modelli proprietari più avanzati si rivelerà impegnativa, in quanto i regolatori probabilmente faticheranno a definire i criteri giusti per determinare quali modelli debbano essere controllati, ha detto Fist, notando che la Cina è probabilmente solo di circa due anni indietro rispetto agli Stati Uniti nello sviluppo del proprio software di AI.

Il controllo delle esportazioni preso in considerazione avrebbe un impatto sull'accesso al software di back-end che alimenta alcune applicazioni consumer come ChatGPT, ma non limiterebbe l'accesso alle applicazioni a valle stesse. (Servizio di Alexandra Alper; Servizio aggiuntivo di Karen Freifeld e Anna Tong; Redazione di Chris Sanders e Anna Driver)