L'amministrazione Biden è pronta ad aprire un nuovo fronte nel suo sforzo di salvaguardare l'IA degli Stati Uniti dalla Cina e dalla Russia, con piani preliminari per mettere dei guardrail intorno ai modelli di IA più avanzati, secondo quanto riportato da Reuters mercoledì.

I ricercatori del governo e del settore privato temono che gli avversari degli Stati Uniti possano utilizzare i modelli, che estrapolano grandi quantità di testo e immagini per riassumere informazioni e generare contenuti, per sferrare attacchi informatici aggressivi o addirittura creare potenti armi biologiche.

Ecco alcune minacce poste dall'AI:

DEEPFAKES E DISINFORMAZIONE

I deepfakes - video realistici, ma creati da algoritmi di IA addestrati su numerosi filmati online - stanno emergendo sui social media, confondendo fatti e finzione nel mondo polarizzato della politica statunitense.

Sebbene questi media sintetici siano in circolazione da diversi anni, nell'ultimo anno sono stati potenziati da una serie di nuovi strumenti di "AI generativa", come Midjourney, che rendono economica e facile la creazione di deepfakes convincenti.

Gli strumenti di creazione di immagini alimentati dall'intelligenza artificiale di aziende come OpenAI e Microsoft, possono essere utilizzati per produrre foto che potrebbero promuovere la disinformazione elettorale o legata al voto, nonostante ognuno di essi abbia politiche contro la creazione di contenuti fuorvianti, hanno affermato i ricercatori in un rapporto di marzo.

Alcune campagne di disinformazione sfruttano semplicemente la capacità dell'AI di imitare articoli di notizie reali come mezzo per diffondere informazioni false. Mentre le principali piattaforme di social media come Facebook, Twitter e YouTube si sono impegnate per proibire e rimuovere i deepfakes, la loro efficacia nel controllare tali contenuti varia. Ad esempio, l'anno scorso, un sito di notizie controllato dal governo cinese che utilizzava una piattaforma di AI generativa ha diffuso una falsa affermazione precedentemente diffusa, secondo la quale gli Stati Uniti stavano gestendo un laboratorio in Kazakistan per creare armi biologiche da usare contro la Cina, ha dichiarato il Dipartimento di Sicurezza Nazionale (DHS) nella sua valutazione della minaccia alla patria per il 2024.

Il Consigliere per la Sicurezza Nazionale Jake Sullivan, intervenendo ad un evento sull'AI a Washington mercoledì, ha detto che il problema non ha soluzioni facili, perché combina la capacità dell'AI con "l'intento di attori statali e non statali di usare la disinformazione su scala, di disturbare le democrazie, di far avanzare la propaganda, di plasmare la percezione nel mondo".

"In questo momento l'attacco sta battendo la difesa alla grande", ha detto.

BIOIMPIANTI

La comunità di intelligence americana, i think tank e gli accademici sono sempre più preoccupati dei rischi posti dai cattivi attori stranieri che hanno accesso a capacità avanzate di IA. I ricercatori di Gryphon Scientific e Rand Corporation hanno notato che i modelli avanzati di AI possono fornire informazioni che potrebbero aiutare a creare armi biologiche.

Gryphon ha studiato come i modelli linguistici di grandi dimensioni (LLM) - programmi informatici che attingono da enormi quantità di testo per generare risposte alle query - potrebbero essere utilizzati da attori ostili per causare danni nel settore delle scienze della vita e ha scoperto che "possono fornire informazioni che potrebbero aiutare un attore malintenzionato a creare un'arma biologica, fornendo informazioni utili, accurate e dettagliate in ogni fase di questo percorso".

Hanno scoperto, ad esempio, che un LLM potrebbe fornire conoscenze di livello post-dottorale per risolvere i problemi quando si lavora con un virus in grado di provocare una pandemia.

La ricerca di Rand ha dimostrato che i LLM potrebbero aiutare nella pianificazione e nell'esecuzione di un attacco biologico. Hanno scoperto che un LLM potrebbe, ad esempio, suggerire metodi di somministrazione di aerosol per la tossina botulinica.

ARMI CIBERNETICHE

Il DHS ha affermato che gli attori informatici probabilmente utilizzeranno l'AI per "sviluppare nuovi strumenti" per "consentire attacchi informatici su larga scala, più veloci, efficienti e più evasivi" contro le infrastrutture critiche, tra cui oleodotti e ferrovie, nella sua valutazione della minaccia alla patria per il 2024.

La Cina e altri avversari stanno sviluppando tecnologie AI che potrebbero minare le difese informatiche degli Stati Uniti, ha detto il DHS, compresi i programmi AI generativi che supportano gli attacchi malware.

In un rapporto di febbraio, Microsoft ha dichiarato di aver tracciato gruppi di hacker affiliati ai governi cinese e nordcoreano, nonché all'intelligence militare russa e alla Guardia Rivoluzionaria iraniana, mentre cercavano di perfezionare le loro campagne di hacking utilizzando modelli linguistici di grandi dimensioni.

NUOVI SFORZI PER AFFRONTARE LE MINACCE

Un gruppo bipartisan di legislatori ha presentato mercoledì una proposta di legge che renderebbe più facile per l'Amministrazione Biden imporre controlli sull'esportazione di modelli di IA, nel tentativo di salvaguardare la pregiata tecnologia statunitense contro i cattivi attori stranieri.

Il disegno di legge, sponsorizzato dai repubblicani della Camera Michael McCaul, John Molenaar, Max Wise e dal democratico Raja Krishnamoorthi, darebbe anche al Dipartimento del Commercio l'autorità esplicita di impedire agli americani di collaborare con gli stranieri per sviluppare sistemi di IA che pongono rischi alla sicurezza nazionale degli Stati Uniti.

Tony Samp, consulente per le politiche sull'AI a Washington, ha detto che i politici di Washington stanno cercando di "promuovere l'innovazione e di evitare una regolamentazione pesante che soffoca l'innovazione", nel tentativo di affrontare i numerosi rischi posti dalla tecnologia.

Tuttavia, ha avvertito che "un giro di vite sullo sviluppo dell'IA attraverso la regolamentazione potrebbe inibire potenziali scoperte in settori come la scoperta di farmaci, le infrastrutture, la sicurezza nazionale e altri, e perdere terreno nei confronti dei concorrenti all'estero". (Servizio di Alexandra Alper; Redazione di Anna Driver e Stephen Coates)