Meta ha dichiarato mercoledi di aver trovato contenuti "probabilmente generati dall'AI" utilizzati in modo ingannevole sulle sue piattaforme Facebook e Instagram, tra cui commenti che elogiano la gestione della guerra a Gaza da parte di Israele, pubblicati sotto i post di organizzazioni giornalistiche globali e di legislatori statunitensi.

L'azienda di social media, in un rapporto trimestrale sulla sicurezza, ha dichiarato che gli account si sono spacciati per studenti ebrei, afroamericani e altri cittadini preoccupati, rivolgendosi al pubblico degli Stati Uniti e del Canada. Ha attribuito la campagna alla societa di marketing politico STOIC, con sede a Tel Aviv.

STOIC non ha risposto immediatamente a una richiesta di commento sulle accuse.

PERCHE E IMPORTANTE

Mentre Meta ha trovato foto di profilo di base generate dall'intelligenza artificiale nelle operazioni di influenza dal 2019, il rapporto e il primo a rivelare l'uso di tecnologie AI generative piu sofisticate da quando sono emerse alla fine del 2022.

I ricercatori temono che l'AI generativa, che puo produrre in modo rapido ed economico testi, immagini e audio simili a quelli umani, possa portare a campagne di disinformazione piu efficaci e influenzare le elezioni.

In una telefonata alla stampa, i dirigenti di Meta Security hanno affermato di non ritenere che le nuove tecnologie AI abbiano ostacolato la loro capacita di interrompere le reti di influenza, che sono tentativi coordinati di diffondere messaggi.

I dirigenti hanno detto di non aver visto immagini di politici generate dall'AI abbastanza realistiche da essere confuse con foto autentiche.

QUOTA CHIAVE

"Ci sono diversi esempi in queste reti di come utilizzano probabilmente strumenti di AI generativa per creare contenuti. Forse da loro la possibilita di farlo piu velocemente o di farlo con maggiore volume. Ma non ha davvero avuto un impatto sulla nostra capacita di rilevarli", ha dichiarato il responsabile delle indagini sulle minacce di Meta, Mike Dvilyanski.

IN NUMERI

Il rapporto ha evidenziato sei operazioni di influenza occulta che Meta ha interrotto nel primo trimestre.

Oltre alla rete STOIC, Meta ha interrotto una rete basata sull'Iran e focalizzata sul conflitto Israele-Hamas, anche se non ha identificato alcun uso dell'AI generativa in quella campagna.

CONTESTO

Meta e altri giganti tecnologici si sono confrontati su come affrontare il potenziale uso improprio delle nuove tecnologie AI, soprattutto nelle elezioni.

I ricercatori hanno trovato esempi di generatori di immagini di aziende come OpenAI e Microsoft che hanno prodotto foto con disinformazione legata al voto, nonostante queste aziende abbiano politiche contro tali contenuti.

Le aziende hanno enfatizzato i sistemi di etichettatura digitale per contrassegnare i contenuti generati dall'AI al momento della loro creazione, anche se gli strumenti non funzionano sul testo e i ricercatori dubitano della loro efficacia.

COSA AVVIENE

Meta affronta test chiave delle sue difese con le elezioni nell'Unione Europea all'inizio di giugno e negli Stati Uniti a novembre.