Un gruppo di 20 aziende tecnologiche ha annunciato venerdì di aver concordato di collaborare per impedire che i contenuti ingannevoli dell'intelligenza artificiale interferiscano con le elezioni di quest'anno in tutto il mondo.

La rapida crescita dell'intelligenza artificiale generativa (AI), che può creare testi, immagini e video in pochi secondi in risposta a richieste, ha aumentato i timori che la nuova tecnologia possa essere utilizzata per influenzare le principali elezioni di quest'anno, quando più della metà della popolazione mondiale si recherà alle urne.

Tra i firmatari dell'accordo tecnologico, che è stato annunciato alla Conferenza sulla Sicurezza di Monaco, ci sono aziende che costruiscono modelli di AI generativa utilizzati per creare contenuti, tra cui OpenAI, Microsoft e Adobe. Altri firmatari includono piattaforme di social media che dovranno affrontare la sfida di tenere i contenuti dannosi fuori dai loro siti, come Meta Platforms , TikTok e X, precedentemente conosciuto come Twitter.

L'accordo prevede l'impegno a collaborare allo sviluppo di strumenti per il rilevamento di immagini, video e audio ingannevoli generati dall'AI, alla creazione di campagne di sensibilizzazione del pubblico per educare gli elettori sui contenuti ingannevoli e all'adozione di misure contro tali contenuti sui loro servizi.

La tecnologia per identificare i contenuti generati dall'AI o certificarne l'origine potrebbe includere il watermarking o l'incorporazione di metadati, hanno detto le aziende.

L'accordo non specifica una tempistica per l'adempimento degli impegni o il modo in cui ciascuna azienda li implementerà.

Credo che l'utilità di questo (accordo) sia l'ampiezza delle aziende che lo sottoscrivono, ha dichiarato Nick Clegg, presidente degli affari globali di Meta Platforms.

Va bene se le singole piattaforme sviluppano nuove politiche di rilevamento, provenienza, etichettatura, filigrana e così via, ma a meno che non ci sia un impegno più ampio a farlo in un modo condiviso e interoperabile, rimarremo bloccati con un guazzabuglio di impegni diversi, ha detto Clegg.

L'AI generativa viene già utilizzata per influenzare la politica e persino per convincere le persone a non votare.

A gennaio, un robocall che utilizzava un audio falso del Presidente degli Stati Uniti Joe Biden è stato diffuso agli elettori del New Hampshire, invitandoli a rimanere a casa durante le elezioni primarie presidenziali dello Stato.

Nonostante la popolarità degli strumenti di generazione di testo come ChatGPT di OpenAI, le aziende tecnologiche si concentreranno sulla prevenzione degli effetti dannosi delle foto, dei video e degli audio dell'AI, in parte perché le persone tendono ad avere più scetticismo nei confronti del testo, ha dichiarato Dana Rao, Chief Trust Officer di Adobe, in un'intervista.

"C'è un legame emotivo con audio, video e immagini", ha detto. "Il cervello è predisposto a credere a questo tipo di media".