Meta Platforms inizierà a rilevare ed etichettare le immagini generate dai servizi di intelligenza artificiale di altre aziende nei prossimi mesi, utilizzando una serie di marcatori invisibili integrati nei file, ha dichiarato martedì il suo massimo dirigente politico.

Meta applicherà le etichette a qualsiasi contenuto con i marcatori che viene pubblicato sui suoi servizi Facebook, Instagram e Threads, nel tentativo di segnalare agli utenti che le immagini - che in molti casi assomigliano a foto reali - sono in realtà creazioni digitali, ha scritto il presidente degli affari globali dell'azienda, Nick Clegg, in un post sul blog.

L'azienda etichetta già qualsiasi contenuto generato utilizzando i propri strumenti AI.

Una volta che il nuovo sistema sarà operativo, Meta farà lo stesso per le immagini create sui servizi gestiti da OpenAI, Microsoft , Adobe, Midjourney, Shutterstock e Google di Alphabet, ha detto Clegg.

L'annuncio fornisce un primo sguardo a un sistema emergente di standard che le aziende tecnologiche stanno sviluppando per mitigare i potenziali danni associati alle tecnologie AI generative, che possono produrre contenuti falsi ma realistici in risposta a semplici richieste.

L'approccio si basa su un modello stabilito nell'ultimo decennio da alcune delle stesse aziende per coordinare la rimozione di contenuti vietati attraverso le piattaforme, comprese le rappresentazioni di violenza di massa e lo sfruttamento dei bambini.

In un'intervista, Clegg ha detto a Reuters di sentirsi fiducioso che le aziende possano etichettare le immagini generate dall'AI in modo affidabile a questo punto, ma ha detto che gli strumenti per contrassegnare i contenuti audio e video sono più complicati e ancora in fase di sviluppo.

"Anche se la tecnologia non è ancora del tutto matura, in particolare per quanto riguarda l'audio e il video, la speranza è che possiamo creare un senso di slancio e di incentivo per il resto del settore a seguirci", ha detto Clegg.

Nel frattempo, ha aggiunto, Meta inizierà a richiedere alle persone di etichettare i propri contenuti audio e video alterati e applicherà delle sanzioni se non lo faranno. Clegg non ha descritto le sanzioni.

Ha aggiunto che attualmente non esiste un meccanismo praticabile per etichettare il testo scritto generato da strumenti AI come ChatGPT.

"Quella nave è salpata", ha detto Clegg.

Un portavoce di Meta ha rifiutato di dire se l'azienda applicherà delle etichette ai contenuti generativi dell'AI condivisi sul suo servizio di messaggistica criptata WhatsApp.

Il comitato di supervisione indipendente di Meta lunedì ha rimproverato la politica dell'azienda sui video falsificati in modo fuorviante, affermando che era troppo ristretta e che i contenuti dovevano essere etichettati piuttosto che rimossi.

Clegg ha detto di essere ampiamente d'accordo con queste critiche.

Il consiglio aveva ragione, ha detto, che la politica esistente di Meta "non è semplicemente adatta allo scopo in un ambiente in cui ci saranno molti più contenuti sintetici e ibridi rispetto al passato".

Ha citato la nuova partnership per l'etichettatura come prova del fatto che Meta si sta già muovendo nella direzione proposta dal consiglio. (Servizio di Katie Paul a New York; Redazione di Matthew Lewis e Jamie Freed)