Il Comitato di supervisione di Meta Platforms sta esaminando la gestione da parte dell'azienda di due immagini sessualmente esplicite generate dall'AI di celebrità femminili che sono circolate sui suoi servizi Facebook e Instagram, ha dichiarato martedì.

Il consiglio, che è finanziato dal gigante dei social media ma opera in modo indipendente da esso, utilizzerà i due esempi per valutare l'efficacia complessiva delle politiche e delle pratiche di applicazione di Meta in merito ai falsi pornografici creati con l'intelligenza artificiale, ha dichiarato in un post sul blog.

Ha fornito le descrizioni delle immagini in questione, ma non ha fatto i nomi delle donne famose in esse raffigurate per "evitare ulteriori danni", ha detto un portavoce del consiglio.

I progressi della tecnologia AI hanno reso le immagini, le clip audio e i video fabbricati praticamente indistinguibili dai contenuti reali creati dall'uomo, con conseguente proliferazione online di falsi sessuali, per lo più raffiguranti donne e ragazze.

In un caso di alto profilo all'inizio di quest'anno, la piattaforma di social media X, di proprietà di Elon Musk, ha brevemente bloccato gli utenti dalla ricerca di tutte le immagini della pop star statunitense Taylor Swift, dopo aver lottato per controllare la diffusione di false immagini esplicite di lei.

Alcuni dirigenti del settore hanno chiesto una legislazione che criminalizzi la creazione di "deep fake" dannosi e che imponga alle aziende tecnologiche di impedire tali usi dei loro prodotti.

Secondo le descrizioni dell'Oversight Board dei suoi casi, uno riguarda un'immagine generata dall'AI di una donna nuda che assomiglia a una figura pubblica indiana, pubblicata da un account su Instagram che condivide solo immagini generate dall'AI di donne indiane.

L'altra immagine, secondo la commissione, è apparsa in un gruppo Facebook per la condivisione di creazioni AI e presentava una rappresentazione generata dall'AI di una donna nuda che assomigliava a "un personaggio pubblico americano" con un uomo che le palpava il seno.

Meta ha rimosso l'immagine che raffigurava la donna americana per violazione della sua politica sul bullismo e le molestie, che vieta "fotoshop o disegni sessuali dispregiativi", ma inizialmente ha lasciato in piedi quella che raffigurava la donna indiana e ha invertito la rotta solo dopo che la commissione l'ha selezionata per la revisione.

In un post separato, Meta ha riconosciuto i casi e si è impegnata ad attuare le decisioni del consiglio. (Servizio di Katie Paul; Editing di Stephen Coates)