Un video di AI mostra un estasiato Narendra Modi che sfoggia una giacca e dei pantaloni alla moda, ballando su un palco al ritmo di una canzone di Bollywood mentre la folla applaude. Il Primo Ministro indiano ha ricondiviso il video su X, affermando che "una tale creatività in piena stagione elettorale è davvero una delizia".

Un altro video, con la stessa scenografia, mostra la rivale di Modi, Mamata Banerjee, che balla in un abito simile a un sari, ma la colonna sonora di sottofondo è costituita da parti del suo discorso che critica coloro che hanno lasciato il suo partito per unirsi a quello di Modi. La polizia di Stato ha avviato un'indagine affermando che il video può "influenzare l'ordine pubblico".

Le diverse reazioni ai video creati con strumenti di intelligenza artificiale (AI) sottolineano come l'uso e l'abuso della tecnologia stia aumentando e creando preoccupazioni per le autorità di regolamentazione e i funzionari della sicurezza, mentre la nazione più popolosa del mondo tiene una gigantesca elezione generale.

I video AI facili da realizzare, che contengono ombre e movimenti delle mani quasi perfetti, a volte possono trarre in inganno anche le persone analfabete dal punto di vista digitale. Ma i rischi sono maggiori in un Paese in cui molti degli 1,4 miliardi di persone hanno problemi tecnologici e in cui i contenuti manipolati possono facilmente fomentare tensioni settarie, soprattutto nel periodo delle elezioni.

Secondo un sondaggio del World Economic Forum pubblicato a gennaio, il rischio per l'India derivante dalla disinformazione è considerato più alto di quello derivante dalle malattie infettive o dalle attività economiche illecite nei prossimi due anni.

"L'India è già esposta a un grande rischio di disinformazione; con l'IA in figura, può diffondersi alla velocità di 100 volte", ha detto il consulente Sagar Vishnoi, con sede a Nuova Delhi, che sta consigliando alcuni partiti politici sull'uso dell'IA nelle elezioni indiane.

"Gli anziani, che spesso non sono un gruppo esperto di tecnologia, si innamorano sempre più spesso di narrazioni false aiutate dai video dell'AI. Questo potrebbe avere gravi conseguenze, come scatenare l'odio contro una comunità, una casta o una religione".

Le elezioni nazionali del 2024 - che si terranno nell'arco di sei settimane e termineranno il 1° giugno - sono le prime in cui l'AI viene impiegata. Gli esempi iniziali sono stati innocenti, limitati ad alcuni politici che hanno utilizzato la tecnologia per creare video e audio per personalizzare le loro campagne.

Ma ad aprile sono balzati agli onori della cronaca importanti casi di uso improprio, tra cui deepfake di attori di Bollywood che criticavano Modi e clip false che coinvolgevano due dei principali aiutanti di Modi e che hanno portato all'arresto di nove persone.

DIFFICILE DA CONTRASTARE

La Commissione elettorale indiana la scorsa settimana ha messo in guardia i partiti politici contro l'uso dell'AI per diffondere disinformazione e ha condiviso sette disposizioni di leggi sulla tecnologia dell'informazione e altre leggi che prevedono pene detentive fino a tre anni per reati come la falsificazione, la promozione di voci e l'inimicizia.

Un alto funzionario della sicurezza nazionale a Nuova Delhi ha detto che le autorità sono preoccupate per la possibilità che le fake news portino a disordini. La facile disponibilità di strumenti di intelligenza artificiale rende possibile la produzione di tali notizie false, soprattutto durante le elezioni, ed è difficile da contrastare, ha detto il funzionario.

"Non abbiamo una capacità di monitoraggio (adeguata)... l'ambiente AI in continua evoluzione è difficile da tenere sotto controllo", ha detto il funzionario.

Un alto funzionario elettorale ha detto: "Non siamo in grado di monitorare completamente i social media, e non siamo in grado di controllare i contenuti".

Hanno rifiutato di essere identificati perché non erano autorizzati a parlare con i media.

L'AI e i deepfake sono sempre più utilizzati nelle elezioni in altre parti del mondo, tra cui Stati Uniti, Pakistan e Indonesia. L'ultima diffusione dei video in India mostra le sfide che le autorità devono affrontare.

Da anni, un gruppo di lavoro del Ministero dell'Informatica indiano ordina il blocco dei contenuti che ritiene possano danneggiare l'ordine pubblico, a propria discrezione o in seguito a reclami. Durante queste elezioni, l'osservatorio elettorale e la polizia in tutta la nazione hanno schierato centinaia di funzionari per individuare e richiedere la rimozione di contenuti problematici.

Mentre la reazione di Modi al suo video di AI che balla - "Mi sono anche divertito a vedermi ballare" - è stata a cuor leggero, la polizia della città di Kolkata, nello Stato del Bengala occidentale, ha avviato un'indagine contro l'utente X, SoldierSaffron7, per aver condiviso il video di Banerjee.

Il responsabile del crimine informatico di Kolkata, Dulal Saha Roy, ha condiviso un avviso dattiloscritto su X, chiedendo all'utente di cancellare il video o di "essere passibile di una severa azione penale".

"Non lo cancellerò, qualunque cosa accada", ha detto l'utente a Reuters tramite la messaggistica diretta di X, rifiutando di condividere il suo numero o il suo nome reale, perché temeva un'azione della polizia. "Non possono rintracciarmi".

I funzionari elettorali hanno detto a Reuters che le autorità possono solo dire alle piattaforme di social media di rimuovere i contenuti e sono costrette a fare i salti mortali se le piattaforme dicono che i post non violano le loro politiche interne.

VIDEO DI VIGGLE

I video di ballo di Modi e Banerjee, con 30 milioni e 1,1 milioni di visualizzazioni rispettivamente su X, sono stati creati utilizzando un sito web gratuito, Viggle. Il sito consente di generare in pochi minuti una fotografia e alcuni suggerimenti di base, descritti in un tutorial, che mostrano la persona fotografata mentre balla o fa altri movimenti reali.

Il co-fondatore di Viggle, Hang Chu, e l'ufficio di Banerjee non hanno risposto alle domande di Reuters.

Oltre ai due video di AI che ballano, un altro video di Viggle di 25 secondi che si sta diffondendo online mostra Banerjee apparire davanti a un ospedale in fiamme e farlo esplodere usando un telecomando. Si tratta di una clip alterata dall'AI di una scena del film del 2008, Il Cavaliere Oscuro, che mostra il nemico di Batman, Joker, che scatena il caos.

Il post video ha 420.000 visualizzazioni.

La polizia del Bengala Occidentale ritiene che ciò violi le leggi indiane sull'informatica, ma X non ha intrapreso alcuna azione in quanto "crede fermamente nella difesa e nel rispetto della voce dei nostri utenti", secondo un avviso via e-mail inviato da X all'utente, che Reuters ha esaminato.

"Non possono farmi nulla. Non ho preso sul serio l'avviso", ha detto l'utente a Reuters tramite la messaggistica diretta di X.