Una nuova serie di leggi che regolano l'uso dell'intelligenza artificiale (AI) nell'Unione Europea obbligherà le aziende a essere più trasparenti sui dati utilizzati per addestrare i loro sistemi, svelando uno dei segreti più strettamente custoditi del settore.

Nei 18 mesi trascorsi da quando OpenAI, sostenuta da Microsoft, ha presentato ChatGPT al pubblico, c'è stata un'impennata di impegno pubblico e di investimenti nell'AI generativa, un insieme di applicazioni che possono essere utilizzate per produrre rapidamente testo, immagini e contenuti audio.

Tuttavia, mentre il settore è in piena espansione, sono state sollevate domande su come le aziende di AI ottengano i dati utilizzati per addestrare i loro modelli, e se l'alimentazione di libri bestseller e film di Hollywood senza il permesso dei loro creatori costituisca una violazione del copyright.

L'AI Act dell'Unione Europea, approvato di recente, sarà attuato in fasi successive nei prossimi due anni, per dare alle autorità di regolamentazione il tempo di implementare le nuove leggi, mentre le aziende dovranno confrontarsi con una nuova serie di obblighi. Ma non si sa ancora come funzioneranno esattamente alcune di queste regole nella pratica.

Una delle sezioni più controverse della Legge stabilisce che le organizzazioni che impiegano modelli di AI generici, come ChatGPT, dovranno fornire "sintesi dettagliate" dei contenuti utilizzati per addestrarli. L'Ufficio AI di recente istituzione ha dichiarato che prevede di rilasciare un modello da seguire per le organizzazioni all'inizio del 2025, dopo una consultazione con le parti interessate.

Anche se i dettagli devono ancora essere definiti, le aziende di AI sono molto restie a rivelare su cosa sono stati addestrati i loro modelli, descrivendo le informazioni come un segreto commerciale che darebbe ai concorrenti un vantaggio sleale se fosse reso pubblico.

"Sarebbe un sogno che si avvera vedere i set di dati dei miei concorrenti, e allo stesso modo per loro vedere i nostri", ha detto Matthieu Riouf, CEO dell'azienda di editing di immagini con AI Photoroom.

"È come cucinare", ha aggiunto. "C'è una parte segreta della ricetta che i migliori chef non condividono, il je ne sais quoi che la rende diversa".

Il grado di granularità di questi rapporti di trasparenza avrà grandi implicazioni per le startup AI più piccole e per le grandi aziende tecnologiche come Google e Meta, che hanno messo la tecnologia al centro delle loro operazioni future.

CONDIVIDERE I SEGRETI COMMERCIALI

Nell'ultimo anno, alcune importanti aziende tecnologiche, tra cui Google, OpenAI e Stability AI, hanno affrontato cause legali da parte di creatori che sostenevano che i loro contenuti erano stati utilizzati impropriamente per addestrare i loro modelli.

Mentre il Presidente degli Stati Uniti Joe Biden ha approvato una serie di ordini esecutivi incentrati sui rischi di sicurezza dell'IA, le questioni relative al copyright non sono state esaminate a fondo. Le richieste che le aziende tecnologiche paghino i titolari dei diritti per i dati hanno ricevuto un sostegno bipartisan al Congresso.

In un contesto di crescente controllo, le aziende tecnologiche hanno firmato una serie di accordi di licenza di contenuti con media e siti web. Tra gli altri, OpenAI ha firmato accordi con il Financial Times e The Atlantic, mentre Google ha stretto accordi con il sito di social media Reddit di NewsCorp.

Nonostante queste mosse, OpenAI ha attirato critiche a marzo, quando il CTO Mira Murati ha rifiutato di rispondere a una domanda del Wall Street Journal, che chiedeva se i video di YouTube fossero stati utilizzati per addestrare il suo strumento di generazione di video Sora, cosa che secondo l'azienda avrebbe violato i suoi termini e condizioni.

Il mese scorso, OpenAI ha affrontato ulteriori critiche per la presenza di una voce generata dall'AI descritta come "spaventosamente simile" alla sua dall'attrice Scarlett Johansson in una dimostrazione pubblica dell'ultima versione di ChatGPT.

Thomas Wolf, co-fondatore della startup leader nel settore dell'AI, Hugging Face, ha detto di essere a favore di una maggiore trasparenza, ma questo sentimento non è condiviso da tutto il settore. "È difficile sapere come funzionerà. C'è ancora molto da decidere", ha detto.

I legislatori di alto livello in tutto il continente rimangono divisi.

Dragos Tudorache, uno dei legislatori che ha supervisionato la stesura della Legge sull'IA nel Parlamento europeo, ha affermato che le aziende di IA dovrebbero essere obbligate a rendere pubbliche le loro serie di dati.

"Devono essere abbastanza dettagliati da permettere a Scarlett Johansson, Beyonce o chiunque altro di sapere se il loro lavoro, le loro canzoni, la loro voce, la loro arte o la loro scienza sono state utilizzate per addestrare l'algoritmo", ha affermato.

Un funzionario della Commissione ha dichiarato: "L'AI Act riconosce la necessità di garantire un equilibrio adeguato tra la legittima esigenza di proteggere i segreti commerciali e, d'altra parte, la necessità di facilitare la capacità delle parti con interessi legittimi, compresi i titolari di copyright, di esercitare i loro diritti ai sensi del diritto dell'Unione".

Sotto il Presidente Emmanuel Macron, il Governo francese si è opposto privatamente all'introduzione di regole che potrebbero ostacolare la competitività delle startup AI europee.

Parlando alla conferenza Viva Technology a Parigi a maggio, il Ministro delle Finanze francese Bruno Le Maire ha detto di volere che l'Europa sia un leader mondiale nell'IA, e non solo un consumatore di prodotti americani e cinesi.

"Per una volta, l'Europa, che ha creato controlli e standard, deve capire che bisogna innovare prima di regolamentare", ha detto. "Altrimenti, si corre il rischio di regolamentare tecnologie che non si conoscono, o di regolamentarle male perché non si conoscono". (Servizio di Martin Coulter, servizio aggiuntivo di Leigh Thomas; Redazione di Matt Scuffham e Elaine Hardcastle)