I giudici dovranno decidere entro la fine di giugno se YouTube di Alphabet Inc. può essere citato in giudizio per le sue raccomandazioni video agli utenti. Questo caso verifica se una legge statunitense che protegge le piattaforme tecnologiche dalla responsabilità legale per i contenuti pubblicati online dai loro utenti si applica anche quando le aziende utilizzano algoritmi per indirizzare gli utenti con raccomandazioni.

La decisione del tribunale in merito a queste questioni è rilevante al di là delle piattaforme di social media. La sua sentenza potrebbe influenzare il dibattito emergente sul fatto che le aziende che sviluppano chatbot di intelligenza artificiale generativa come ChatGPT di OpenAI, un'azienda in cui Microsoft Corp è un investitore importante, o Bard di Google di Alphabet, debbano essere protette da rivendicazioni legali come la diffamazione o la violazione della privacy, secondo gli esperti di tecnologia e di diritto.

Questo perché gli algoritmi che alimentano gli strumenti di AI generativa come ChatGPT e il suo successore GPT-4 operano in modo piuttosto simile a quelli che suggeriscono i video agli utenti di YouTube, hanno aggiunto gli esperti.

"Il dibattito verte in realtà sul fatto che l'organizzazione delle informazioni disponibili online attraverso i motori di raccomandazione sia così significativa nel plasmare i contenuti da diventare responsabile", ha detto Cameron Kerry, visiting fellow presso il think tank Brookings Institution di Washington ed esperto di AI. "Ci sono gli stessi tipi di problemi per quanto riguarda un chatbot".

I rappresentanti di OpenAI e Google non hanno risposto alle richieste di commento.

Durante le discussioni di febbraio, i giudici della Corte Suprema hanno espresso incertezza sull'opportunità di indebolire le protezioni sancite dalla legge, nota come Sezione 230 del Communications Decency Act del 1996. Anche se il caso non riguarda direttamente l'IA generativa, il giudice Neil Gorsuch ha osservato che gli strumenti di IA che generano "poesia" e "polemiche" probabilmente non godrebbero di tali protezioni legali.

Il caso è solo una delle sfaccettature di una conversazione emergente sulla questione se l'immunità della Sezione 230 debba essere applicata ai modelli di IA addestrati su moltissimi dati online esistenti, ma in grado di produrre opere originali.

Le protezioni della Sezione 230 si applicano generalmente ai contenuti di terzi provenienti dagli utenti di una piattaforma tecnologica e non alle informazioni che un'azienda ha contribuito a sviluppare. I tribunali non si sono ancora pronunciati sulla questione se una risposta di un chatbot AI sia coperta.

'CONSEGUENZE DELLE PROPRIE AZIONI'

Il senatore democratico Ron Wyden, che ha contribuito alla stesura della legge mentre era alla Camera dei Rappresentanti, ha affermato che lo scudo di responsabilità non dovrebbe applicarsi agli strumenti di intelligenza artificiale generativa, perché questi strumenti "creano contenuti".

"La Sezione 230 ha lo scopo di proteggere gli utenti e i siti che ospitano e organizzano il discorso degli utenti. Non dovrebbe proteggere le aziende dalle conseguenze delle loro azioni e dei loro prodotti", ha detto Wyden in una dichiarazione a Reuters.

L'industria tecnologica ha spinto per preservare la Sezione 230, nonostante l'opposizione bipartisan all'immunità. Gli strumenti come ChatGPT funzionano come motori di ricerca, indirizzando gli utenti verso contenuti esistenti in risposta a una domanda.

"L'AI non sta creando nulla. Si tratta di prendere contenuti esistenti e metterli in un modo diverso o in un formato diverso", ha detto Carl Szabo, vicepresidente e consigliere generale di NetChoice, un gruppo commerciale del settore tecnologico.

Szabo ha detto che un indebolimento della Sezione 230 rappresenterebbe un compito impossibile per gli sviluppatori di AI, minacciando di esporli a una marea di controversie che potrebbero soffocare l'innovazione.

Alcuni esperti prevedono che i tribunali potrebbero adottare una via di mezzo, esaminando il contesto in cui il modello AI ha generato una risposta potenzialmente dannosa.

Nei casi in cui il modello di AI sembra parafrasare fonti esistenti, lo scudo potrebbe ancora essere applicato. Ma i chatbot come ChatGPT sono noti per creare risposte fittizie che sembrano non avere alcun legame con le informazioni trovate altrove online, una situazione che, secondo gli esperti, probabilmente non sarebbe protetta.

Hany Farid, tecnologo e professore presso l'Università della California, Berkeley, ha affermato che è esagerato sostenere che gli sviluppatori di AI dovrebbero essere immuni da cause legali per modelli che hanno "programmato, addestrato e distribuito".

"Quando le aziende sono ritenute responsabili nelle cause civili per i danni causati dai prodotti che producono, producono prodotti più sicuri", ha detto Farid. "E quando non sono ritenute responsabili, producono prodotti meno sicuri".

Il caso che verrà deciso dalla Corte Suprema riguarda l'appello della famiglia di Nohemi Gonzalez, una studentessa universitaria californiana di 23 anni che è stata colpita mortalmente nel 2015 da una furia di militanti islamici a Parigi, contro il rigetto da parte di un tribunale di grado inferiore della causa intentata dalla sua famiglia contro YouTube.

La causa accusava Google di fornire "supporto materiale" al terrorismo e sosteneva che YouTube, attraverso gli algoritmi della piattaforma di condivisione video, raccomandava illegalmente a determinati utenti i video del gruppo militante dello Stato Islamico, che ha rivendicato la responsabilità degli attacchi di Parigi.