Di Guido Scorza

componente Garante per la protezione dei dati personali

ROMA (MF-DJ)--I fatti sono noti, forse persino troppo, anche se non sono sempre stati raccontati in maniera pacata e corretta: con un provvedimento del 30 marzo il Garante per la protezione dei dati personali ha ordinato, in via d'urgenza, a OpenAI, la società che gestisce ChatGpt, di sospendere temporaneamente il trattamento dei dati personali raccolti in Italia e ha contestualmente avviato un'istruttoria per verificare se e quali violazioni ulteriori, rispetto a quelle più evidenti poste a fondamento del provvedimento, la società abbia eventualmente perpetrato.

La società ha quindi deciso di rendere immediatamente inaccessibile il servizio dall'Italia almeno per il grande pubblico - mentre lo ha lasciato attivo via Api, ovvero attraverso il canale usato dalle imprese - e, contestualmente, ha manifestato la disponibilità a collaborare per rimediare, pur nel rispetto delle rispettive posizioni, alle «mancanze» più gravi e urgenti evidenziate dall'Autorità.

All'esito di alcuni contatti e raccolte talune informazioni, quindi, l'11 aprile il Garante ha indirizzato una serie di prescrizioni a OpenAI, facendole presente che qualora avesse adempiuto a una prima parte delle stesse entro il prossimo 30 aprile, l'efficacia del provvedimento di sospensione sarebbe stata sospesa e, qualora la società lo avesse ritenuto, avrebbe potuto tornare accessibile dall'Italia. Tutto questo ferma restando, naturalmente, la prosecuzione dell'istruttoria.

Frattanto lo European Data Protection Board (Edpb), il Comitato che riunisce tutti i Garanti europei ha istituito una task force per condividere idee, opinioni e principi sulla questione, alcune Autorità europee, ricevuti taluni reclami, hanno promosso autonomi procedimenti e, in giro per il mondo, Governi e Autorità diversi hanno anticipato l'intenzione di scendere in campo per governare il ciclone ChatGpt.

A margine di tutto questo è divampato un amplissimo dibattito globale sulla regolamentazione dell'intelligenza artificiale e, in particolare, di quella di tipo «generativo» come, sin qui, non era accaduto. Troppo presto per tirare le somme: lo farà la storia nei mesi e negli anni che verranno e lo si farà nei procedimenti e con gli atti che verranno.

Alcune considerazioni, tuttavia, sembrano già possibili e, anzi, utili per stimolare il dibattito in corso. Le ragioni del provvedimento innanzitutto.ChatGpt è ancora in una fase sostanzialmente sperimentale a dispetto dello straordinario successo di pubblico che ha avuto nello spazio di qualche mese.Gli esperimenti in corso riguardano, indiscutibilmente, anche il trattamento di dati personali che, sotto diversi profili, sono - o, almeno, appaiono - trattati in violazione delle regole europee vigenti.

Qui c'è un primo dato significativo nella decisione di intervenire in via d'urgenza: il mercato globale non è un laboratorio di ricerca e le persone non sono cavie da laboratorio. Prima si sperimenta all'interno di un perimetro ragionevolmente limitato e con tutte le cautele del caso, poi si valuta l'impatto della propria soluzione e solo dopo la si propone in uso a centinaia di milioni e, anzi, miliardi di persone. In fondo è quello che fanno da tempo più o meno tutte le grandi società che operano sui mercati digitali anche quando introducono funzionalità meno rivoluzionarie di ChatGpt.

C'è poi un secondo dato difficilmente discutibile: OpenAI ha addestrato i propri algoritmi sulla base di miliardi di parole raccolte online, parole che includono, inesorabilmente, dati personali. Le persone alle quali questi dati si riferiscono non ne sono però state informate e non hanno mai avuto la possibilità di scegliere di non partecipare a questo gigantesco esperimento collettivo, a prescindere dalla sua nobiltà e utilità per il futuro dell'umanità.

Non solo. Il servizio genera contenuti che attribuiscono a persone in carne e ossa fatti e circostanze inesatti e non veritieri; c'è un professore americano, tanto per fare un esempio, che viene falsamente indicato come molestatore sessuale di una sua studentessa. E non è difficile immaginare quanto una cosa del genere possa ledere la vita e la dignità di una persona. Poco conta che intelligenze artificiali generative come ChatGpt non nascano per dire la verità su Caio e Sempronio; quello che conta e che gli utenti tanto gli chiedono e prendono sul serio quello che viene loro risposto molto di più di quanto non capiti con i motori di ricerca che si limitano a proporre link a una serie di fonti e non generano sintesi preconfezionate e prive, con poche eccezioni, di ogni riferimento alla fonte. È un modo di agire incompatibile con la disciplina in materia di dati personali.

A questo punto, forse, ci sono alcune domande che meritano una risposta. Decidere che una società commerciale multimiliardaria che procede lungo questa strada si fermi un attimo e metta a posto subito almeno alcune delle cose che non vanno prima di proseguire la sua corsa mentre l'Autorità verifica più in profondità la situazione, significa bloccare l'innovazione? Francamente non credo. L'innovazione non è un fine ma un mezzo: il fine è aumentare il benessere delle persone. Ed è un fine semplicemente irraggiungibile se non ci si preoccupa di rispettarne diritti e libertà fondamentali. Ma c'è una contrapposizione tra il diritto a innovare e quello alla privacy? Assolutamente no. I diritti tiranni non esistono, non ci sono diritti capaci di travolgere altri diritti. In democrazia la regola aurea è sempre la stessa: limitare un diritto nella misura minima necessaria a consentire l'esercizio dell'altro. E, nella vicenda ChatGpt (tecnicismi giuridici a parte) è almeno lecito dubitare che non si possano addestrare algoritmi e sviluppare intelligenze artificiali generative, rispettando un po' di più il diritto alla privacy. Negli Stati di diritto, il fine non giustifica i mezzi e non tutto quello che è tecnologicamente possibile è anche giuridicamente lecito e democraticamente sostenibile. E ora? Che c'è da attendersi?

Nel breve periodo che OpenAI adempia alle prescrizioni impartitele dal Garante e, verosimilmente, riapra il servizio anche in Italia prima del prossimo 30 aprile. Nel medio periodo che realizzi, in accordo con il Garante, una campagna di comunicazione di massa con la quale informi, almeno chi vive in Italia, di come ha addestrato i propri algoritmi e gli offra la possibilità di uscire dai propri sistemi e servizi e, poi, che implementi una soluzione tecnologica capace di impedire ai più giovani di usare un servizio che essa stessa qualifica come non adatto a loro.

Frattanto in Europa e non solo le autorità stabiliranno, in contraddittorio con OpenAI, quali e quante violazioni si sono consumate sin qui ma, soprattutto (e sarà la sfida più complicata) come fare in modo che ciò che non ha funzionato, in futuro funzioni ovvero come e in che limiti rendere lo sviluppo di questo genere di tecnologie compatibile con le regole vigenti e con l'esigenza di rispettare i diritti, le libertà e la dignità delle persone.

Nessun antagonismo di principio, quindi. Al contrario, piena complementarità perché non c'è innovazione senza diritti e libertà e non c'è futuro senza innovazione.

pev


(END) Dow Jones Newswires

April 26, 2023 03:15 ET (07:15 GMT)