BRUXELLES/BERLINO (dpa-AFX) - L'Unione Europea (UE) ha concordato le regole per l'uso dell'intelligenza artificiale (IA) poco prima del fine settimana. Il Parlamento europeo e gli Stati membri dell'UE hanno sottolineato che si tratta delle prime regole al mondo per l'IA. Tuttavia, ci sono critiche da due parti. Alcuni considerano le regole troppo severe, altri troppo permissive. La comunità imprenditoriale teme che la futura regolamentazione dell'UE soffochi l'innovazione. I sostenitori dei consumatori ritengono che i rischi di alcune applicazioni non siano presi abbastanza sul serio.

Secondo la Federazione delle industrie tedesche (BDI), l'Europa rischia di rimanere indietro nella tecnologia chiave dell'IA. "Con la regolamentazione completa dei modelli di base e delle applicazioni di IA, la legge sull'IA mette a rischio la capacità di competere e innovare sia da parte dei produttori che degli utenti", ha dichiarato Iris Ploger, direttore generale della BDI. Il regolamento si basa su criteri immaturi che forniscono alle aziende meno certezza giuridica anziché aumentarla".

L'associazione dell'industria tecnologica Bitkom ha parlato di un "successo politico in vetrina a spese dell'economia e della società". Il compromesso raggiunto avrebbe un impatto profondo sulla tecnologia: "L'UE sta legando un blocco normativo alle gambe delle aziende. C'è il grande rischio che in futuro le aziende europee non siano in grado di tenere il passo con i rapidi sviluppi tecnologici a causa di piani poco pratici", ha dichiarato Bernhard Rohleder, CEO di Bitkom.

L'organizzazione europea per la tutela dei consumatori Beuc, invece, ha criticato l'UE per essersi affidata troppo alla buona volontà delle aziende di autoregolarsi. "Ad esempio, gli assistenti virtuali o i giocattoli controllati dall'intelligenza artificiale non sono sufficientemente regolamentati perché non sono considerati sistemi ad alto rischio. Anche sistemi come ChatGPT o Bard non ricevono le necessarie protezioni affinché i consumatori possano fidarsi di loro", ha dichiarato.

Il ministro tedesco per la Tutela dei consumatori Steffi Lemke (Verdi), invece, vede il regolamento sull'IA come una protezione per i consumatori contro i rischi della nuova tecnologia. "Durante i negoziati, abbiamo voluto garantire che i sistemi di IA siano progettati per essere trasparenti, comprensibili e verificabili. In futuro, le aziende che offrono l'uso di tecnologie AI dovranno fornire informazioni sul funzionamento dei loro sistemi e spiegare le decisioni basate sull'AI", ha riferito sabato Lemke. In caso di violazioni, le associazioni dei consumatori potrebbero intraprendere azioni legali.

I regolamenti presentati stabiliscono obblighi per l'IA in base ai suoi potenziali rischi e impatti. L'IA è classificata come particolarmente rischiosa se ha il potenziale di causare danni significativi alla salute, alla democrazia, all'ambiente o alla sicurezza, ad esempio.

Alcune applicazioni sono completamente vietate, come i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili come l'orientamento sessuale o il credo religioso. Anche la lettura non mirata di immagini da Internet o da filmati di sorveglianza per i database di riconoscimento facciale non sarà consentita. Tuttavia, sono previste eccezioni per l'identificazione biometrica in tempo reale negli spazi pubblici, ad esempio in caso di attacco terroristico o per la ricerca mirata di vittime della tratta di esseri umani. Questo punto è stato oggetto di un intenso dibattito; il Parlamento europeo voleva infatti un divieto totale.

Un altro punto controverso è stata la regolamentazione dei cosiddetti modelli di base. Si tratta di modelli di intelligenza artificiale molto potenti che sono stati addestrati con un'ampia serie di dati. Possono costituire la base per molte altre applicazioni. Tra queste c'è anche la GPT, ad esempio. In precedenza, Germania, Francia e Italia avevano chiesto che venissero regolamentate solo applicazioni specifiche dell'IA, ma non la tecnologia di base in sé. I negoziatori hanno ora concordato alcuni obblighi di trasparenza per questi modelli.

Il ministro federale per gli Affari digitali, Volker Wissing (FDP), si è astenuto dal dare una valutazione finale. Da un lato, è stato impedito che alcuni sistemi rientrassero nell'area ad alto rischio; dall'altro, i regolamenti devono consentire l'innovazione ed essere proporzionati, ha dichiarato sabato. "Nei prossimi giorni verificheremo con attenzione se questo obiettivo è stato raggiunto."/rew/DP/mis