"Abbiamo normalizzato un mondo in cui i prodotti tecnologici escono dalla linea di produzione pieni di vulnerabilità e poi ci si aspetta che i consumatori li correggano. Non possiamo vivere in questo mondo con l'AI", ha detto Jen Easterly, direttore dell'Agenzia statunitense per la sicurezza informatica e delle infrastrutture.

"È troppo potente, si muove troppo velocemente", ha detto in un'intervista telefonica dopo aver avuto un colloquio a Ottawa con Sami Khoury, capo del Centro canadese per la sicurezza informatica.

Easterly ha parlato nello stesso giorno in cui le agenzie di 18 Paesi, tra cui gli Stati Uniti, hanno approvato le nuove linee guida sviluppate dal Regno Unito sulla sicurezza informatica dell'IA, che si concentrano sulla sicurezza della progettazione, dello sviluppo, dell'implementazione e della manutenzione.

"Dobbiamo considerare la sicurezza durante l'intero ciclo di vita della capacità di IA", ha detto Khoury.

All'inizio di questo mese, i principali sviluppatori di AI hanno concordato di collaborare con i governi per testare i nuovi modelli di frontiera prima che vengano rilasciati, per aiutare a gestire i rischi della tecnologia in rapido sviluppo.

"Penso che abbiamo fatto il massimo che potevamo fare in questo momento, per aiutare a riunirci con le nazioni di tutto il mondo, con le aziende tecnologiche, per definire da una prospettiva tecnica come costruire queste capacità nel modo più sicuro e protetto possibile", ha detto Easterly.