Il Ministro della Scienza e della Tecnologia dell'Informazione della Corea del Sud ha detto mercoledì che il mondo deve cooperare per assicurare il successo dello sviluppo dell'IA, mentre si concludeva il vertice globale sulla tecnologia in rapida evoluzione ospitato dal suo Paese.

Il vertice sull'AI a Seul, ospitato in collaborazione con la Gran Bretagna, ha discusso mercoledì di problemi come la sicurezza del lavoro, il copyright e la disuguaglianza, dopo che 16 aziende tecnologiche avevano firmato un accordo volontario per sviluppare l'AI in modo sicuro un giorno prima.

Un impegno separato è stato firmato mercoledì da 14 aziende, tra cui Google di Alphabet, Microsoft, OpenAI e sei aziende coreane, per utilizzare metodi come il watermarking per aiutare a identificare i contenuti generati dall'AI, oltre a garantire la creazione di posti di lavoro e l'aiuto ai gruppi socialmente vulnerabili.

"La cooperazione non è un'opzione, è una necessità", ha dichiarato Lee Jong-Ho, Ministro della Scienza e dell'ICT della Corea del Sud, in un'intervista a Reuters.

"Il vertice di Seul ha dato ulteriore forma ai colloqui sulla sicurezza dell'AI e ha aggiunto discussioni sull'innovazione e sull'inclusività", ha detto Lee, aggiungendo che si aspetta che le discussioni del prossimo vertice includano una maggiore collaborazione sugli istituti di sicurezza dell'AI.

Il primo summit globale sull'IA si è tenuto in Gran Bretagna a novembre e il prossimo incontro di persona si terrà in Francia, probabilmente nel 2025.

I ministri e i funzionari di diversi Paesi hanno discusso mercoledì la cooperazione tra gli istituti di sicurezza AI sostenuti dallo Stato per aiutare a regolare la tecnologia.

Gli esperti di AI hanno accolto con favore i passi compiuti finora per iniziare a regolamentare la tecnologia, anche se alcuni hanno affermato che le regole devono essere applicate.

"Dobbiamo superare la volontarietà... le persone interessate dovrebbero stabilire le regole attraverso i governi", ha detto Francine Bennett, Direttore dell'Ada Lovelace Institute, focalizzato sull'AI.

I servizi di IA dovrebbero dimostrare di soddisfare gli standard di sicurezza obbligatori prima di essere immessi sul mercato, in modo che le aziende equiparino la sicurezza al profitto ed evitino qualsiasi potenziale contraccolpo pubblico derivante da un danno inaspettato, ha affermato Max Tegmark, Presidente del Future of Life Institute, un'organizzazione che parla dei rischi dei sistemi di IA.

Il Ministro della Scienza sudcoreano Lee ha affermato che le leggi tendono a rimanere indietro rispetto alla velocità di avanzamento delle tecnologie come l'IA.

"Ma per un uso sicuro da parte del pubblico, è necessario che ci siano leggi e regolamenti flessibili". (Servizio di Joyce Lee, a cura di Ed Davies)