Un ricercatore del proprietario cinese di TikTok, ByteDance, è stato erroneamente aggiunto ad una groupchat per esperti americani di sicurezza dell'intelligenza artificiale la scorsa settimana, ha dichiarato lunedì l'Istituto Nazionale degli Standard e della Tecnologia (NIST) degli Stati Uniti.

Il ricercatore è stato aggiunto a un'istanza Slack per le discussioni tra i membri dell'Istituto per la Sicurezza dell'Intelligenza Artificiale del NIST, secondo una persona che ha familiarità con la questione.

In un'e-mail, il NIST ha detto di aver aggiunto la ricercatrice con la consapevolezza che si trattava di una volontaria.

"Una volta che il NIST è venuto a conoscenza del fatto che la persona era un dipendente di ByteDance, è stata rapidamente rimossa per aver violato il codice di condotta del consorzio sulle false dichiarazioni", si legge nell'e-mail.

La ricercatrice, il cui profilo LinkedIn dice che ha sede in California, non ha risposto ai messaggi; ByteDance non ha risposto alle e-mail di richiesta di commento.

La persona che ha familiarità con la questione ha detto che l'apparizione di un ricercatore di ByteDance ha sollevato le sopracciglia nel consorzio, perché l'azienda non è un membro e TikTok è al centro di un dibattito nazionale sul fatto che la popolare app abbia aperto una backdoor per il governo cinese per spiare o manipolare gli americani su larga scala. La scorsa settimana, la Camera dei Rappresentanti degli Stati Uniti ha approvato una legge che obbliga ByteDance a disinvestire da TikTok o ad affrontare un divieto a livello nazionale; l'ultimatum ha un percorso incerto al Senato.

L'AI Safety Institute ha lo scopo di valutare i rischi dei programmi di intelligenza artificiale all'avanguardia. Annunciato l'anno scorso, l'istituto è stato creato nell'ambito del NIST e i suoi membri fondatori includono centinaia di importanti aziende tecnologiche americane, università, startup di AI, organizzazioni non governative e altri, tra cui la società madre di Reuters, Thomson Reuters.

Tra le altre cose, il consorzio lavora per sviluppare linee guida per l'implementazione sicura dei programmi di AI e per aiutare i ricercatori di AI a trovare e risolvere le vulnerabilità di sicurezza nei loro modelli. Il NIST ha detto che l'istanza Slack per il consorzio comprende circa 850 utenti. (Relazioni di Raphael Satter; Redazione di Sharon Singleton)