Il NCMEC ha dichiarato a Reuters che la cifra riflette un problema nascente che si prevede crescerà con il progredire della tecnologia AI.

Negli ultimi mesi, gli esperti di sicurezza dei bambini e i ricercatori hanno lanciato l'allarme sul rischio che la tecnologia AI generativa, che può creare testi e immagini in risposta a richieste, possa esacerbare lo sfruttamento online.

Il NCMEC non ha ancora pubblicato il numero totale di segnalazioni di contenuti pedopornografici da tutte le fonti che ha ricevuto nel 2023, ma nel 2022 ha ricevuto segnalazioni per circa 88,3 milioni di file.

"Stiamo ricevendo segnalazioni dalle stesse aziende di AI generativa, dalle piattaforme (online) e dai membri del pubblico. Sta assolutamente accadendo", ha detto John Shehan, vicepresidente senior del NCMEC, che funge da centro di raccolta nazionale per la segnalazione di contenuti di abuso su minori alle forze dell'ordine.

Gli amministratori delegati di Meta Platforms, X, TikTok, Snap e Discord hanno testimoniato in un'udienza del Senato mercoledì scorso sulla sicurezza dei bambini online, dove i legislatori hanno interrogato le aziende di social media e messaggistica sui loro sforzi per proteggere i bambini dai predatori online.

I ricercatori dello Stanford Internet Observatory hanno affermato in un rapporto di giugno che l'AI generativa potrebbe essere utilizzata dagli abusatori per danneggiare ripetutamente bambini reali, creando nuove immagini che corrispondono alle sembianze di un bambino.

I contenuti segnalati come generati dall'AI stanno diventando "sempre più foto realistiche", rendendo difficile determinare se la vittima è una persona reale, ha detto Fallon McNulty, direttore della CyberTipline del NCMEC, che riceve le segnalazioni di sfruttamento di minori online.

OpenAI, creatore del popolare ChatGPT, ha istituito un processo per inviare le segnalazioni al NCMEC, e l'organizzazione sta conversando con altre aziende di AI generativa, ha detto McNulty.