La mossa rientra nei poteri concessi all'esecutivo UE dalla Legge sui Servizi Digitali (DSA), che richiede alle aziende di fare di più per affrontare i prodotti illegali e dannosi sulle loro piattaforme, e fa seguito ad una richiesta di informazioni inviata ad AliExpress lo scorso novembre.

I funzionari della Commissione hanno dichiarato ai giornalisti di essere preoccupati per la potenziale diffusione di prodotti illegali come medicinali falsi, alimenti non conformi e integratori alimentari inefficaci su AliExpress.

Stanno anche esaminando i possibili link nascosti dove i prodotti non conformi possono essere venduti in modo non trasparente per gli utenti e il ruolo degli influencer in questa questione.

"In questa fase non abbiamo ancora scoperto che AliExpress non sia conforme. Stiamo semplicemente sospettando di avere elementi che non sono conformi. Non si tratta di una constatazione di violazione", ha detto uno dei funzionari.

AliExpress ha dichiarato di rispettare tutte le norme e i regolamenti applicabili nei mercati in cui opera.

"... abbiamo collaborato e continueremo a collaborare con le autorità competenti per assicurarci di essere conformi agli standard applicabili e continueremo a garantire che saremo in grado di soddisfare i requisiti della DSA", ha dichiarato l'azienda.

"AliExpress si impegna a creare un mercato sicuro e conforme per tutti i consumatori".

Le cosiddette VLOP come AliExpress - o piattaforme online molto grandi - sono aziende con più di 45 milioni di utenti in Europa che sono soggette alle regole più severe della DSA. Le violazioni possono portare a multe fino al 6% del fatturato annuo globale.

Giovedì la Commissione ha anche inviato richieste di informazioni a Bing di Microsoft, Google Search, Meta Platforms di Facebook, Instagram, Snapchat, TikTok di ByteDance e X di Elon Musk, in merito al loro utilizzo dell'intelligenza artificiale generativa.

I funzionari della Commissione hanno dichiarato di voler sapere se le aziende effettuano valutazioni del rischio e se dispongono di misure di mitigazione del rischio per affrontare contenuti di intelligenza artificiale generativa potenzialmente dannosi.

"Siamo ovviamente preoccupati per la categoria dannosa, sia che si tratti di deep fake news o di deep fake rilevanti per le elezioni che cercano di manipolare l'ambiente pubblico", hanno detto i funzionari.

Le aziende hanno tempo fino al 3 aprile per rispondere alle domande relative alla protezione delle elezioni e il 24 aprile per altre questioni.

La crescente popolarità dei sistemi di AI generativa, come ChatGPT di OpenAI, sostenuta da Microsoft, e il chatbot Gemini di Google, ha alimentato le preoccupazioni sulla disinformazione e sulle fake news.

La Commissione ha anche inviato una richiesta di informazioni a Linkedin di Microsoft in merito al potenziale utilizzo dei dati personali per la pubblicità mirata, a seguito di una denuncia da parte di organizzazioni della società civile, dandole una scadenza del 5 aprile per rispondere.

Le indagini su X e TikTok sono in corso.