La società di outsourcing Sama, con sede in Kenya, ha dichiarato il 10 gennaio che non fornirà più servizi di moderazione dei contenuti per il proprietario di Facebook, WhatsApp e Instagram a partire da marzo, in quanto si concentrerà sul lavoro di etichettatura dei dati.

Sama ha dichiarato di voler licenziare il 3% del suo personale - circa 200 dipendenti - per snellire le sue operazioni e aumentare l'efficienza. Continuerà a fornire servizi di etichettatura dei dati a Meta.

L'annuncio arriva mentre sia Sama che Meta affrontano una causa per presunti abusi sul lavoro e per aver impedito ai lavoratori di sindacalizzarsi in Kenya. Un'altra causa accusa Meta di aver permesso la diffusione di post violenti su Facebook, infiammando il conflitto civile nella vicina Etiopia. Entrambe le aziende hanno difeso il loro operato.

Gli attivisti per i diritti digitali hanno affermato che gli sforzi compiuti da Meta per arginare i contenuti dannosi nei Paesi africani sono tristemente inadeguati rispetto alle nazioni più ricche, e hanno chiesto all'azienda di migliorare drasticamente i suoi processi di moderazione.

"Con l'uscita di Sama, sarebbe una buona occasione per Meta di rimettere le cose a posto e garantire migliori condizioni di lavoro per i moderatori africani nella regione", ha dichiarato Bridget Andere, analista delle politiche africane di Access Now.

"Meta dovrebbe aumentare il numero di moderatori per la regione, in modo da coprire adeguatamente le lingue e i dialetti locali, e anche essere più trasparente sui suoi algoritmi che promuovono contenuti dannosi", ha detto alla Thomson Reuters Foundation.

Meta non ha fornito alcun dettaglio sul fatto che abbia trovato un nuovo appaltatore terzo per l'Africa orientale, ma ha detto che il ritiro di Sama non avrà un impatto negativo sugli utenti delle sue piattaforme di social media.

"Rispettiamo la decisione di Sama di abbandonare i servizi di revisione dei contenuti che fornisce alle piattaforme di social media", ha dichiarato un portavoce di Meta.

"Lavoreremo con i nostri partner durante questa transizione per garantire che non ci sia alcun impatto sulla nostra capacità di revisionare i contenuti".

SFIDE LEGALI

Le sfide legali di Meta in Africa orientale sono iniziate nel maggio dello scorso anno, dopo che l'ex moderatore Daniel Motaung ha intentato una causa per le scarse condizioni di lavoro in Kenya.

La petizione, presentata anche contro Sama, sostiene che i lavoratori che moderano i post di Facebook devono affrontare retribuzioni irregolari, un supporto inadeguato per la salute mentale, attività antisindacali e violazioni della loro privacy e dignità.

Sama nega le accuse, mentre Meta ha detto che "richiede ai suoi partner di fornire ai lavoratori una retribuzione, dei benefit e un'assistenza leader nel settore".

Si prevede che il 6 febbraio un giudice deciderà se un tribunale keniota potrà esaminare la denuncia.

Il mese scorso, Meta è stata colpita da un'altra causa che accusa l'azienda di aver permesso che i post violenti fiorissero su Facebook, infiammando la guerra civile in Etiopia.

La causa, presentata da due ricercatori etiopi e dal gruppo per i diritti Katiba Institute del Kenya, sostiene che i sistemi di raccomandazione di Facebook hanno amplificato i post di odio e di violenza in Etiopia, compresi alcuni che hanno preceduto l'omicidio del padre di uno dei ricercatori.

I querelanti chiedono a Meta di adottare misure d'emergenza per declassare i contenuti violenti, aumentare il personale di moderazione a Nairobi e creare fondi di restituzione di circa 2 miliardi di dollari per le vittime globali della violenza incitata da Facebook.

Meta ha dichiarato di avere regole severe che definiscono ciò che è e non è consentito su Facebook e Instagram.

"I discorsi di odio e l'incitamento alla violenza sono contrari a queste regole e investiamo molto in team e tecnologia per aiutarci a trovare e rimuovere questi contenuti", ha detto il portavoce di Meta.

"Il nostro lavoro sulla sicurezza e l'integrità in Etiopia è guidato dal feedback delle organizzazioni della società civile locale e delle istituzioni internazionali".

FINE DELL'OUTSOURCING, ALGORITMI DI REVISIONE

A livello globale, migliaia di moderatori esaminano i post sui social media che potrebbero contenere violenza, nudità, razzismo o altri contenuti offensivi. Molti lavorano per appaltatori terzi piuttosto che direttamente per le aziende tecnologiche.

Meta ha affrontato precedenti controlli sulle condizioni di lavoro dei moderatori di contenuti e critiche sulla sua azione per fermare i discorsi di odio e i contenuti violenti.

Nel luglio 2021, un giudice della California ha approvato un accordo da 85 milioni di dollari tra Facebook e oltre 10.000 moderatori che hanno accusato l'azienda di non averli protetti da lesioni psicologiche dovute all'esposizione a immagini grafiche e violente.

Nello stesso anno, i rifugiati Rohingya del Myanmar hanno intentato una causa, citando Meta per 150 miliardi di dollari per le accuse di non aver agito contro i discorsi di odio anti-Rohingya, che hanno contribuito alla violenza contro il gruppo minoritario.

I gruppi per i diritti affermano che i processi di moderazione non riescono a comprendere i contesti culturali e sociali specifici e non conoscono le lingue e i dialetti locali, permettendo ai contenuti problematici di diffondersi rapidamente e di essere amplificati con gravi conseguenze.

Cori Crider, direttrice di Foxglove - un gruppo di difesa della giustizia tecnologica con sede a Londra che sta sostenendo entrambe le cause in Kenya - ha chiesto a Meta di porre fine alle sue pratiche di esternalizzazione e di aumentare le "misere" risorse che impiega per la sicurezza in Africa.

"Facebook dovrebbe assumere la moderazione internamente, assumere tutti i 260 moderatori di contenuti a Nairobi che svolgono un lavoro vitale per la sicurezza, e valorizzare queste persone con salari dignitosi, supporto clinico completo per la salute mentale, dignità e prestigio", ha detto Crider.

"L'outsourcing è rotto e sia i lavoratori che la gente comune ne hanno pagato il prezzo".

Alia Al Ghussain, ricercatrice sull'AI e sui diritti umani di Amnesty International, ha detto che anche gli algoritmi di Facebook - che alimentano il feed di notizie, le classifiche, le raccomandazioni e le funzioni dei gruppi, modellando ciò che gli utenti vedono sulla piattaforma - devono essere controllati.

"Il modello di business di Meta, basato sul coinvolgimento, significa che gli algoritmi sono programmati per far sì che i contenuti dannosi e infiammatori diventino virali", ha detto Al Ghussain, la cui organizzazione sta sostenendo la causa sull'Etiopia.

"Le cause che stiamo vedendo sia nel caso dell'Etiopia che in quello del Myanmar dimostrano chiaramente che il problema è sistemico e deve essere affrontato con urgenza attraverso la regolamentazione".

Pubblicato originariamente su: