Questi moderatori di contenuti non sono dipendenti di Facebook di per sé, ma dipendenti di organizzazioni a cui Facebook ha affidato questo lavoro in outsourcing.
Facebook impiega circa 15.000 editor di contenuti per controllare contenuti offensivi sulla sua piattaforma. Il loro compito è di mantenere Facebook libero da contenuti che violino gli standard della piattaforma. Ciò può includere qualsiasi cosa, da disinformazione, incitamento all’odio a video. Questi addetti sono dipendenti di organizzazioni a cui Facebook ha affidato questo lavoro in outsourcing.
Un report dettagliato ha evidenziato le condizioni in cui molti di questi moderatori di contenuti lavorano in Arizona, negli Stati Uniti, ufficio di Cognizant della società IT, con cui Facebook ha collaborato a questo scopo.
Secondo un moderatore, c’è una tensione costante sui dipendenti che si occupano di questo genere di contenuti, in quanto non siano sottoposti solo a nudità e pornografia, ma anche a immagini estremamente cruente.
Vige la segretezza che isola anche Facebook dalle critiche sulle condizioni di lavoro dei propri dipendenti. I moderatori dichiarano di essere spinti a non discutere del costo emotivo che il loro lavoro comporti, compreso con i propri cari, portando ad un aumentato sentimento di isolamento e ansia.
I moderatori di contenuti devono tenere conto inoltre, di ogni piccola interruzione. Non sono concesse pause come ad esempio la preghiera in caso religioso.
C’è una paura costante di licenziamento dovuta ad un conteggio di errori commessi settimanalmente.
Sembrerebbe che in più di qualche caso i dipendenti siano stati costretti a ricorrere a sostanze stupefacenti per compensare il trauma mentale affrontato durante le ore di controllo del contenuto grafico.
In seguito a tutte queste rimostranze Facebook ha evidenziando gli sforzi che l’azienda sta compiendo per garantire il benessere mentale dei moderatori dei contenuti. Non sono stati menzionati i report che abbiamo riportato ma è stato assicurata la conoscenza degli equivoci e delle accuse nei confronti delle pratiche di revisione dei contenuti di Facebook.
Facebook ha sottolineato la collaborazione con organizzazioni come Accenture, Cognizant, Genpact tra gli altri, per evidenziare il lavoro di moderazione dei contenuti in virtù del fatto che queste organizzazioni sono note per i loro standard di assistenza ai dipendenti.
Alcuni dei meccanismi chiave per i partner di moderazione dei contenuti includerebbero un accordo per fornire ai dipendenti buone strutture lavorative, complete di pause predeterminate. Facebook affermerebbe di provvedere a chiamate settimanali, visite regolari e revisioni mensili e trimestrali ai suoi dipendenti.
I Podcast hanno conquistato l'Italia, qui la lista dei migliori Podcaster Italiani in base al…
Le due startup italiane SWITCH e Wayla raccolgono fondi per rivoluzionare il trasporto urbano con…
Il report di NTT DATA esplora il divario tra innovazione AI e responsabilità, evidenziando l'importanza…
Microsoft ha presentato il Majorana 1, un chip quantistico topologico che punta a risolvere problemi…
L’intelligenza artificiale può simulare, comprendere e suscitare emozioni, creando un dialogo emotivo che richiede consapevolezza.…
Meta AI ha sviluppato una tecnologia per decodificare l'attività cerebrale in testo tramite reti neurali…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011