Gli obsoleti
L’Espresso, 28 febbraio 2021Fake news, istigazione all’odio e immagini cruente. La dura vita dei custodi dei social
Non basta un algoritmo per giudicare se i contenuti segnalati dagli utenti meritano davvero di essere eliminati. A farlo è un esercito di moderatori sparsi per il pianeta. Un lavoro essenziale, segreto e stressante. Pagato pochi euro al giorno

Senza il nostro lavoro, Facebook sarebbe inutilizzabile. Il suo impero collasserebbe. I vostri algoritmi non sono in grado di distinguere tra giornalismo e disinformazione, violenza e satira. Solo noi possiamo»: queste parole si leggono, in una lettera inviata l’anno scorso a Mark Zuckerberg e firmata da oltre duecento persone. Persone che lavorano per il colosso di Menlo Park. ma anche per le altre principali piattaforme digitali di massa: da Instagram a Twitter, da TikTok a YouTube. Sono i moderatori dei contenuti dei social media, i guardiani clandestini degli avanposti della rete contemporanea: una professione poco conosciuta, ma nevralgica. «Credo che l’aspetto più difficile sia la condizione di totale invisibilità in cui sono costretti a operare: per motivi di sicurezza, ma anche per minimizzare l’importanza del lavoro umano», spiega all’“Espresso” Jacopo Franchi, autore del libro Obsoleti. Il lavoro impossibile dei moderatori di contenuti (AgenziaX). «Oggi è impossibile stabilire con certezza se una decisione di moderazione dipenda dall’intervento di un uomo o di una macchina, i moderatori sono le vittime sacrificali di un mondo che rincorre l’illusione della completa automazione editoriale». Perché serve ancora come l’ossigeno qualcuno, in carne e ossa, che si prenda la briga di nascondere la spazzatura sotto il tappeto agli occhi dei miliardi di iscritti (e inserzionisti) connessi in quel preciso istante. Un attimo prima che infesti i nostri monitor e smartphone, o che faccia comunque troppi danni in giro. E anche certe sfumature di senso la tecnologia non riesce a coglierle e chissà se le capirà mai. I moderatori digitali sono uomini e donne senza competenze o specializzazioni specifiche, e di qualsiasi etnia ed estrazione: una manodopera assolutamente intercambiabile. Per essere assunti, basta essere subito disponibili e “loggabili”, avere una connessione stabile e pelo sullo stomaco. Il loro compito consiste, infatti, nel filtrare ed eventualmente cancellare l’oggetto dei milioni di quotidiane segnalazioni anonime che arrivano (a volte per fini opachi) dagli stessi utenti. Incentrate su post e stories, foto e video ributtanti. Immagini e clip pedopornografiche, messaggi d’odio e razzismo, account fake, bufale, revenge porn, cyberbullismo, torture, stupri, omicidi e suicidi, guerre locali e stragi in diretta. Fiumi di fango che sfuggono alla diga fallibile degli algoritmi, e che possono finire per rendere virale, inconsapevolmente, l’indicibile. Gli errori di selezione della macchina li risolvono gli uomini: dal di fuori tutto deve però sembrare una proiezione uniforme e indistinta dell’intelligenza artificiale. Un lavoro essenziale e misconosciuto per un trattamento barbaro. «Ero pagato dieci centesimi a contenuto. Per questa cifra ho dovuto catalogare il video di un ragazzo a cui era stato dato fuoco, pubblicato dall’Isis», scrive Tarleton Gillespie nel suo Custodians of the Inter-net. I “custodians” lavorano a ritmi forsennati, cestinando fino a 1500 contenuti pro-capite a turno. Uno alla volta, seguendo le linee guida fornite dalle aziende, i mutevoli “HYPERLIMK "https://m.facebook.com/communitv-standards/" Community Standards” (soprannominati, tra gli addetti ai lavori, la Bibbia). Se non conoscono la lingua interessata si affidano a un traduttore online. L’importante è correre: una manciata di secondi per stabilire cosa deve essere tolto di mezzo dai nostri newsfeed e timeline. Non c’è spazio per riflettere: un clic, elimina e avanti col prossimo.
Un’ex moderatrice, Valeria Zaicev, tra le maggiori attiviste della battaglia per i diritti di questa categoria che è ancora alle primissime fasi, ha raccontato che Facebook conta persino i loro minuti di pausa in bagno. Lavorano giorno e notte, i moderatori digitali. «Il nostro team di revisione è strutturato in modo tale da fornire una copertura 24/7 in tutto il pianeta», ha dichiarato a “The Atlantic” Monika Bickert, responsabile globale delle policy di Facebook. Nessuno sa niente del loro mandato, obbligati come sono al silenzio da marziali accordi di riservatezza. Pure la loro qualifica ufficiale è camaleontica: community manager, contractor, legal removais associate... «Quello del moderatore di contenuti è un esempio, forse il più estremo, delle nuove forme di lavoro precario generato ed eterodiretto dagli algoritmi», aggiunge Franchi. «Nessuno può dirci con precisione quanti siano: si parla di 100-150 mila moderatori, ma non è stato mai chiarito quanti di questi siano assunti a tempo pieno dalle aziende, quanti siano ingaggiati con contratti interinali da agenzie che lavorano in subappalto e quanti invece retribuiti a cottimo sulle piattaforme di “gig working”, per “taggare” i contenuti segnalati dagli utenti e indirizzarli così verso le code di revisione dei moderatori “professionisti”». Restando a Facebook, si oscilla così dai moderatori più tutelati e con un contratto stabile negli Usa (15 dollari circa all’ora di salario) ai 1600 occupati dall’appaltatore Genpact negli uffici della città indiana di Hyderabad, che avrebbero una paga di 6 dollari al giorno stando a quanto rivelato, tra gli altri, dalla Reuters. Un esercito neo-industriale di riserva che si collega alla bisogna grazie a compagnie di outsourcing come TaskUs, persone in smart-work permanente da qualche angolo imprecisato del globo, per un pugno di spiccioli a chiamata. Il loro capo più autoritario e immediato, in ogni caso, è sempre l’algoritmo. Un’entità matematico-metafisica che non dorme, non si arresta mai. Una forza bruta ma asettica, tirannica e prevedibile, fronteggiata dall’immensa fatica del corpo e della mente. «È un algoritmo a selezionarli su Linkedin o Indeed attraverso offerte di lavoro volutamente generiche», ci dice ancora lacopo Franchi, «è un algoritmo a organizzare i contenuti dei social che possono essere segnalati dagli utenti, è un algoritmo a pianificare le code di revisione ed è spesso un algoritmo a determinare il loro punteggio sulla base degli “errori” commessi e a decidere della loro eventuale disconnessione, cioè il licenziamento». Già: se sbagliano in più del 5 per cento dei casi, se esorbitano da quei “livelli di accuratezza” monitorati a campione, può scattare per loro il cartellino rosso, l’espulsione. Per chi riesce a rimanere al proprio posto, è essenziale rigenerarsi nel tempo libero. Staccare completamente, cercare di recuperare un po’ di serenità dopo avere introiettato tante nefandezze. «Ci sono migliala di moderatori nell’Unione Europea e tutti stanno lavorando in condizioni critiche per la loro salute mentale», ha asserito Cori Crider, direttore di Foxglove, un gruppo di pressione che li assiste nelle cause legali. Sta di fatto che nel 2020 Facebook ha pagato 50 milioni di dollari a migliala di moderatori che avevano sviluppato problemi psicologici a causa del loro lavoro.
È uno dei new jobs più logoranti. Pochi resistono più di qualche mese, prima di essere defenestrati per performance deludenti o andarsene con le proprie gambe per una sopravvenuta incapacità di osservare il male sotterraneo del mondo senza poter fare nulla oltre che occultarlo dalla superficie visibile dei social. Gli strascichi sono pesanti. Il contraccolpo a lungo andare è micidiale, insopportabile. L’accumulo di visioni cruente traccia un solco profondo. Quale altra persona si sarà mai immersa così a fondo negli abissi della natura umana?
«L’esposizione a contenuti complessi e potenzialmente traumatici, oltre che al sovraccarico informativo, è certamente un aspetto rilevante della loro esperienza professionale quotidiana, ma non bisogna dimenticare anche l’alta ripetitività delle mansioni», spiega all’“Espresso” Massimiliano Barattucci, psicologo del lavoro e docente di psicologia delle organizzazioni. «A differenza di un altro lavoro del futuro come quello dei rider, più che ai rischi e ai pericoli per l’incolumità fisica, i content moderator sono esposti a tutte le fonti di techno-stress delle professioni digitali. E questo ci consente di comprendere il loro elevato tasso di turnover e di burnout, e la loro generale insoddisfazione lavorativa». L’alienazione, l’assuefazione emotiva al raccapriccio sono dietro l’angolo. «Può nascere un progressivo cinismo, una forma di abitudine che consente di mantenere il distacco dagli eventi scioccanti attinenti al loro lavoro», conclude Barattucci. «D’altro canto possono esserci ripercussioni e disturbi come l’insonnia, gli incubi notturni, i pensieri o i ricordi intrusivi, le reazioni di ansia e diversi casi riconosciuti di disturbo post-traumatico da stress (PTSD)». Nella roccaforte Facebook di Phoenix, in Arizona, un giorno, ha raccontato un ex moderatrice di contenuti al sito a stelle e strisce di informazione The Verge, l’attenzione di tutti è stata catturata da un uomo che minacciava di lanciarsi dal tetto di un edificio vicino. Alla fine hanno scoperto che era un loro collega: si era allontanato durante una delle due sole pause giornaliere concesse. Voleva mettersi così offline dall’orrore.
di Maurizio Di Fazio
www.vita.it, 25 febbraio 2021Non solo rider: sono i moderatori di contenuti i nuovi invisibili delle piattaforme
«Vivono dentro le piattaforme, invisibili, silenziosi, eppure presenti in gran numero: si calcola siano circa 100 mila i moderatori di contenuti. Una realtà ancora poco studiata, analizzata in un libro che rivela come il loro sia «un lavoro impossibile»

Un tempo si parlava degli invendibili. Gli invendibili, spiegava il vecchio Marx, sono quei lavoratori che, espulsi dai processi produttivi, non hanno più un valore d’uso, né di scambio. I tempi sono cambiati, ma gli invendbili di ieri sono gli obsoleti di oggi. Il loro, spiega Jacopo Franchi, esperto di digital humanities, in un libro molto documentato apparso per i tipi di Agenzia X (Gli obsoleti, 2021), «è un lavoro impossibile». Sono i moderatori di contenuti. Vivono dentro le piattaforme, invisibili, silenziosi, eppure presenti in gran numero: si calcola siano circa 100 mila in Italia.

Chi sono gli obsoleti?
Sono un popolo invisibile. L’invisibilità è la caratteristica dei moderatori di contenuti. Eppure, per capire cosa è diventata oggi la rete, dobbiamo cercare di illuminare questa zona d’ombra. Stimarne il numero esatto è difficile, le stime più riduttive parlano 150mila persone che lavorano per le grandi piattaforme digitali per visionare contenuti segnalati dagli utenti e dall’Intelligenza Artificiale.

Stiamo parlando, quindi, di rimozione di post potenzialmente offensivi che vengono segnalati su un social network...
Esattamente e, nello spazio di poche frazioni di secondo, questi lavoratori devono decidere se un’immagine, un messaggio, un post, un tweet ha diritto o meno di esistenza su quelle piattaforme. Il tutto dopo che il post è stato pubblicato e qualcuno, uomo o macchina, ha avviato la segnalazione per violazione della policy.

Quindi sono manovalanza cognitiva al servizio degli algoritmi?
Si pensa esistano solo automatismi e Intelligenza Artificiale, invece... Per anni è stata raccontata la favola che gli algoritmi che erano in grado di distribuire contenuti erano anche in grado di riconoscerli. Non è così, perché il discernimento richiede ancora un lavoro umano. I moderatori di contenuti fanno sforzi incredibili per stare ai ritmi di segnalazione, il turnover è altissimo e, in questa posizione, gli obsoleti non durano più di qualche mese.

È un fenomeno chiave della gig economy, eppure trattato raramente. Si parla molto di rider, in questi giorni, ma anche questi lavoratori mi sembrano schiavi del clic per usare un’espressione di Antonio Casilli...
Sentii parlare di questo fenomeno, per la prima volta, nel 2014. In seguito, occupandomi di digitale e facendo il social media manager, ho cominciato a imbattermi in questi lavoratori sempre più di frequente. Dietro l’algoritmo c’è sempre, anche, una persona. Ovviamente non possiamo dimenticarci dell’algoritmo, ma se perdiamo di vista le persone che lavorano attorno o "dentro" quell’algoritmo, come nel caso dei moderatori di contenuti, ci lasciamo scappare un fenomeno fondamentale del lavoro cognitivo.

Quello che vale per i social, vale anche per i motori di ricerca?
Assolutamente sì. Ma il fenomeno è sempre lo stesso: le persone ignorano che, dall’altra parte dello schermo, ci sono lavoratori in carne ed ossa. O, peggio, pensano che siano algoritmi. Per me i moderatori di contenuti sono un esempio, forse il più estremo, dei nuovi lavori creati per "nutrire" le macchine digitali. Lavoratori che sono controllati e comandati dalle macchine e possono essere disconnessi dalle macchine stesse quando le loro performance non mantengono alcuni standard.
Il filo rosso di questo fenomeno è l’invisibilità. Nel mio libro non mi sono concentrato sulla violenza, sulle pressioni psicologiche o sul trauma che questi lavoratori certamente subiscono. Il focus è capire perché sono mantenuti invisibili. Anni fa si negava la loro esistenza, poi si è cominciato ad ammetterla senza mai dire quanti sono, chi sono e quali sono i contenuti moderati da esseri umani e quali dalle macchine. Mantenendo sfumato il loro effettivo impatto si minimizza l’importanza del lavoro di queste persone all’interno dell’economia delle piattaforme.

In sostanza, si nasconde il fatto che le piattaforme dipendono dal lavoro che non hanno alcuna competenza tecnica digitale avanzata come ci si aspetterebbe da loro...
Il grosso della forza lavoro delle piattaforme è costituito da lavoratori manuali, che mantengono il posto di lavoro per pochi mesi e rispondono in modo quasi meccanico alle consegne dell’azienda. Eppure senza di loro le piattaforme non sarebbero quello che sono attualmente. Probabilmente avrebbero anche molta più difficoltà a coinvolgere gli inserzionisti. Le piattaforme di maggior successo sono quelle che hanno investito maggiormente nella moderazione umana e in questa forza lavoro di riserva.

Non le sembra paradossale che, proprio in questi anni, mentre si parlava di uso discriminatorio della rete (hate speech, fake news), ci si dimenticasse proprio di questo esercito cognitivo di riserva?
La promessa che le piattaforme hanno fatto al proprio pubblico, ovvero abolire il lavoro dell’intermediario umano nella distribuzione e selezione di contenuti continua ad avere molto successo. Si crede a questa narrazione, nonostante le testimonianze dei moderatori che stanno uscendo allo scoperto. Si preferisce non vedere, non capire, al massimo dibattere sugli effetti, mai sulle strutture profonde. Probabilmente ci dobbiamo liberare di molte scorie che, negli anni delle magnifiche sorti dell’internet, si sono accumulate. Finché costa meno far lavorare un uomo, perché scegliere un algoritmo?

Circolano molti scenari apocalittici, ma forse un rapporto più centrato sull’umano, anche per le piattaforme, è possibile. Si tratta di dare visibilità all’invisibile e ristabilire alcuni punti di diritto...
A livello di moderazione di contenuti, la mia visione è che non si può continuare così. La soluzione non può essere unicamente dare più soldi ai moderatori o garantire loro sostegno psicologico, visti i livelli di burnout a cui sono soggetti. Il tema è più ampio, ad esempio andrebbe diviso il potere di diffondere dal potere di censurare, altrimenti si creano cortocircuiti sul piano socio-politico, oltre che su quello del diritto del lavoro. A un livello più macro, invece, bisognerebbe uscire dalla logica del “beta permanente”: quella logica che porta a immettere sul mercato prodotti e tecnologie che non sono testate a sufficienza, lo vediamo con Clubhouse. Dovremo in futuro pensare all’immissione di nuove tecnologie che debbano rispondere a principi predefiniti.

Che tipo di principi?
Principi, magari validati da entità terze, che dovrebbero toccare tre aspetti: il lavoro umano che accompagna la tecnologia; l’etica su cui sono costruiti gli algoritmi; come viene costruito il design delle piattaforme. Sono scelte che cambiano la nostra esperienza d’uso, ma anche l’impatto generale sulla nostra società e, di conseguenza, sul lavoro. Dobbiamo spingere affinché diventi trasparente dove finiscono di lavorare gli algoritmi e dove comincia il lavoro umano.

Perché il termine “obsoleti” per qualificare questi lavoratori?
Perché sono persone che arrivano a occupare un posto di lavoro come moderatori, magari prive di competenze specifiche, ma che una volta acquisite quelle competenze le perdono. Le perdono perché diventano obsolete e, di conseguenza, lo diventano lro stessi. Negli ultimi anni l’obsolescenza è passata dalle macchine agli uomini: è diventata il limite dell’umano rispetto alla tecnologia. Un limite nella nostra impossibilità di aggiornarci e apprendere nuove conoscenze. In realtà, i moderatori apprendono continuamente nuove conoscenze perché la policy e le regole d’ingaggio cambiano continuamente. Il limite che ho riscontrato è che non possono "dimenticare a comando" per cui, oltre un certo livello, non puoi fare come le macchine come se non avessi un passato e non avessi visto o letto certe cose. Rispetto alle macchine che ti fanno concorrenza, il problema non è l’aggiornamento, ma l’impossibilità del moderatore di contenuti di dimenticare a comando. Da un certo momento in poi ciò che hai imparato nel passato entra in conflitto con quanto dovresti applicare nel presente e, qui, il soggetto umano diventa "obsoleto". Esce dal sistema.
di Marco Dotti
Arci Bellezza, 22 febbraio 2021Presentazione su Facebook del libro «Gli obsoleti» di Jacopo Franchi
Presentazione del nuovo libro di Jacopo Franchi Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti. Con interventi di: Ornella Rigoni (Presidente Arci Bellezza), Alberto Molteni (Social Media Manager) e Dimitri Piccolillo (Mondadori Barona Bookstore)
Ascolta la presentazione
RaiNews, 16 febbraio 2021 Gli «obsoleti» moderatori social. Intervista a Jacopo Franchi
All’interno della trasmissione Login, Celia Guimaraes intervista Jacopo Franchi a proposito del suo nuovo libro Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti
Ascolta l’intervista
www.usthemyours.com, febbraio 2021 Jacopo Franchi, Gli obsoleti
Negli ultimi anni sono emersi nuovi lavori fino a qualche tempo fa quasi impensabili: un esempio è quello dei rider, che nel giro di una decade da zero sono diventati migliaia. La tecnologia digitale ha prodotto anche altre figure lavorative emergenti, come i moderatori di contenuti, che si occupano di controllare e censurare l’attività degli utenti della piattaforme. I post su Facebook, TikTok, YouTube, Instagram, Twitter, come anche i commenti agli articoli dei quotidiani, esigono il lavoro – precario, stressante e soprattutto nascosto – di decine di migliaia di moderatori. Dietro l’illusione della completa automazione editoriale infatti si nascondono schiere di lavoratori che invece che produrre alla “catena di montaggio” editoriale (oggi i contenuti li producono gli utenti), vagliano e distruggono contenuti (pornografia, violenza, crudeltà su persone e animali, “terrorismo” e molto altro). La giornata del moderatore – sottoposto a un flusso video pregno di ultraviolenza in stile Arancia Meccanica – è raccontata in questo fondamentale libro inchiesta, frutto di dieci anni di approfondite ricerche e riflessioni. Un brillante saggio che si legge come un romanzo e che fa luce su un lavoro ripetitivo e logorante – che ahimè – sarà sempre più diffuso.
di Pablito el Drito
Radio Popolare, 5 febbraio 2021Intervista a Jacopo Franchi
All’interno della trasmissione Cult, Ira Rubini intervista Jacopo Franchi sul suo ultimo libro Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti
Ascolta il podcast

Questo sito utilizza i cookie per migliorare la tua esperienza. Cliccando su qualsiasi link in questa pagina, dai il tuo consenso al loro utilizzo.

Non usiamo analitici... Clicca per più informazioni