Gli obsoleti
www.corriere.it, 22 marzo 2021Chi sono i moderatori di contenuti, i supereroi invisibili del web destinati a diventare «obsoleti»
Il nuovo libro di Jacopo Franchi, edito da Agenzia X, ha raccolto dati e studi su questa categoria di lavoratori, indispensabile ma ancora sconosciuta

È il primo lavoro sui moderatori online di contenuti pubblicato in Italia. Un saggio che parte dalla raccolta di ricerche, articoli e testimonianze degli ultimi 10 anni per un totale di circa 250 fonti internazionali. Jacopo Franchi, web content e social media manager, ha presentato alla Milano Digital Week il suo ultimo lavoro, Gli obsoleti (edizioni Agenzia X con illustrazioni di Licia Zavattaro), insieme ad Andrea Daniele Signorelli e Alessandro Isidoro Re.

Il paradosso della professione
Gli «obsoleti» sono i moderatori di contenuti online, persone che passano le giornate a visionare materiale segnalato come inappropriato (da video pornografici ad esecuzioni di terroristi) per poi, eventualmente, rimuoverlo. «Sono persone che si trovano lì per caso, senza competenze tecniche, ma paradossalmente, oggi, le maggiori aziende del settore dipendono da loro - spiega Franchi - Li ho definiti e loro stessi usano questo termine “obsoleti” perché ad un certo punto non riescono più a dimenticare quello che hanno visto, un tratto che ancora distingue gli umani dalle macchine, che in un click perdono la memoria del “passato”. Sono «obsoleti» anche perché sono tra i primi lavoratori a essere costretti a un aggiornamento professionale continuo data la velocità con cui cambiano le policy delle aziende, ma finiscono poi per essere sostituiti molto in fretta perché decidono di lasciare il posto».

Un esercito invisibile
Queste figure professionali di cui nessuno sa nulla, anche perché coperte da contratti con clausole di riservatezza molto stringenti, sono un vero esercito. «Gli ultimi numeri disponibili parlano 150mila persone sparse in tutto il mondo per coprire tutte le 24 ore di una giornata. Cifre da arrotondare sicuramente per difetto - continua Franchi - Su aziende come TikTok o Twitch, invece, ancora non ci sono report». Tra i moderatori ci sono sia i dipendenti che rimuovono o catalogano contenuti, oppure chi, da volontario, gestisce gruppi, comunità o pagine web. «Siamo tutti moderatori di contenuti volontari - spiega l’autore - perché la tecnologia, con gli algoritmi, fa un lavoro ottimale ma non può arrivare ovunque, non è così pervasiva o al passo con le novità come può essere un essere umano. Per esempio non riconosce la differenza tra una frase satirica e una offensiva».

Circa mille contenuti visualizzati ogni giorno
Un’altra definizione che viene data dei moderatori di contenuti è «supereroi invisibili del web». «Questo perché controllano la nostra sicurezza online , sentono il peso sociale del ruolo che coprono. Soprattutto, dopo anni in cui si è parlato della tecnologia come sostituta dell’uomo nel prossimo futuro, ora si è capito che oltre alla tecnologia servirà sempre qualcuno che intervenga manualmente a “colpi di click”». Il lavoro di un moderatore è di estrema precisione, tanto che la soglia di errore permessa va dal 2 al 5 per cento. «Un moderatore revisiona circa mille contenuti al giorno, senza tenere conto degli espedienti (come assenza di suono o colori) per alzare ancora di più i numeri».

Il risarcimento record per stress post traumatico
Il 2020 è stato un anno importantissimo per i moderatori, perché per la prima volta è stata riconosciuta anche legalmente la loro importanza all’interno delle aziende. Facebook a maggio 2020 ha dovuto pagare un risarcimento di 52 milioni di dollari a un gruppo di moderatori che avevano richiesto i danni per stress post traumatico. A ottobre, invece, l’azienda ha richiamato i moderatori a lavorare in sede perché da remoto il loro contributo non era sufficiente rispetto a quello fornito dai bot. «Il prossimo passo spero sia il racconto in prima persona di uno di loro - si augura Franchi - Serve che facciano chiarezza sul loro ruolo, umanizzando una professione che è ancora coperta da molto mistero».
di Cecilia Mussi
www.agendadigitale.eu, 16 marzo 2021Moderatori social, lavoratori “obsoleti” ma indispensabili: chi sono gli invisibili della rete
I moderatori di contenuti sui social costituiscono oggi una percentuale sempre più rilevante della forza lavoro, diretta e indiretta, delle nuove piattaforme digitali. Quanti sono, cosa fanno e quali sfide affrontano gli “operai del clic”. Se ne parla nel libro Gli obsoleti.

La prima volta che ho letto un articolo sui moderatori di contenuti dei social risale all’ormai lontano 2014: un’inchiesta di Adrian Chen, ancora oggi online, raccontava le lunghe giornate di lavoro di coloro che erano impegnati a “tenere pulito il feed di Facebook” da migliaia e migliaia di contenuti segnalati dagli utenti del social come potenzialmente a rischio di violazione delle regole di pubblicazione della piattaforma.
Un vero e proprio racconto dell’orrore quotidiano di persone costrette, per contratto, a rimanere di fronte a uno schermo per assistere allo scorrere indiscriminato e ad altissima velocità di ogni bestialità umana. Ma non fu questo aspetto del lavoro dei moderatori a monopolizzare la mia attenzione, né lo sarebbe stato nelle letture degli anni a venire che mi avrebbero portato alla scrittura de Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti (Agenzia X, 2021), primo libro italiano su questi “nuovi” lavoratori del digitale.

L’insostituibilità dei moderatori, gli “invisibili” della rete
Il filo rosso che legava l’inchiesta di Adrian Chen sui moderatori di contenuti nelle Filippine con le successive inchieste di The Verge sui moderatori di contenuti negli Stati Uniti, le testimonianze dei moderatori dei social a Berlino pubblicate sulla Süddeutsche Zeitung con le testimonianze raccolte in libri come Behind the Screen o Custodians of the Internet non era infatti solo il racconto dell’orrore in sé, quanto la constatazione che i moderatori di contenuti fossero a tutti gli effetti dei lavoratori “invisibili” della Rete. Ancora oggi è estremamente difficile stimare con esattezza il numero di moderatori attivi in Italia, per non dire del resto del mondo: dai 100.000 moderatori globali stimati da Wired nel 2014 ai 150.000 stimati dagli autori del documentario “The Moderators” nel 2017, l’unico elemento certo è che le più grandi aziende tecnologiche al mondo non possono fare a meno dei moderatori di contenuti, seppur sottopagati e sottodimensionati, per poter continuare a erogare i propri servizi digitali.
Ne abbiamo avuto una conferma esplicita nel corso dell’ultimo anno: a marzo 2020 Facebook ha dovuto improvvisamente richiamare al lavoro – seppur in smart working – migliaia e migliaia di moderatori di contenuti nel momento in cui l’intelligenza artificiale che avrebbe dovuto sostituirli aveva per errore cominciato a rimuovere migliaia di contenuti relativi al Coronavirus che non violavano alcuna policy di pubblicazione della piattaforma, solo poche ore dopo che la stessa azienda aveva dichiarato pubblicamente che si sarebbe servita di sistemi automatici di revisione dopo aver mandato a casa i moderatori per ragioni di sicurezza sanitaria. A novembre 2020, una lettera firmata da oltre 200 moderatori e indirizzata a Mark Zuckerberg ha confermato questo stato di fatto: “i vostri algoritmi non possono distinguere tra giornalismo e disinformazione, non sanno riconoscere la satira – si legge nel documento – solo noi possiamo”.

I moderatori in “pillole”
• Le piattaforme digitali non possono fare a meno del lavoro umano e non specializzato per revisionare i contenuti potenzialmente a rischio e resi virali dai propri algoritmi.
• I moderatori di contenuti sono oltre 100 mila in tutto il mondo e sono sottoposti a forti pressioni psicologiche per revisionare il maggior numero possibile di contenuti a rischio.
• In media un moderatore di contenuti deve prendere una decisione ogni 30 secondi, servendosi di espedienti volti ad accelerare il suo lavoro e potenziare la sua resistenza.
• L’invisibilità dei moderatori di contenuti è una scelta strategica volta a minimizzare l’importanza del lavoro umano nel contesto delle nuove tecnologie di informazione di massa.
• I moderatori di contenuti sono un esempio, forse il più estremo, dei nuovi lavori nati per servire gli algoritmi e vanno incontro a un processo di “obsolescenza” che non dipende tanto dalla loro incapacità di aggiornarsi, quanto da quella di dimenticare a comando come le macchine.

Vita da moderatore, in media una decisione ogni 30 secondi
Secondo le testimonianze e le inchieste oggi disponibili – oltre 250 sono quelle che ho potuto consultare in prima persona per la scrittura de “Gli obsoleti”, tra libri, articoli, videointerviste coperte da anonimato – in media un moderatore di contenuti per i social è chiamato a valutare tra i 500 e i 1.500 contenuti al giorno, uno ogni trenta secondi circa, passando quasi senza soluzione di continuità da messaggi d’odio a tentativi di suicidio, da video di attentati terroristici a video di pornografia e pedopornografia, dalla violenza sugli animali a quella sugli uomini, venendo chiamato in causa sempre più spesso anche per valutare contenuti relativi alla sfera privata di utenti che sono stati segnalati in forma anonima e talvolta senza neppur aver violato alcuna regola specifica. Quello che vediamo nei nostri flussi di notizie di Facebook, YouTube, Twitter o TikTok è solo una parte di quello che potremmo vedere se migliaia di contenuti non fossero stati rimossi dal nostro ultimo accesso ai social, se migliaia di moderatori non lavorassero 24/7 “al di là” dello schermo. Quella su cui lavorano i moderatori è una vera e propria “catena di smontaggio” dei contenuti online, che ricorda i ritmi di lavoro incessanti della catena di montaggio di una fabbrica tradizionale: anziché generare nuova informazione, nuovi contenuti, i moderatori si servono di appositi strumenti per “smembrare” i contenuti esistenti al fine di valutarli con la massima velocità possibile prima di procedere alla loro eliminazione. I video sono scomposti in miniature per farsi in pochi secondi un’idea sommaria del loro significato, i contenuti audio sono trascritti automaticamente per una rapida lettura, le immagini vengono analizzate in bianco e nero e i volti delle persone nelle foto sono sfuocati per aumentare la capacità di resistenza del moderatore di fronte ai contenuti più traumatici. In questo contesto, non sorprende che ogni giorno vengano commessi qualcosa come 300 mila “errori” di moderazione solo su Facebook, né che i moderatori più esperti sviluppino forme di disturbo post-traumatico da stress dopo essere stati portati ben oltre il limite umano di tolleranza nei confronti di video e immagini disturbanti.

Successo degli algoritmi e presenza dei moderatori
È un errore, tuttavia, pensare che sia sufficiente aumentare lo stipendio o i servizi di supporto psicologico ai moderatori di contenuti per risolvere una volta per tutte i problemi posti dall’incapacità degli algoritmi dei social di moderare sé stessi, di non rendere virali quei contenuti che violano sia le regole di pubblicazione delle piattaforme sia le regole delle comunità in cui esse operano. L’obiettivo dei moderatori, infatti, non è solo quello di “proteggere” gli utenti dalla visione dei contenuti peggiori, quanto proteggere la reputazione delle piattaforme digitali agli occhi di investitori e inserzionisti: l’invisibilità dei moderatori è funzionale a ridurre al minimo la percezione che ciò che viene pubblicato su Facebook e YouTube, su TikTok e Twitter sia in realtà molto diverso rispetto a quello che è possibile vedere, molto meno accettabile rispetto a quello che la maggior parte degli utenti sono disposti ad accettare nel proprio “feed” di notizie.
In questo contesto, la crescita del numero di moderatori di contenuti è in aperta contraddizione con una narrativa della tecnologia che per anni ha esaltato la capacità degli algoritmi di sostituirsi alla maggior parte dei lavori e dei lavoratori “umani” nella selezione dell’informazione di massa. Quegli stessi algoritmi che per alcuni anni sono stati ritenuti in grado di sostituirsi del tutto al lavoro di selezione editoriale di giornalisti, divulgatori ed esperti, non possono oggi fare a meno di un numero crescente di moderatori per poter continuare a prosperare nell’illusione diffusa di una presunta automazione editoriale di massa. Senza gli algoritmi probabilmente non ci sarebbero così tanti moderatori, ma è altrettanto probabile che senza i moderatori gli algoritmi non avrebbero acquisito un ruolo così importante nell’economia digitale contemporanea, in quanto incapaci di comprendere appieno i contenuti che essi stessi veicolano.

Necessità di apprendere e obbligo di dimenticare: la sfida più grande di chi lavora nel digitale
Appare quindi paradossale il fatto che le più grandi aziende digitali al mondo debbano oggi dipendere da un esercito invisibile di “operai del clic”, per lo più privi di competenze digitali avanzate: se i lavoratori “obsoleti” sono quelli privi della capacità di aggiornarsi alle nuove competenze richieste dal mercato del lavoro, i moderatori sono da considerarsi “obsoleti” nella misura in cui essi svolgono un lavoro teoricamente alla portata di chiunque e da cui vengono quotidianamente estratti nuovi dati per l’addestramento delle intelligenze artificiali che dovrebbero un giorno lontano prenderne il posto. Un passaggio di consegne, tuttavia, che potrebbe non avvenire mai: gli “obsoleti” resteranno, per ammissione delle stesse aziende, la principale forza lavoro delle piattaforme più avanzate e innovative al mondo.
In realtà i moderatori sono, tra tutti i lavoratori specializzati e non del settore digitale, i meno “obsoleti” di tutti come ho dimostrato anche nel mio libro: essi sono chiamati a un lavoro di aggiornamento costante per apprendere le nuove regole di moderazione delle piattaforme, che cambiano di continuo e spesso senza alcuna coerenza interna. Un lavoro di aggiornamento costante che richiede, contemporaneamente, anche l’oblio delle regole memorizzate solo pochi giorni o poche settimane prima: ed è questa continua tensione tra necessità di apprendere e obbligo di dimenticare, per tenere il passo con le macchine digitali prive di passato e di futuro, che si ritrova oggi in quasi tutti i lavori che hanno a che fare con il digitale.
In questo senso i moderatori sono un esempio, forse il più estremo, degli “invisibili” lavoratori della nuova economia digitale, siano essi revisori di contenuti dei social o autori degli algoritmi che li mettono in moto: costretti ad aggiornarsi e dimenticare a comando, finché il mondo rincorrerà l’illusione della completa automazione.
Libertà, 11 marzo 2021Così con gli algoritmi e moderatori invisibili le piattaforme social plasmano la realtà
Tutti coloro che usano i social, da Facebook a Twitter, da TikTok a YouTube, sanno di poter “segnalare” alla piattaforma utenti o contenuti. Ma chi decide poi quali video o post vanno eliminati? Chi riceve le segnalazioni su quanto viene pubblicato, valutando se sono offensivi, razzisti, pornografici, violenti e persino pericolosi se pensiamo a certe sfide con cui i ragazzini rischiano di farsi male (qualche settimana fa la morte di una bimba di nove anni è stata collegata a una di queste sfide ospitata su piattaforma TikTok). Dietro all’eliminazione dei post a rischio ci sono dei lavoratori invisibili: i “moderatori di contenuti”. Il primo libro interamente dedicato a loro, lo ha scritto il fiorenzuolano trapiantato a Milano: Jacopo Franchi, 33 anni. Il suo saggio, in libreria da un paio di settimane, si intitola Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti. «Rappresentano oggi una forza lavoro di almeno 100mila unità – spiega l’autore – e sono operativi in tutti i paesi del mondo. Il numero è destinato a crescere, complice la crisi occupazionale di molti mestieri subordinati. Non hanno nome, né volto, costretti al silenzio da accordi di riservatezza e volutamente nascosti dietro le interfacce digitali, indistinguibili da quell’intelligenza artificiale che vorrebbe prenderne il posto».

Perché li chiami obsoleti?
«Così vengono chiamati i lavoratori senza specializzazioni, pagati per svolgere un lavoro ripetitivo e privo di risvolto creativo. Obsoleti anche in quanto condannati dai più importanti studi di settore a essere inevitabilmente sostituiti dagli algoritmi e dalle nuove macchine digitali, programmate per svolgere attività ripetitive con maggiore velocità, precisione ed efficienza di qualsiasi risorsa umana».

Ad un certo punto, basterà l’intelligenza artificiale per selezionare i contenuti?
«Le macchine sono prive di capacità di intendere e di volere. Ci sarà sempre bisogno dell’uomo, per rimediare agli errori di selezioni compiuti da macchine automatiche. Anche per i cosiddetti “obsoleti” ci sarà sempre un lavoro. Io penso he la vera difficoltà sarà non tanto la nostra incapacità di aggiornarci come le macchine, quanto di dimenticare a comando come loro. I moderatori di contenuti sono obsoleti perché, oltre un certo limite, non sono più in grado di dimenticare ciò che hanno visto».

Lei cita studi e testimonianze che mostrano come i moderatori, anche i migliori, non durano più di qualche mese.
«Molti non resistono. Sono costretti a esaminare contenuti pedopornografici, centinaia di video di mutilazioni, decapitazioni, fucilazioni, tentati suicidi, istigazioni al suicidio. Per ridurre l’impatto emotivo, la macchina è in grado di smontare i video, riducendoli a tanti fotogrammi statici. La rappresentazione della violenza si fa più inoffensiva. C’è la possibilità per il moderatore anche di disabilitare in automatico il sonoro dei video, e di attivarlo solo in caso di sospetto. Qui il rischio diventerebbe contrario: l’assuefazione. I contenuto che vanno controllati nel corso del turno di lavoro supereranno per numero e orrore tutto quello che una persona possa ver visto fino a quel momento.»

I moderatori di contenuti sono il nuovo proletariato? Lei parla di catena di s-montaggio digitale, di un lavoratore diviso al proprio interno («alienato») e isolato dai «colleghi».
«I moderatori sono oggi descrivibili come i “nuovi” opera del clic. Anziché lavorare su una catena di montaggio di prodotti, lavorano su una catena di smontaggio di contenuti digitali: i video vengono scomposti in tante miniature, le immagini sono sfuocate e in bianco e nero, gli audio vengono accelerati, per poter valutare il maggior numero possibile di contenuti nel brevissimo arco di tempo richiesto da utenti e algoritmi, che potrebbero rendere virali i contenuto più “a rischi”. In tutto questo i moderatori sono irraggiungibili dagli utenti, separati in ambienti chiusi e isolati all’interno delle stesse aziende per cui lavorano».

“Un fatto non raccontato non esiste” scrivevano coloro che analizzavano i mass media tradizionali. Ora si può dire che un fatto non postato non esiste? Può sparire una tragedia umanitaria?
«Se non può sparire del tutto, nondimeno il suo impatto sull’opinione pubblica può essere di gran lunga minore per l’intervento dei moderatori: la guerra civile in Siria è diventata un fatto di rilevanza mondiale anche in virtù della decisione delle piattaforme social di lasciare on line i contenuti più violenti e notiziabili, mentre innumerevoli guerre e tragedie umanitarie in tutto il mondo non ottengono la stessa visibilità per la scelta delle piattaforme di limitare le testimonianze dai flussi di notizie. Sono le piattaforme oggi a plasmare la realtà che vediamo, attraverso il lavoro automatico degli algoritmi e l’intervento manuale dei moderatori».

La piattaforma ha il diritto (non il dovere o la responsabilità) di rimuovere i contenuto non in linea con la sua policy, ovvero le loro stesse regole di pubblicazione. Lei lo ricorda in più punti.
«È un approccio che spiega alla luce una normativa statunitense meglio nota “Section 230”, che tutela le grandi piattaforme dalla responsabilità dei contenuto pubblicati al loro interno, anche quando questi ultimi potrebbero danneggiare o urtare la sensibilità dei loro stessi utenti».

Il quarto potere oggi sono diventate le piattaforme, che noi pensiamo “imparziali”?
«Le piattaforme non sono imparziali: non lo sono i loro algoritmi, che cambiano continuamente dando visibilità ora a questo ora a quella tipologia di contenuto, e non lo sono le decisioni che quotidianamente vengono prese dai moderatori che lavorano per le piattaforme, i quali applicano regole costantemente modificate e aggiornate, spesso in contraddizione con quelle precedenti. Le regole cambiano ogni giorno, in base all’evolversi dei costumi, alle pressioni dei governi e inserzionisti e anche in base a ragioni di carattere reputazionale delle piattaforme».

Quali sono i contenuto più rimossi dalle piattaforme?
«Esistono innumerevoli report prodotti da Facebook, Twitter, LinkedIn, YouTube, TikTok che celebrano la capacità di queste ultime di rimuovere un numero crescente di contenuti d’odio, razzisti, violenti e “fake”: io, tuttavia, preferisco coltivare un legittimo sospetto in merito alla reale consistenza di questi numeri, nel momento in cui essi non sono stati certificati da nessun ente terzo e imparziale. Siamo ancora lontani, oggi, dall’arrivare a uno standard di misurazione condiviso».

Qual è il meccanismo della rimozione di contenuti? Parte sempre dalla segnalazione di un utente?
«Noi utenti abbiamo un ruolo determinante nell’alimentare il servizio di sorveglianza e moderazione globale: è grazie alle nostre segnalazioni se i moderatori possono valutare post potenzialmente a rischio e che non sono riconosciuti come tali dall’intelligenza artificiale, ed è grazie al lavoro volontario di innumerevoli utenti, amministratori di pagine e gruppi social, se i moderatori “professionisti” possono essere dispensati da una mole crescente di lavoro».

Cosa hanno in comune questi “obsoleti con la gig economy, il modello economico del lavoro a chiamata? Sono consapevoli di essere trattati come “pezzi di ricambio”?
«Molti moderatori vengono reclutati su piattaforme di gig working, come TaskUso Mechanical Turk. Inoltre essi stessi sono simili ai lavoratori “gig” nella misura in cui dipendono da una serie di algoritmi nello svolgimento del lavoro e nel fatto di essere ritenuti, a torto o a ragione, intercambiabili tra loro. Io penso che la consapevolezza dei lavoratori stia screscendo e il modo in cui questi ultimi si organizzano per opporsi allo strapotere delle aziende digitali è la prova che non sono disposti a lasciarsi trattare come merce priva di diritti».

La sua conclusione è quella di una “moderazione universale”. Un’utopia o una possibilità?
«Il problema non è più se Facebook o Twitter facciano bene o male a scegliere di moderare o non moderare in determinato contenuto, ma se Facebook o Twitter o qualsiasi altra piattaforma digitale possano avere al tempo stesso il potere di dare visibilità ai contenuti tramite i loro algoritmi e di togliere questa visibilità tramite i loro moderatori: la mia riflessione giunge alla conclusione che si debba restituire per lo meno quest’ultimo potere alla persone».

Jacopo Franchi è nato a Fiorenzuola 33 anni fa. Lavora come social media manager a Milano, dove vive con la sua fidanzata Annalisa, a cui ha dedicato questo secondo libro Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti, pubblicato da Agenzia X Edizioni e disponibile sia in libreria sia sulle piattaforme online (anche in formato e-book). La stessa casa editrice aveva pubblicato nel 2019 il suo primo libro Solitudini connesse. Sprofondare nei social media. Diplomato al liceo scientifico “Mattei” di Fiorenzuola, poi laureatosi a Parma in Lettere Moderne con il massino dei voti, durante l’università grazie al programma Erasmus, Franchi studiò all’università Sorbonne Nouvelle. Di formazione umanistica è però da sempre appassionato di tecnologia. Dal 2017 pubblica articoli, interviste e approfondimenti sul blog “Umanesimo Digitale” (umanesimo-digitale.com). Gli obsoleti è il primo libro italiano che ha come protagonisti i moderatori di contenuti nella loro eterna “competizione” e collaborazione con le intelligenze artificiali: oltre 100.000 le persone che hanno il compito di rimuovere post, messaggi, foto e video segnalati come pericolosi dagli utenti. Attraverso l’analisi di oltre 250 tra articoli, inchieste, testimonianze e ricerche accademiche, il libro ricostruisce la complessa opera di sorveglianza globale.
Donata Meneghelli
L’Espresso, 28 febbraio 2021Fake news, istigazione all’odio e immagini cruente. La dura vita dei custodi dei social
Non basta un algoritmo per giudicare se i contenuti segnalati dagli utenti meritano davvero di essere eliminati. A farlo è un esercito di moderatori sparsi per il pianeta. Un lavoro essenziale, segreto e stressante. Pagato pochi euro al giorno

Senza il nostro lavoro, Facebook sarebbe inutilizzabile. Il suo impero collasserebbe. I vostri algoritmi non sono in grado di distinguere tra giornalismo e disinformazione, violenza e satira. Solo noi possiamo»: queste parole si leggono, in una lettera inviata l’anno scorso a Mark Zuckerberg e firmata da oltre duecento persone. Persone che lavorano per il colosso di Menlo Park. ma anche per le altre principali piattaforme digitali di massa: da Instagram a Twitter, da TikTok a YouTube. Sono i moderatori dei contenuti dei social media, i guardiani clandestini degli avanposti della rete contemporanea: una professione poco conosciuta, ma nevralgica. «Credo che l’aspetto più difficile sia la condizione di totale invisibilità in cui sono costretti a operare: per motivi di sicurezza, ma anche per minimizzare l’importanza del lavoro umano», spiega all’“Espresso” Jacopo Franchi, autore del libro Obsoleti. Il lavoro impossibile dei moderatori di contenuti (AgenziaX). «Oggi è impossibile stabilire con certezza se una decisione di moderazione dipenda dall’intervento di un uomo o di una macchina, i moderatori sono le vittime sacrificali di un mondo che rincorre l’illusione della completa automazione editoriale». Perché serve ancora come l’ossigeno qualcuno, in carne e ossa, che si prenda la briga di nascondere la spazzatura sotto il tappeto agli occhi dei miliardi di iscritti (e inserzionisti) connessi in quel preciso istante. Un attimo prima che infesti i nostri monitor e smartphone, o che faccia comunque troppi danni in giro. E anche certe sfumature di senso la tecnologia non riesce a coglierle e chissà se le capirà mai. I moderatori digitali sono uomini e donne senza competenze o specializzazioni specifiche, e di qualsiasi etnia ed estrazione: una manodopera assolutamente intercambiabile. Per essere assunti, basta essere subito disponibili e “loggabili”, avere una connessione stabile e pelo sullo stomaco. Il loro compito consiste, infatti, nel filtrare ed eventualmente cancellare l’oggetto dei milioni di quotidiane segnalazioni anonime che arrivano (a volte per fini opachi) dagli stessi utenti. Incentrate su post e stories, foto e video ributtanti. Immagini e clip pedopornografiche, messaggi d’odio e razzismo, account fake, bufale, revenge porn, cyberbullismo, torture, stupri, omicidi e suicidi, guerre locali e stragi in diretta. Fiumi di fango che sfuggono alla diga fallibile degli algoritmi, e che possono finire per rendere virale, inconsapevolmente, l’indicibile. Gli errori di selezione della macchina li risolvono gli uomini: dal di fuori tutto deve però sembrare una proiezione uniforme e indistinta dell’intelligenza artificiale. Un lavoro essenziale e misconosciuto per un trattamento barbaro. «Ero pagato dieci centesimi a contenuto. Per questa cifra ho dovuto catalogare il video di un ragazzo a cui era stato dato fuoco, pubblicato dall’Isis», scrive Tarleton Gillespie nel suo Custodians of the Inter-net. I “custodians” lavorano a ritmi forsennati, cestinando fino a 1500 contenuti pro-capite a turno. Uno alla volta, seguendo le linee guida fornite dalle aziende, i mutevoli “HYPERLIMK "https://m.facebook.com/communitv-standards/" Community Standards” (soprannominati, tra gli addetti ai lavori, la Bibbia). Se non conoscono la lingua interessata si affidano a un traduttore online. L’importante è correre: una manciata di secondi per stabilire cosa deve essere tolto di mezzo dai nostri newsfeed e timeline. Non c’è spazio per riflettere: un clic, elimina e avanti col prossimo.
Un’ex moderatrice, Valeria Zaicev, tra le maggiori attiviste della battaglia per i diritti di questa categoria che è ancora alle primissime fasi, ha raccontato che Facebook conta persino i loro minuti di pausa in bagno. Lavorano giorno e notte, i moderatori digitali. «Il nostro team di revisione è strutturato in modo tale da fornire una copertura 24/7 in tutto il pianeta», ha dichiarato a “The Atlantic” Monika Bickert, responsabile globale delle policy di Facebook. Nessuno sa niente del loro mandato, obbligati come sono al silenzio da marziali accordi di riservatezza. Pure la loro qualifica ufficiale è camaleontica: community manager, contractor, legal removais associate... «Quello del moderatore di contenuti è un esempio, forse il più estremo, delle nuove forme di lavoro precario generato ed eterodiretto dagli algoritmi», aggiunge Franchi. «Nessuno può dirci con precisione quanti siano: si parla di 100-150 mila moderatori, ma non è stato mai chiarito quanti di questi siano assunti a tempo pieno dalle aziende, quanti siano ingaggiati con contratti interinali da agenzie che lavorano in subappalto e quanti invece retribuiti a cottimo sulle piattaforme di “gig working”, per “taggare” i contenuti segnalati dagli utenti e indirizzarli così verso le code di revisione dei moderatori “professionisti”». Restando a Facebook, si oscilla così dai moderatori più tutelati e con un contratto stabile negli Usa (15 dollari circa all’ora di salario) ai 1600 occupati dall’appaltatore Genpact negli uffici della città indiana di Hyderabad, che avrebbero una paga di 6 dollari al giorno stando a quanto rivelato, tra gli altri, dalla Reuters. Un esercito neo-industriale di riserva che si collega alla bisogna grazie a compagnie di outsourcing come TaskUs, persone in smart-work permanente da qualche angolo imprecisato del globo, per un pugno di spiccioli a chiamata. Il loro capo più autoritario e immediato, in ogni caso, è sempre l’algoritmo. Un’entità matematico-metafisica che non dorme, non si arresta mai. Una forza bruta ma asettica, tirannica e prevedibile, fronteggiata dall’immensa fatica del corpo e della mente. «È un algoritmo a selezionarli su Linkedin o Indeed attraverso offerte di lavoro volutamente generiche», ci dice ancora lacopo Franchi, «è un algoritmo a organizzare i contenuti dei social che possono essere segnalati dagli utenti, è un algoritmo a pianificare le code di revisione ed è spesso un algoritmo a determinare il loro punteggio sulla base degli “errori” commessi e a decidere della loro eventuale disconnessione, cioè il licenziamento». Già: se sbagliano in più del 5 per cento dei casi, se esorbitano da quei “livelli di accuratezza” monitorati a campione, può scattare per loro il cartellino rosso, l’espulsione. Per chi riesce a rimanere al proprio posto, è essenziale rigenerarsi nel tempo libero. Staccare completamente, cercare di recuperare un po’ di serenità dopo avere introiettato tante nefandezze. «Ci sono migliala di moderatori nell’Unione Europea e tutti stanno lavorando in condizioni critiche per la loro salute mentale», ha asserito Cori Crider, direttore di Foxglove, un gruppo di pressione che li assiste nelle cause legali. Sta di fatto che nel 2020 Facebook ha pagato 50 milioni di dollari a migliala di moderatori che avevano sviluppato problemi psicologici a causa del loro lavoro.
È uno dei new jobs più logoranti. Pochi resistono più di qualche mese, prima di essere defenestrati per performance deludenti o andarsene con le proprie gambe per una sopravvenuta incapacità di osservare il male sotterraneo del mondo senza poter fare nulla oltre che occultarlo dalla superficie visibile dei social. Gli strascichi sono pesanti. Il contraccolpo a lungo andare è micidiale, insopportabile. L’accumulo di visioni cruente traccia un solco profondo. Quale altra persona si sarà mai immersa così a fondo negli abissi della natura umana?
«L’esposizione a contenuti complessi e potenzialmente traumatici, oltre che al sovraccarico informativo, è certamente un aspetto rilevante della loro esperienza professionale quotidiana, ma non bisogna dimenticare anche l’alta ripetitività delle mansioni», spiega all’“Espresso” Massimiliano Barattucci, psicologo del lavoro e docente di psicologia delle organizzazioni. «A differenza di un altro lavoro del futuro come quello dei rider, più che ai rischi e ai pericoli per l’incolumità fisica, i content moderator sono esposti a tutte le fonti di techno-stress delle professioni digitali. E questo ci consente di comprendere il loro elevato tasso di turnover e di burnout, e la loro generale insoddisfazione lavorativa». L’alienazione, l’assuefazione emotiva al raccapriccio sono dietro l’angolo. «Può nascere un progressivo cinismo, una forma di abitudine che consente di mantenere il distacco dagli eventi scioccanti attinenti al loro lavoro», conclude Barattucci. «D’altro canto possono esserci ripercussioni e disturbi come l’insonnia, gli incubi notturni, i pensieri o i ricordi intrusivi, le reazioni di ansia e diversi casi riconosciuti di disturbo post-traumatico da stress (PTSD)». Nella roccaforte Facebook di Phoenix, in Arizona, un giorno, ha raccontato un ex moderatrice di contenuti al sito a stelle e strisce di informazione The Verge, l’attenzione di tutti è stata catturata da un uomo che minacciava di lanciarsi dal tetto di un edificio vicino. Alla fine hanno scoperto che era un loro collega: si era allontanato durante una delle due sole pause giornaliere concesse. Voleva mettersi così offline dall’orrore.
di Maurizio Di Fazio
www.vita.it, 25 febbraio 2021Non solo rider: sono i moderatori di contenuti i nuovi invisibili delle piattaforme
«Vivono dentro le piattaforme, invisibili, silenziosi, eppure presenti in gran numero: si calcola siano circa 100 mila i moderatori di contenuti. Una realtà ancora poco studiata, analizzata in un libro che rivela come il loro sia «un lavoro impossibile»

Un tempo si parlava degli invendibili. Gli invendibili, spiegava il vecchio Marx, sono quei lavoratori che, espulsi dai processi produttivi, non hanno più un valore d’uso, né di scambio. I tempi sono cambiati, ma gli invendbili di ieri sono gli obsoleti di oggi. Il loro, spiega Jacopo Franchi, esperto di digital humanities, in un libro molto documentato apparso per i tipi di Agenzia X (Gli obsoleti, 2021), «è un lavoro impossibile». Sono i moderatori di contenuti. Vivono dentro le piattaforme, invisibili, silenziosi, eppure presenti in gran numero: si calcola siano circa 100 mila in Italia.

Chi sono gli obsoleti?
Sono un popolo invisibile. L’invisibilità è la caratteristica dei moderatori di contenuti. Eppure, per capire cosa è diventata oggi la rete, dobbiamo cercare di illuminare questa zona d’ombra. Stimarne il numero esatto è difficile, le stime più riduttive parlano 150mila persone che lavorano per le grandi piattaforme digitali per visionare contenuti segnalati dagli utenti e dall’Intelligenza Artificiale.

Stiamo parlando, quindi, di rimozione di post potenzialmente offensivi che vengono segnalati su un social network...
Esattamente e, nello spazio di poche frazioni di secondo, questi lavoratori devono decidere se un’immagine, un messaggio, un post, un tweet ha diritto o meno di esistenza su quelle piattaforme. Il tutto dopo che il post è stato pubblicato e qualcuno, uomo o macchina, ha avviato la segnalazione per violazione della policy.

Quindi sono manovalanza cognitiva al servizio degli algoritmi?
Si pensa esistano solo automatismi e Intelligenza Artificiale, invece... Per anni è stata raccontata la favola che gli algoritmi che erano in grado di distribuire contenuti erano anche in grado di riconoscerli. Non è così, perché il discernimento richiede ancora un lavoro umano. I moderatori di contenuti fanno sforzi incredibili per stare ai ritmi di segnalazione, il turnover è altissimo e, in questa posizione, gli obsoleti non durano più di qualche mese.

È un fenomeno chiave della gig economy, eppure trattato raramente. Si parla molto di rider, in questi giorni, ma anche questi lavoratori mi sembrano schiavi del clic per usare un’espressione di Antonio Casilli...
Sentii parlare di questo fenomeno, per la prima volta, nel 2014. In seguito, occupandomi di digitale e facendo il social media manager, ho cominciato a imbattermi in questi lavoratori sempre più di frequente. Dietro l’algoritmo c’è sempre, anche, una persona. Ovviamente non possiamo dimenticarci dell’algoritmo, ma se perdiamo di vista le persone che lavorano attorno o "dentro" quell’algoritmo, come nel caso dei moderatori di contenuti, ci lasciamo scappare un fenomeno fondamentale del lavoro cognitivo.

Quello che vale per i social, vale anche per i motori di ricerca?
Assolutamente sì. Ma il fenomeno è sempre lo stesso: le persone ignorano che, dall’altra parte dello schermo, ci sono lavoratori in carne ed ossa. O, peggio, pensano che siano algoritmi. Per me i moderatori di contenuti sono un esempio, forse il più estremo, dei nuovi lavori creati per "nutrire" le macchine digitali. Lavoratori che sono controllati e comandati dalle macchine e possono essere disconnessi dalle macchine stesse quando le loro performance non mantengono alcuni standard.
Il filo rosso di questo fenomeno è l’invisibilità. Nel mio libro non mi sono concentrato sulla violenza, sulle pressioni psicologiche o sul trauma che questi lavoratori certamente subiscono. Il focus è capire perché sono mantenuti invisibili. Anni fa si negava la loro esistenza, poi si è cominciato ad ammetterla senza mai dire quanti sono, chi sono e quali sono i contenuti moderati da esseri umani e quali dalle macchine. Mantenendo sfumato il loro effettivo impatto si minimizza l’importanza del lavoro di queste persone all’interno dell’economia delle piattaforme.

In sostanza, si nasconde il fatto che le piattaforme dipendono dal lavoro che non hanno alcuna competenza tecnica digitale avanzata come ci si aspetterebbe da loro...
Il grosso della forza lavoro delle piattaforme è costituito da lavoratori manuali, che mantengono il posto di lavoro per pochi mesi e rispondono in modo quasi meccanico alle consegne dell’azienda. Eppure senza di loro le piattaforme non sarebbero quello che sono attualmente. Probabilmente avrebbero anche molta più difficoltà a coinvolgere gli inserzionisti. Le piattaforme di maggior successo sono quelle che hanno investito maggiormente nella moderazione umana e in questa forza lavoro di riserva.

Non le sembra paradossale che, proprio in questi anni, mentre si parlava di uso discriminatorio della rete (hate speech, fake news), ci si dimenticasse proprio di questo esercito cognitivo di riserva?
La promessa che le piattaforme hanno fatto al proprio pubblico, ovvero abolire il lavoro dell’intermediario umano nella distribuzione e selezione di contenuti continua ad avere molto successo. Si crede a questa narrazione, nonostante le testimonianze dei moderatori che stanno uscendo allo scoperto. Si preferisce non vedere, non capire, al massimo dibattere sugli effetti, mai sulle strutture profonde. Probabilmente ci dobbiamo liberare di molte scorie che, negli anni delle magnifiche sorti dell’internet, si sono accumulate. Finché costa meno far lavorare un uomo, perché scegliere un algoritmo?

Circolano molti scenari apocalittici, ma forse un rapporto più centrato sull’umano, anche per le piattaforme, è possibile. Si tratta di dare visibilità all’invisibile e ristabilire alcuni punti di diritto...
A livello di moderazione di contenuti, la mia visione è che non si può continuare così. La soluzione non può essere unicamente dare più soldi ai moderatori o garantire loro sostegno psicologico, visti i livelli di burnout a cui sono soggetti. Il tema è più ampio, ad esempio andrebbe diviso il potere di diffondere dal potere di censurare, altrimenti si creano cortocircuiti sul piano socio-politico, oltre che su quello del diritto del lavoro. A un livello più macro, invece, bisognerebbe uscire dalla logica del “beta permanente”: quella logica che porta a immettere sul mercato prodotti e tecnologie che non sono testate a sufficienza, lo vediamo con Clubhouse. Dovremo in futuro pensare all’immissione di nuove tecnologie che debbano rispondere a principi predefiniti.

Che tipo di principi?
Principi, magari validati da entità terze, che dovrebbero toccare tre aspetti: il lavoro umano che accompagna la tecnologia; l’etica su cui sono costruiti gli algoritmi; come viene costruito il design delle piattaforme. Sono scelte che cambiano la nostra esperienza d’uso, ma anche l’impatto generale sulla nostra società e, di conseguenza, sul lavoro. Dobbiamo spingere affinché diventi trasparente dove finiscono di lavorare gli algoritmi e dove comincia il lavoro umano.

Perché il termine “obsoleti” per qualificare questi lavoratori?
Perché sono persone che arrivano a occupare un posto di lavoro come moderatori, magari prive di competenze specifiche, ma che una volta acquisite quelle competenze le perdono. Le perdono perché diventano obsolete e, di conseguenza, lo diventano lro stessi. Negli ultimi anni l’obsolescenza è passata dalle macchine agli uomini: è diventata il limite dell’umano rispetto alla tecnologia. Un limite nella nostra impossibilità di aggiornarci e apprendere nuove conoscenze. In realtà, i moderatori apprendono continuamente nuove conoscenze perché la policy e le regole d’ingaggio cambiano continuamente. Il limite che ho riscontrato è che non possono "dimenticare a comando" per cui, oltre un certo livello, non puoi fare come le macchine come se non avessi un passato e non avessi visto o letto certe cose. Rispetto alle macchine che ti fanno concorrenza, il problema non è l’aggiornamento, ma l’impossibilità del moderatore di contenuti di dimenticare a comando. Da un certo momento in poi ciò che hai imparato nel passato entra in conflitto con quanto dovresti applicare nel presente e, qui, il soggetto umano diventa "obsoleto". Esce dal sistema.
di Marco Dotti
Arci Bellezza, 22 febbraio 2021Presentazione su Facebook del libro «Gli obsoleti» di Jacopo Franchi
Presentazione del nuovo libro di Jacopo Franchi Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti. Con interventi di: Ornella Rigoni (Presidente Arci Bellezza), Alberto Molteni (Social Media Manager) e Dimitri Piccolillo (Mondadori Barona Bookstore)
Ascolta la presentazione
RaiNews, 16 febbraio 2021 Gli «obsoleti» moderatori social. Intervista a Jacopo Franchi
All’interno della trasmissione Login, Celia Guimaraes intervista Jacopo Franchi a proposito del suo nuovo libro Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti
Ascolta l’intervista
www.usthemyours.com, febbraio 2021 Jacopo Franchi, Gli obsoleti
Negli ultimi anni sono emersi nuovi lavori fino a qualche tempo fa quasi impensabili: un esempio è quello dei rider, che nel giro di una decade da zero sono diventati migliaia. La tecnologia digitale ha prodotto anche altre figure lavorative emergenti, come i moderatori di contenuti, che si occupano di controllare e censurare l’attività degli utenti della piattaforme. I post su Facebook, TikTok, YouTube, Instagram, Twitter, come anche i commenti agli articoli dei quotidiani, esigono il lavoro – precario, stressante e soprattutto nascosto – di decine di migliaia di moderatori. Dietro l’illusione della completa automazione editoriale infatti si nascondono schiere di lavoratori che invece che produrre alla “catena di montaggio” editoriale (oggi i contenuti li producono gli utenti), vagliano e distruggono contenuti (pornografia, violenza, crudeltà su persone e animali, “terrorismo” e molto altro). La giornata del moderatore – sottoposto a un flusso video pregno di ultraviolenza in stile Arancia Meccanica – è raccontata in questo fondamentale libro inchiesta, frutto di dieci anni di approfondite ricerche e riflessioni. Un brillante saggio che si legge come un romanzo e che fa luce su un lavoro ripetitivo e logorante – che ahimè – sarà sempre più diffuso.
di Pablito el Drito
Radio Popolare, 5 febbraio 2021Intervista a Jacopo Franchi
All’interno della trasmissione Cult, Ira Rubini intervista Jacopo Franchi sul suo ultimo libro Gli obsoleti. Il lavoro impossibile dei moderatori di contenuti
Ascolta il podcast

Questo sito utilizza i cookie per migliorare la tua esperienza. Cliccando su qualsiasi link in questa pagina, dai il tuo consenso al loro utilizzo.

Non usiamo analitici... Clicca per più informazioni