Sembra incredibile, ma su Facebook vengono postate molte scene di automutilazione. Grazie ai content moderator, gli “spazzini del web”, molti orrori non filtrano nei feed dei social. Un algoritmo seleziona i contenuti, ma occorrono pulitori umani

Vanity Fair, Enrica Brocardo

Per quanto possa suonare assurdo, le immagini e i video di automutilazioni sono un genere piuttosto popolare sui social media». Lo dice Sarah T. Roberts, docente di Studi dell’informazione dell’Università della California.

La sua specializzazione sono i lavoratori del web, in particolare i content moderator, di cui si occupa dal 2010. È grazie a questi «spazzini» della Rete se il sangue di quelle ferite autoinferte non filtra nei feed dei nostri social. 

Rochelle LaPlante vive a Seattle e lavora da casa come moderatrice di contenuti su Amazon Mechanical Turk, una piattaforma creata per risolvere quesiti che non possono essere affidati a un computer, ma che necessitano dell’intelligenza umana.

Col tempo è diventata una bacheca di offerte di lavoro che chiunque, nel mondo, può svolgere online. «Controllo per lo più foto ma anche testi e video», mi racconta su Skype. «A volte mi viene richiesto di segnalare fotografie di minori, a volte di identificare immagini “inappropriate” senza spiegare in che senso.

In alcuni casi l’obiettivo è insegnare a un algoritmo i criteri in base ai quali selezionare i contenuti». Lo scorso aprile Facebook ha annunciato di aver raggiunto i 2 miliardi e 200 milioni di utenti.

A giugno, Instagram ha festeggiato il miliardo e pochi giorni fa ha dichiarato che le Instagram stories vengono utilizzate da 400 milioni di persone ogni giorno. YouTube è alla rincorsa con 1 miliardo e 800 milioni di persone che si collegano ogni mese.

Intanto a Manila, nelle Filippine, i ripulitori della Rete sono sempre più numerosi, decine di migliaia. «Le persone vengono reclutate per strada. Cercano giovani di 18-20 anni, appena diplomati, l’unico requisito è sapere usare un computer.

La paga va da uno a tre dollari all’ora per otto, dieci ore al giorno: un salario che neppure per gli standard del posto è buono. Analizzano ogni tipo di contenuto: immagini di guerra, terrorismo, violenza, pornografia, pedofilia. In un giorno può capitare di passare ore a segnalare foto di abusi sessuali sui minori e qualche altra ora a guardare video di decapitazioni».

A parlare sono due registi tedeschi, Hans Block e Moritz Riesewieck. Al business della moderazione dei contenuti a Manila hanno dedicato The Cleaners, un documentario che è stato presentato in anteprima al Sundance Film Festival e che arriverà nei cinema da noi a settembre.

Ancora oggi la maggior parte delle persone, persino i miei colleghi di università, è convinta che a filtrare i materiali “sporchi” dal web siano i computer, gli algoritmi. In realtà, pulitori umani e programmi svolgono il lavoro insieme», spiega Roberts.

«Un programma può facilmente confrontare un contenuto con altri già esistenti e verificare, per esempio, se ci sia una violazione del copyright. O identificare certe immagini pornografiche sulla base di quanti pixel sono riconoscibili come pelle. Ma per quanto riguarda tutto il resto, a un certo punto serve un essere umano».

Per capirci, un algoritmo non può stabilire se un’immagine di violenza sia un appello lanciato dalla vittima o se a postarla sia stato chi ha commesso quel crimine, e se un’immagine di guerra abbia il valore di notizia o se si tratti di propaganda.

Quanti sono i content moderator in giro per il mondo? «Le compagnie non diffondono dati o lo fanno in modo parziale, ma parliamo di centinaia di migliaia. E si tratta di numeri destinati a crescere.

Ogni volta che si verifica uno scandalo per qualche contenuto improprio finito in Rete, ogni volta che l’opinione pubblica reagisce in modo critico, la risposta è: “Ne assumeremo altre migliaia”. E con la nascita del live streaming i contenuti saranno ancora più difficili da tenere sotto controllo».

A rendere le stime ancora più complicate, il fatto che la stragrande maggioranza di queste persone firma accordi di riservatezza, in cui ci si impegna a non divulgare nessun genere di informazioni

«Io non ho mai dovuto farlo per il semplice motivo che non so per chi lavoro», dice Rochelle. Amazon Mechanical Turk non richiede alle aziende di essere riconoscibili, così come chi ci lavora non ha un profilo, un curriculum.

«Noi non possiamo comunicare con loro, e loro non possono verificare che le istruzioni fornite siano state comprese. Non sai se qualcuno verificherà quello che hai fatto, però può accadere di non essere pagati senza che il committente sia tenuto a fornire nessuna spiegazione».

Henry Soto e Greg Blauert, due ex dipendenti di Microsoft, nel 2017 hanno fatto causa alla compagnia per danni. Un anno e mezzo nell’Online Safety Team a visionare «immagini scioccanti» avrebbe causato loro un disturbo post traumatico da stress. I loro avvocati citano tra i sintomi «ansia, irritabilità, crisi di pianto, incubi».

Ma quante persone hanno tentato di fare causa per lo stesso motivo? «La maggior parte ha un contratto con società terze sparse nel mondo e, in questi casi, è molto più difficile farsi valere in tribunale.

Google, per fare un esempio, potrebbe rispondere: “Ci dispiace, ma non lavoravano per noi”. Un altro buon motivo per esternalizzare e delocalizzare», dice Roberts. «Così come non sapremo mai quanti contenziosi sono stati chiusi con un accordo economico».

Se Manila è la città dove si concentra la maggior parte delle società di content moderation, le ragioni, secondo Moritz Riesewieck, non sono solo economiche. «Oltre il 90 per cento dei filippini sono di religione cristiana e sono devoti credenti. Molti giovani con i quali abbiamo parlato sono convinti che valga la pena sacrificarsi per cancellare i peccati dal mondo. Tutti conoscevano almeno un’altra persona che faceva lo stesso lavoro e che si è tolta la vita».

In Rete circola anche un altro documentario, The Moderators, realizzato a quattro mani dal regista irlandese Ciaran Cassidy e dal giornalista americano Adrian Chen. «Lo abbiamo girato a Bangalore, in India, nella sede della società Foiwe.

Gli uffici sono divisi in due open space: in una stanza, quelli che già lavorano, su turni, 24 ore su 24. Ognuno processa 2.000 foto all’ora, un team di 20 esamina 1 milione di foto al giorno. Nell’altra stanza si fa training ai nuovi assunti.

Il turnover del personale è altissimo», racconta Cassidy. Tutti sottoscrivono un accordo di riservatezza, per questioni anche di privacy. Foiwe ripulisce conto terzi siti di dating online per verificare che non ci siano contenuti pornografici e persino per prevenire le truffe.

«E per farlo hanno accesso a dati molto personali. Che ci faccia sentire più al sicuro o che ci dia fastidio, l’importante è saperlo». Facebook sta testando sistemi di intelligenza artificiale capaci di «decifrare» eventuali intenzioni suicide nei post.

Nel frattempo, questo lavoro lo fanno ancora gli umani e sono molti i casi di persone salvate in extremis, bambini messi al sicuro e molestatori arrestati. «Ma è vero anche che quando chi intercetta queste situazioni di pericolo sta dall’altra parte del mondo far arrivare l’informazione in tempo utile diventa più complicato».

Secondo i due registi di The Cleaners, l’attuale sistema non mette a rischio solo i «controllori» ma anche gli utenti. «I giganti dei social vorrebbero convincerci che le linee guida fornite alle società che operano per loro sono oggettive e vengono applicate in modo oggettivo.

Ma quando devi decidere in un paio di secondi lo fai seguendo il tuo istinto. Tanto più se quelle immagini non ti vengono fornite nel contesto in cui sono state condivise». La stessa Nicole Wong, che ha creato le linee guida di Google e di Twitter, ha ammesso che si tratta di scelte complesse.

E ha raccontato che a volte «le compagnie devono stringere accordi con i governi garantendo la censura di certi contenuti in cambio dell’autorizzazione a rimanere sul mercato».

Il fatto che queste piattaforme si siano espanse a livello globale implica che non ci si possa più basare su regole scritte nella Silicon Valley da gruppi ristretti di persone, e neppure che si possa far riferimento unicamente alle leggi e alle normative americane.

Che le cose stiano cambiando lo dimostra l’entrata in vigore del regolamento europeo sulla privacy il 25 maggio scorso, la legge tedesca dello scorso gennaio per contrastare il cosiddetto hate speech, obbligando le compagnie a rimuovere entro 24 ore ogni genere di incitamento all’odio, minacce o insulti.

Fino alla direttiva europea sul copyright dei contenuti sul web in discussione, che potrebbe venire applicata in autunno. Sono queste le ragioni per cui le compagnie sono così riservate – i più critici direbbero opache – quando si tratta di parlare delle centinaia di migliaia di persone che tengono in ordine la Rete?

Risponde Roberts: «Ci sono ragioni pratiche e altre ideologiche. In linea di principio, queste aziende sono contrarie alle regolamentazioni e all’assunzione di responsabilità, e non sono interessate a condividere i loro metodi di lavoro. Inoltre, il principio sul quale sono nati i social media e il loro fascino consistono nella totale libertà di espressione.

L’idea che ci sia qualcuno preposto a giudicare quello che condividiamo è antitetico con le promesse di libertarismo tecnologico per cui un bit è un bit e tutte le informazioni valgono uguale.

Ma le ragioni ideologiche sono interconnesse con quelle pratiche: i social sono collettori di pubblicità a livello globale. È evidente che le compagnie non possono tollerare che un contenuto pagato da un cliente appaia a fianco di un’immagine o un testo sgradevole o raccapricciante, ma come potrebbero dirci: “Vogliamo che continuiate a fornirci liberamente i vostri contenuti gratis, però non possiamo fare a meno di controllarli per non perdere gli introiti della pubblicità”?».

Please follow and like us:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *