Articolo aggiornato alle ore 11,00 del 23 febbraio 2018.
Questa storia inizia il 17 febbraio. Il blogger Matt Watson pubblica un video in cui dimostra, passo passo, come su YouTube ci sia un “circolo di pedofilia soft-core”. Non solo. Prova anche altre due cose: che l’algoritmo incoraggia la circolazione di questi contenuti e che YouTube ci guadagna, perché anche su questi video scorre la pubblicità. Dopo la denuncia di Watson, alcuni grandi inserzionisti come Walt Disney, Nestle ed Epic Games hanno deciso di bloccare la pubblicità sulla piattaforma gestita da Google. YouTube ha reagito, ma ancora adesso molti contenuti sono facilmente accessibili.
Cosa c’entra l’algoritmo
Le norme di YouTube, chiaramente, non autorizzano la pubblicazione di video pedo-pornografici. Il problema l’universo che si muove sul ciglio. Nelle immagini non ci sono abusi espliciti: i video riprendono bambini e bambine mentre giocano, sono nelle loro camere da letto o in pose allusive, fanno attività fisica o sul lettino del medico. Che questi contenuti facciano parte di un “circolo pedo-pornografico”, come lo chiama Watson, diventa chiaro scorrendo i commenti. Spesso contengono complimenti o link a video simili, che rimandano a immagini sempre più al limite.
Per inciampare in questi siti basta davvero poco. Anche perché i suggerimenti di YouTube, cioè i video che compaiono nella colonna destra, tendono a indicare contenuti simili. Una volta entrati nel “circolo”, ci si rende conto quanto sia ampio.
Trovare questi video è semplicissimo
Watson sottolinea quanto sia semplice rintracciare video simili. Si parte da un contenuto del tutto lecito. Il blogger inizia la ricerca con “bikini haul”. “Haul” è, nel gergo di YouTube, un video in cui si mostrano i proprio acquisti più recenti, in questo caso costumi da bagno. L’algoritmo suggerisce immediatamente una serie di contenuti di questo tipo, spesso girati da utenti giovanissime. Sono queste le porte d’accesso al “circolo”. Rintracciarle, come ha potuto verificare AGI, è davvero semplice come afferma Watson. Anzi, al momento c’è persino una beffa: lo stesso video che denuncia la presenza di questi contenuti è diventato uno spiraglio d’ingresso.
I risultati potrebbero essere diversi da utente a utente, perché dipendono dalle navigazioni precedenti. Ma dopo aver visto l’inchiesta, sulla destra compaiono immediatamente alcuni video di “bikini haul”. Un clic e si aprono decine di contenuti in cui le protagoniste sono bambine che mangiano, dormono, fanno ginnastica. Il problema non sta tanto nelle immagini in sé quanto nel fatto che diventino un punto di ritrovo per pedofili: “L’algoritmo di YouTube – spiega Watson – sta facilitando la capacità dei pedofili di connettersi l’uno con l’altro”, tramite “video innocui, a volte con meno di cinque clic. Inoltre, questi video sono monetizzati da YouTube, con pubblicità di marchi come McDonald’s e Disney”.
La reazione degli inserzionisti (e di YouTube)
Gli inserzionisti hanno reagito chiudendo il portafogli. Secondo quanto riportato da Bloomberg, la spesa pubblicitaria totale per i video indicati da Watson era inferiore agli 8.000 dollari negli ultimi 60 giorni. E la piattaforma prevede di rimborsare gli inserzionisti. Per grandi gruppi come Disney e Nestlé, il problema non sta certo in qualche migliaio di dollari ma nella possibilità di venire associati a contenuti legati alla pedo-pornografia. YouTube si stava già muovendo, ma da quando il problema è arrivato alle casse, ha deciso di accelerare. Il 25 gennaio, la piattaforma ha annunciato che avrebbe ridotto i suggerimenti di contenuti borderline”.
Il post si rivolgeva soprattutto ai “video che promuovono false cure miracolose, sostengono che la Terra sia piatta o contengono affermazioni palesemente false sugli eventi dell’11 settembre”. Le bufale non sono la pedo-pornografia, ma il meccanismo con cui l’algoritmo favorisce la diffusione di contenuti discutibili è lo stesso. Il 19 febbraio, 48 ore dopo la pubblicazione del video di Watson, YouTube ha aggiornato le linee guida nel tentativo di rendere “più trasparenti” la gestione dei canali. Dopo il blocco delle inserzioni, YouTube ha sottolineato che “qualsiasi contenuto che metta in pericolo i minori è aberrante e abbiamo norme chiare a riguardo. Abbiamo preso provvedimenti immediati cancellando account e canali, segnalando attività illegali alle autorità e disabilitando i commenti violenti”.
A oggi, dopo l’inchiesta, sarebbero stati cancellati oltre 400 canali e decine di milioni di commenti che veicolavano contenuti pedo-pornografici soft-core. I numeri arrivano direttamente dall’account Twitter di YouTube, in risposta Philip DeFranco (commentatore molto seguito sul social network con oltre 1,2 milioni di follower). La piattaforma ha ribadito l’impegno nell’affrontare il problema, ha promesso che ampliare il team specializzato nel controllo dei contenuti e ha segnalato gli account sospetti alle forze dell’ordine. La stretta è percepibile, soprattutto nei commenti. Ma, come conferma YouTube, “c’è molto da fare”. Il circolo è ancora aperto.
Se avete correzioni, suggerimenti o commenti scrivete a [email protected].
Se invece volete rivelare informazioni su questa o altre storie, potete scriverci su Italialeaks, piattaforma progettata per contattare la nostra redazione in modo completamente anonimo.