Prima Pagina>Cronaca>Facebook: intelligenza artificiale al lavoro conto il terrorismo
Cronaca

Facebook: intelligenza artificiale al lavoro conto il terrorismo

Altro giro di vite sull’estremismo: la società di Menlo Park ha rimosso quasi 2 milioni di contenuti considerati terroristici nei primi tre mesi dell’anno. Circa il doppio rispetto al trimestre precedente

Per la precisione, si tratta di 1,9 milioni di contenuti “estremisti” collegati a Isis o Al-Qaeda. Un lavoro inziato a novembre 2017, di cui si conoscono i primi risultati. Il social di Menlo Park per raggiungere l’obiettivo ha assunto nuovi linguisti, accademici, ex membri delle forze dell’ordine e ex analisti dell’intelligence.

La nota di facebook specifica di aver eliminato gran parte dei contenuti, mentre una loro frazione sarebbe rimasta online ma accompagnata da un avviso, un bollino di avvertimento: non è stata sospesa solo perché era materiale condiviso a scopo informativo o per contrastare proprio l’estremismo.

Intelligenza umana e artificiale. L’annuncio arriva da un post sul sito di Menlo Park. “Il 99 per cento dei contenuti rimossi non è stato individuato attraverso segnalazioni esterne, ma coi meccanismi interni del social, ovvero con la sua tecnologia e il suo personale”.

Una puntualizzazione non casuale in tempi in cui il colosso guidato da Mark Zuckerberg è sotto la lente dei governi che stanno mettendo in discussione la sua capacità di autoregolarsi, sia sul fronte della protezione dei dati degli utenti sia su quello dell’abuso della piattaforma a fini di propaganda.

Cacciatori di immagini. Facebook ha dunque usato software automatizzati per riconoscere buona parte del materiale estremista, soprattutto immagini. Ma anche un team antiterrorismo di 200 persone, cresciute di 50 unità rispetto allo scorso giugno. Così, il tempo medio per rimuovere contenuti terroristici nuovi è stato inferiore a un minuto.

La parte più interessante della comunicazione di Facebook è però forse quella in cui, per la prima volta, chiarisce cosa intende per terrorismo: “Qualsiasi organizzazioni non governativa che è coinvolta in atti premeditati di violenza contro persone o la proprietà per intimidire civili, governi o organizzazioni internazionali al fine di raggiungere un obiettivo politico, religioso o ideologico”.

Il discrimine della violenza. Si tratterebbe di una definizione agnostica rispetto all’ideologia o al fine politico. Il punto è l’uso della violenza, spiega Facebook. Che aggiunge esempi specifici: estremisti religiosi, separatisti, suprematisti bianchi e militanti ambientalisti possono ricadere tutti nella categoria, se usano mezzi violenti per ottenere i loro scopi.

Facebook evidenzia anche come la sua politica antiterrorismo non si applichi ai governi, anche se eventuali contenuti violenti sponsorizzati dagli Stati saranno rimossi dalla piattaforma in quanto in aperta violazione delle policy del social network.

La società di Zuckerberg sta lavorando per eliminare i nuovi contenuti illegali ma anche tutto il vecchio materiale che potrebbe essere presente all’interno della piattaforma. Il social network sa benissimo che questi sforzi non basteranno per fermare del tutto il fenomeno del terrorismo online e proprio per questo continuerà a migliorare i suoi sistemi per fronteggiare nel migliore dei modi queste minacce.

Please follow and like us:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *