CREDITHUSEYIN KULAOGLU / ANADOLU AGENCY
Una donna della minoranza degli Uiguri protesta contro le politiche cinesi sulla popolazione
La Cina sta utilizzando il riconoscimento facciale per sorvegliare uno specifico gruppo etnico, la minoranza degli Uiguri. Lo rivela un’inchiesta del New York Times. Né la tecnologia né la possibilità di usarla nei sistemi di sorveglianza sono una novità. Ma se in occidente il controllo su base etnica è stato indicato come un effetto collaterale, in Cina è un obiettivo dichiarato.
Le fonti del giornale statunitense spiegano che, in alcune aree, vengono effettuate 500.000 scansioni del viso al mese. “Se in un quartiere dove vive di solito un uiguro ne vengono rilevati sei, scatta immediatamente un allarme”. Si tratta del primo esempio noto di un governo che usa di proposito l’intelligenza artificiale per profilare la popolazione in base all’etnia.
Il sistema intercetta i volti degli uiguri e ne traccia i movimenti in città come Hangzhou, Wenzhou e Sanmenxia. A partire dal 2018, “quasi due dozzine di dipartimenti di polizia, in 16 diverse province” hanno richiesto l’utilizzo del riconoscimento facciale. Le autorità che lo utilizzano parlano apertamente di “identificazione delle minoranze”. Anche se, secondo i testimoni del Nyt, dietro questa espressione si nasconderebbe esclusivamente la sorveglianza degli uiguri.
Per far funzionare gli algoritmi, l’intelligenza artificiale viene nutrita con gli archivi di pregiudicati e di chi ha fatto uso di sostanze stupefacenti. Dietro la fornitura del riconoscimento facciale ci sono alcune startup cinesi, come Yitu, Megvii, SenseTime e CloudWalk, che valgono oltre un miliardo di dollari ciascuna.
Il loro valore è aumentato grazie alle politiche di Pechino (dopo i programmi di investimento nel settore) e al supporto di alcuni grandi investitori occidentali. Fidelity International e Qualcomm Ventures hanno puntato su SenseTime e Sequoia su Yitu. Lo sviluppo del riconoscimento facciale non è certo un’esclusiva cinese. Amazon, tra le altre, sta esplorando la stessa strada con il servizio Rekognition.
Il sistema, sperimento sul campo negli Stati Uniti, è stato però molto discusso per le possibili derive sul controllo etnico, per la sua fallibilità (troppi, ancora, i “falsi positivi”) e per alcune distorsioni (è meno efficace sui volti di donne e persone di colore). Amazon e altre società hanno però sottolineato l’efficacia per la sicurezza pubblica, negando un utilizzo su base razziale. Quello che negli Stati Uniti e in Europa è un timore, in Cina è una realtà.
Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it.
Se invece volete rivelare informazioni su questa o altre storie, potete scriverci su Italialeaks, piattaforma progettata per contattare la nostra redazione in modo completamente anonimo.