Dopo il ripensamento da parte di Apple, la Electronic Frontier Foundation (Eff), l’organizzazione internazionale no profit che tutela i diritti digitali, chiede al colosso di Cupertino di abbandonare definitivamente il lancio dello strumento anti pedopornografia che scansiona le immagini caricate sugli iPhone. Con una dichiarazione, il gruppo si è detto soddisfatto che Apple abbia ascoltato le preoccupazioni sul pericolo che strumenti di scansione degli smartphone possano aprire la porta a violazioni più ampie, ma adesso chiede di più.
“Bisogna andare oltre il semplice ascolto e abbandonare completamente i piani che prevedono di inserire una backdoor nella crittografia”, spiega la Eff in una nota.
Ad oggi, sono arrivate circa 90 segnalazioni da parte di altrettante organizzazioni in tutto il mondo, che hanno invitato l’azienda a non implementare le funzionalità per il rilevamento automatico di CSAM, acronimo di Child Sexual Abuse Material. Secondo tali organizzazioni, il mix di intelligenza artificiale e intervento umano potrebbe portare a operazioni di violazione della privacy, censura e ulteriori problemi di sicurezza. Apple aveva annunciato i primi di agosto che stava mettendo a punto un metodo per contrastare la pedopornografia, spiegando che è basato su codici cifrati e non mette a rischio la privacy.
L’azienda il 3 settembre scorso ha poi deciso di ritardarne l’attuazione “sulla base del feedback di clienti, gruppi di difesa e ricercatori” per “raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità”.
Fonte Ansa.it