Addestrata con foto di persone morenti, ha permesso ai ricercatori del Mit Media Lab di dimostrare che “quando le persone parlano di algoritmi ‘razzisti’ o ‘scorretti’ il problema non è nell’algoritmo in sé, ma nei dati usati”
Boston – Come poteva chiamarsi una IA artificiale se non come l’intramontabile protagonista di Psycho Norman Bates? La prima intelligenza artificiale ufficialmente psicopatica è stata creata con tanto di sito dedicato, dagli esperti del Mit di Boston, per verificare quanto i dati con cui si addestra l’intelligenza influiscono sul risultato finale.
L’algoritmo che ha dato vita a Norman riesce a osservare una foto e capirne il contenuto dopo aver costruito un database da immagini precedenti. I ricercatori del Mit Media Lab lo hanno allenato con delle immagini di persone morenti prelevate da una sottodirectory del sito Reddit. Al contempo, un’altra intelligenza artificiale è stata addestrata con foto normali di animali e persone.
Entrambe sono state poi sottoposte al famoso test di Rorschach, noto test psicologico proiettivo utilizzato per l’indagine della personalità. In particolare, fornisce dati utili per quanto riguarda il funzionamento del pensiero, l’esame di realtà, il disagio affettivo e la capacità di rappresentazione corretta di sé e degli altri nelle relazioni. in cui viene chiesto di interpretare delle macchie di inchiostro indistinte per valutare la personalità.
L’utilizzo dell’interpretazione di “disegni ambigui” per valutare la personalità di un individuo è un’idea che risale a Leonardo da Vinci e Botticelli. L’interpretazione di macchie di inchiostro, inoltre, era parte integrante di un gioco del tardo diciannovesimo secolo.
Ma torniamo all’esperimento del Mit, a Psycho Norman e all’altra IA: le differenze tra le interpretazioni delle due intelligenze artificiali sono risultate evidenti. La macchia che l’intelligenza ‘normale’ interpretava come ‘un gruppo di uccellini su un ramo’ per Norman era ‘un uomo che subiva una scarica elettrica’. Un ‘vaso di fiori’ diventava ‘un uomo a cui hanno sparato a morte’. Un ‘guanto da baseball’ è stato interpretato come ‘un uomo ucciso da una mitragliatrice’.
“Norman nasce dal fatto che i dati che vengono usati per addestrare un algoritmo influenzano significativamente il comportamento – scrivono gli ideatori sul sito – quindi, quando le persone parlano di algoritmi ‘razzisti’ o ‘scorretti’ il problema non è nell’algoritmo in sé, ma nei dati usati“.