avvocatoinprimafila il metodo apf

Esperimento rivela punto debole dei sistemi di intelligenza artificiale

Uno studio rivela come la semplice introduzione visiva di un elemento decontestualizzato, possa letteralmente mandare in tilt l’intelligenza artificiale. Ciò evidenzia il livello di sofisticazione della visione umana

(Le Scienze)

Una “trappola” visiva ha rivelato un punto debole dei sistemi di intelligenza artificiale: di fronte a un elemento incongruo – l’improvvisa comparsa della figura di un elefante all’interno di un soggiorno – hanno smesso di identificare correttamente gli elementi dell’immagine da analizzare perché non sono capaci di tornare indietro e dare una seconda occhiata.

Uno a zero per il cervello umano. In un nuovo studio, gli esperti di computer science hanno scoperto che i sistemi d’intelligenza artificiale falliscono un test di visione che un bambino potrebbe superare con facilità.

“È uno studio intelligente e importante che ci ricorda che il deep learning non è così profondo”, ha coomentato Gary Marcus, neuroscienziato della New York University, che non era coinvolto nel lavoro.

Il risultato riguarda la visione artificiale, in cui i sistemi di intelligenza artificiale tentano di rilevare e categorizzare oggetti. Per esempio, trovare tutti i pedoni in una scena di strada, oppure distinguere un uccello da una bicicletta (che è un compito notoriamente difficile). La posta in gioco è alta: poiché ai computer sono demandati compiti critici come la sorveglianza automatica e la guida autonoma, desideriamo che la loro elaborazione visiva sia valida almeno quanto gli occhi umani che stanno sostituendo.

Non sarà facile. Il nuovo lavoro evidenzia il livello di sofisticazione della visione umana e quanto è ardua la sfida di costruire sistemi che lo imitano.

Nello studio, i ricercatori hanno presentato a un sistema di visione artificiale la scena di un soggiorno, che il sistema ha elaborato bene, identificando correttamente una sedia, una persona, i libri su una mensola. Poi i ricercatori hanno introdotto nella scena un oggetto anomalo: l’immagine di un elefante.
La presenza dell’elefante ha fatto sì che il sistema perdesse la bussola: improvvisamente, ha iniziato a chiamare “divano” una sedia  e l’elefante “sedia”, diventando completamente cieco agli altri oggetti visti in precedenza. [NdR: in inglese, l’espressione “the elephant in the room” indica un problema evidente ma che tutti fanno finta di non vedere. Lo studio, così come il titolo dell’articolo, giocano su questo doppio senso]

“Succedono un sacco di cose strane che sottolineano la fragilità degli attuali sistemi di rilevamento degli oggetti”, ha dichiarato Amir Rosenfeld, della York University di Toronto e coautore dello studio insieme al collega della York John Tsotsos e a Richard Zemel dell’Università di Toronto.

I ricercatori stanno ancora cercando di capire esattamente perché i sistemi di visione artificiale si confondano con tanta facilità, ma hanno una buona ipotesi. Riguarda una capacità umana che manca all’IA: quella di capire quando una scena è confusa e quindi tornare indietro per dare una seconda occhiata.

Exit mobile version