Tecnica e materiali

I punti deboli dell'intelligenza artificiale

Non si potrebbe mai scambiare questa Ferrari per un cavallo, vero? Immagine: CanStockPhoto

L'intelligenza artificiale è tutt'altro che onnisciente o priva di errori. E le sue decisioni non sono necessariamente trasparenti.

Se un cavallo diventa la Ferrari

Se osservi la foto di un cavallo e quello di una Ferrari, riconosci le due immagini in una frazione di secondo. Un’IA invece può sì identificare correttamente entrambe le figure, ma non è in grado di capire realmente cosa è cosa. Lo dimostra uno studio che ha analizzato il processo di apprendimento di diversi sistemi di IA, da cui emerge che l’IA ha tratto le sue conclusioni basandosi in parte su presunzioni errate. I cavalli venivano identificati in quanto tali solo se era presente la citazione della fonte. Per contro, l’IA ha identificato la Ferrari come un cavallo non appena nell’immagine è stata inserita l’indicazione della fonte.

Questo esempio sottolinea soprattutto due punti deboli dell’IA:

Black box dell’IA

Le reti neurali del deep learning sono strutturate in modo che nel corso del processo di apprendimento determinati collegamenti di informazioni abbiano un peso maggiore rispetto ad altri. Questa procedura non è necessariamente plausibile per l’utente, cosicché non è possibile ricostruire il processo decisionale dell’IA. Un impiegato di banca ad esempio deve poter motivare in maniera soddisfacente perché in base a un algoritmo un cliente non viene ritenuto meritevole di credito. L’«intelligenza artificiale spiegabile» (explainable AI), attualmente oggetto di ricerca, deve rendere visibili i criteri alla base delle decisioni dei sistemi di IA.

Garbage in – Garbage out

L’IA è efficace nella misura in cui lo sono i dati che riceve. Se i dati sono errati o non sono ben bilanciati, l’algoritmo indotto in errore può trarre le conclusioni sbagliate o arrivare a risultati sistematicamente distorti. Magari non è poi così grave se una banca dati visualizza una Ferrari invece di un cavallo. Ma se un’auto a guida autonoma non interpreta correttamente un segnale stradale a causa di un graffito, le conseguenze possono essere tragiche. Alcuni studi dimostrano anche quanto possano essere discriminanti i dati. Le persone con un passato di migrazione sono classificate come meno meritevoli di credito o sono più spesso sospettate dai computer della polizia. Va detto tuttavia che l’IA stessa può contribuire a identificare tali alterazioni.

Fonte: Technoscope 3/20: I punti deboli dell'intelligenza artificiale. Technoscope è la rivista tecnica della SATW rivolta ai giovani.

Nota: il primo paragrafo di questo articolo è un po' diverso dell'articolo pubblicato sull'edizione stampata del Technoscope. Lì si è parlato inavvertitamente dello stemma della Ferrari invece che della macchina stessa. Potete trovare lo studio qui: https://www.nature.com/articles/s41467-019-08987-4

Creato: 16.09.2020
Di più