Genere e razza sono caratteristiche umane che possono mandare in tilt i software responsabili del riconoscimento facciale (e la colpa è nostra).
Il riconoscimento facciale è sempre più presente nelle nostre vite: molti di noi lo utilizzano più volte al giorno per sbloccare lo schermo dello smartphone, mentre le grandi aziende ne fanno uso per identificare persone specifiche in mezzo a grandi folle, analizzarne le emozioni e individuarne il genere (per poi, spesso, provare a vender loro qualcosa).
Nonostante i progressi degli ultimi anni, gli algoritmi di apprendimento automatico non sono ancora precisi e, come spiega un articolo pubblicato sulla versione spagnola di The Conversation, possono per esempio discriminare per genere e razza o avere difficoltà a riconoscere persone transessuali.
INTELLIGENZA ARTIFICIALE E RAZZISTA. Gli algoritmi del machine learning seguono dei modelli di valutazione e/o interpretazione costruiti grazie all’elaborazione di grandi quantità di dati (per esempio, immagini). Per questo è fondamentale addestrare le macchine con dati il più possibile rappresentativi di ogni sfumatura umana: quando questo non accade, e si escludono determinate categorie di persone, l’IA restituisce risultati poco precisi, specchio delle inesattezze da noi commesse.
Un esempio di quanto una raccolta dati non rappresentativa dell’intera realtà possa influenzare negativamente il funzionamento di un prodotto ci arriva direttamente dal secolo scorso: tra il 1940 e il 1990 Kodak e Polaroid utilizzarono solamente modelli bianchi per calibrare i propri prodotti, con conseguenti problemi di luce e contrasto nella resa in video di soggetti di pelle scura.
NIENTE DI NUOVO. Nonostante gli illustri esempi di Kodak e Polaroid, sembra che gli attuali colossi tecnologici non abbiano imparato nulla dagli errori del passato: un recente studio di Gender Shades ha rivelato una falla nel sistema di classificazione commerciale di Microsoft, IBM e Face++, scoprendo che le donne con la pelle più scura erano soggette a un maggior numero di errori di classificazione rispetto al resto delle persone. Anche la popolarissima piattaforma di comunicazione Zoom è caduta nella trappola della discriminazione: diversi utenti neri hanno denunciato che, attivando lo sfondo virtuale, il loro volto non veniva riconosciuto e spariva dallo schermo.
UOMO, DONNA O…? Ciò che manda completamente in tilt gli algoritmi di riconoscimento facciale, non addestrati a dovere dai “padroni” umani, è il dover riconoscere persone senza una sessualità definita, come i transessuali (specie nel periodo della transizione) o gli individui con identità non binaria – ossia che non corrispondono strettamente e completamente al genere maschile o al genere femminile.
Uno studio ha analizzato quattro servizi commerciali di riconoscimento facciale (Amazon Rekognition, Clarifai, IBM Watson Visual Recognition e Microsoft Azure) e calcolato la precisione dei risultati di classificazione di genere di 2.450 immagini. Se per uomini e donne la percentuale di accuratezza si avvicinava al 100%, per donne e uomini trans scendeva rispettivamente all’87% e al 70%, per poi crollare allo 0% nel caso di persone asessuali, genderqueer o non binarie.
La conclusione è che per quanto sia utile sottolineare gli errori di programmazione più comuni che affliggono i sistemi di intelligenza artificiale, soprattutto per cercare di migliorarne la precisione ed evitare discriminazioni di genere e razza, è importante avere sempre ben chiare le innumerevoli difficoltà del programmare una macchina a riconoscere la diversità rispetto al pensiero standard dei suoi progettisti.
Chiara Guzzonato, Focus.it