Nel non troppo, ma comunque lontano, 2015 un ingegnere del software aveva riferito a Google che l’algoritmo di riconoscimento delle immagini risultava “Razzista”. A quanto pare in Google Foto le persone di colore venivano classificate come “gorilla”. Google ha subito risposto di essere inorridita da tale errore e si è pubblicamente scusata per poi mettersi a cercare di sistemare.
Dopo 3 anni ancora niente per l’algoritmo
Immediatamente Google ha bloccato alcune categorie nell’algoritmo, questo per limitare il servizio ed evitare il rischio di altre classificazioni errate. Dopo 3 anni queste parole sono ancora bloccate. Wired ha fatto notare questa cosa dopo aver eseguito una serie di test sull’algoritmo di Google.
Hanno caricato decine di migliaia di immagini di vari primati per il servizio e il risultato è stato che quelle di babbuini, gibboni e uistitì venivano identificate in modo corretto, ma quelle dei gorilla e scimpazé non lo erano. La pubblicazione ha anche rilevato che Google aveva limitato il riconoscimento dell’IA in altre categorie razziali. La ricerca di “uomo nero” o “donna nera” veniva gestita mostrando immagini di persone in bianco e nero, ordinate in modo casuale in base al genere, ma non per razza.
Un portavoce di Google ha confermato a Wired che le categorie di immagini gorilla, scimpazé e scimmia sono rimaste bloccate su Google Foto dal 2015. La tecnologia di etichettatura delle immagini è ancora giovane e purtroppo non è neanche lontanamente vicina alla perfezione, infatti queste categorie sono disponibili sugli altri servizi di Google, tra cui l’API di Cloud Vision che vende ad altre società e Google Assistant.
Tutta la storia risulta strana considerando che Google è vista come precursore nel campo dell’IA commerciale. Il fatto che non sia stata in grado di risolvere la situazione è un duro colpo per l’immagine dell’azienda. Sottolinea il fatto che comunque è difficile addestrare i software.
Non si sa ancora quando le suddette categorie verranno ristabilite.