La tecnologia del riconoscimento facciale ideata da Amazon ha erroneamente abbinato più di 100 foto di politici nel Regno Unito e negli USA alle foto segnaletiche della polizia.
Amazon Rekognition utilizza un software di intelligenza artificiale per identificare le persone dalla loro struttura facciale. Tra gli utenti che ne fanno uso per fini investigativi sono inclusi forze dell’ordine e agenzie governative statunitensi come Immigration and Custome Enforcement (ICE). Dunque tra le immagini ci sono svariate foto di criminali.
Amazon Rekognition, il sistema di riconoscimento facciale dell’azienda, fallisce i test ancora una volta
Non è la prima volta che l’accuratezza del software è messa in discussione. Nel luglio 2018, l’American Civil Liberties Union (ACLU) ha riscontrato 28 abbinamento errati tra membri del Congresso degli USA e foto di persone arrestate. La società di ricerca e comparazione tecnologica Comparitech si è basata sullo studio dell’ACLU aggiungendo politici britannici, scoprendo 105 falsi positivi dalle 1.959 immagini testate. Rekognition ha abbinato una media di 32 politici a foto segnaletiche, se impostato su un livello di attendibilità dell’80%. Trattasi dell’impostazione predefinita utilizzata nello studio ACLU.
“In base a tali standard, il riconoscimento facciale di Amazon non è migliorato e persino peggiorato rispetto a due anni fa”, dichiara Comparitech in un post sul blog. “Sia che tu sia d’accordo con l’uso della polizia del riconoscimento facciale o meno, una cosa è certa. Non è pronto per essere utilizzato per l’identificazione senza supervisione umana.”
In seguito Amazon ha affermato che il livello di ricerca del software dovrebbe essere impostato al 95%, anziché all’80%. “La soglia dell’80% utilizzata dall’ACLU è troppo bassa per garantire un’identificazione accurata”, ha scritto Matt Wood, vicepresidente del comparto che si occupa dell’IA di Amazon Web Service.