Amazon Rekognition utilizza un software di intelligenza artificiale per identificare le persone dalla loro struttura facciale. Tra gli utenti che ne fanno uso per fini investigativi sono inclusi forze dell’ordine e agenzie governative statunitensi come Immigration and Custome Enforcement (ICE). Dunque tra le immagini ci sono svariate foto di criminali.
Non è la prima volta che l’accuratezza del software è messa in discussione. Nel luglio 2018, l’American Civil Liberties Union (ACLU) ha riscontrato 28 abbinamento errati tra membri del Congresso degli USA e foto di persone arrestate. La società di ricerca e comparazione tecnologica Comparitech si è basata sullo studio dell’ACLU aggiungendo politici britannici, scoprendo 105 falsi positivi dalle 1.959 immagini testate. Rekognition ha abbinato una media di 32 politici a foto segnaletiche, se impostato su un livello di attendibilità dell’80%. Trattasi dell’impostazione predefinita utilizzata nello studio ACLU.
“In base a tali standard, il riconoscimento facciale di Amazon non è migliorato e persino peggiorato rispetto a due anni fa”, dichiara Comparitech in un post sul blog. “Sia che tu sia d’accordo con l’uso della polizia del riconoscimento facciale o meno, una cosa è certa. Non è pronto per essere utilizzato per l’identificazione senza supervisione umana.”
In seguito Amazon ha affermato che il livello di ricerca del software dovrebbe essere impostato al 95%, anziché all’80%. “La soglia dell’80% utilizzata dall’ACLU è troppo bassa per garantire un’identificazione accurata”, ha scritto Matt Wood, vicepresidente del comparto che si occupa dell’IA di Amazon Web Service.