Numerosi esperti di Intelligenza Artificiale, data scientist, sociologi e storici hanno scritto una lettera per porre fine alla pubblicazione di ricerche che affermano che l’I.A. o il riconoscimento facciale possono identificare un criminale tramite semplici algoritmi.
La lettera, firmata da oltre 1000 esperti, sostiene che i dati dei tribunali e degli arresti riflettono talvolta politiche e pratiche distorte. Di conseguenza diventa vano l’intento di usare tali registri per costruire l’identikit di un criminale con l’aiuto dell’IA. Gli algoritmi generati da quest’insieme di dati fino ad ora raccolti darebbero origine solo ad un susseguirsi di indagini falsate.
Se si commette un errore nel decidere una sentenza o arrestare qualcuno è già difficile per un essere umano rimediare realmente a tale errore. Per l’Intelligenza Artificiale sarebbe ancor più complesso, poiché anche un minimo errore umano se registrato dall’IA porterà ad ulteriori falle nel sistema senza possibilità di tornare indietro.
Software con Intelligenza Artificiale: gli algoritmi ingannevoli per riconoscere un criminale dal volto
Inoltre, avere dei connotati piuttosto che altri non fa sì che un individuo sia a prescindere un criminale, non esiste un riconoscimento facciale del volto di un criminale perché non esiste il volto del criminale. Dunque è paradossale tentare di creare degli algoritmi con questo obiettivo. Questi dati non potrebbero mai essere “equi”. Soprattutto in quest’ultimo periodo in cui il movimento BlackLivesMatter si fa sentire più che mai in seguito alla morte di George Floyd, è ancor più importante impedire che strumenti simili finiscano nelle mani sbagliate. Munire la polizia di algoritmi in grado di “riconoscere un criminale” rappresenterebbe un passo significativo verso la legittimazione e l’applicazione di pratiche potenzialmente dannose.
La lettera fa riferimento in particolare a una pubblicazione chiamata “Un modello di rete neurale profonda per prevedere la criminalità usando l’elaborazione delle immagini”. I ricercatori hanno affermato in un comunicato stampa che il sistema era “in grado di prevedere se qualcuno è un potenziale criminale. E con una precisione dell’80% e nessun pregiudizio razziale”. Il software è stato rimosso.