La lettera, firmata da oltre 1000 esperti, sostiene che i dati dei tribunali e degli arresti riflettono talvolta politiche e pratiche distorte. Di conseguenza diventa vano l’intento di usare tali registri per costruire l’identikit di un criminale con l’aiuto dell’IA. Gli algoritmi generati da quest’insieme di dati fino ad ora raccolti darebbero origine solo ad un susseguirsi di indagini falsate.
Se si commette un errore nel decidere una sentenza o arrestare qualcuno è già difficile per un essere umano rimediare realmente a tale errore. Per l’Intelligenza Artificiale sarebbe ancor più complesso, poiché anche un minimo errore umano se registrato dall’IA porterà ad ulteriori falle nel sistema senza possibilità di tornare indietro.
Inoltre, avere dei connotati piuttosto che altri non fa sì che un individuo sia a prescindere un criminale, non esiste un riconoscimento facciale del volto di un criminale
perché non esiste il volto del criminale. Dunque è paradossale tentare di creare degli algoritmi con questo obiettivo. Questi dati non potrebbero mai essere “equi”. Soprattutto in quest’ultimo periodo in cui il movimento BlackLivesMatter si fa sentire più che mai in seguito alla morte di George Floyd, è ancor più importante impedire che strumenti simili finiscano nelle mani sbagliate. Munire la polizia di algoritmi in grado di “riconoscere un criminale” rappresenterebbe un passo significativo verso la legittimazione e l’applicazione di pratiche potenzialmente dannose.La lettera fa riferimento in particolare a una pubblicazione chiamata “Un modello di rete neurale profonda per prevedere la criminalità usando l’elaborazione delle immagini”. I ricercatori hanno affermato in un comunicato stampa che il sistema era “in grado di prevedere se qualcuno è un potenziale criminale. E con una precisione dell’80% e nessun pregiudizio razziale”. Il software è stato rimosso.