La polizia americana ha cercato di attuare un esperimento che prevedeva l’uso dell’intelligenza artificiale per prevedere dove e quando si sarebbero svolti dei crimini. Questi tentativi sono stati denominati “polizia predittiva” e sono stati attuati dalla polizia di Plainfield. A quanto pare, le forze dell’ordine sembravano volo prendere spunto dalla nota storia di Philip K. Dick, “Minority Report“.
Nel New Jersey la polizia ha iniziato ad usare Geolitica, un software di polizia predittiva per attuare questo piano, peccato però che questo abbia avuto un successo inferiore all’1%. Il software prometteva di aiutare le forze dell’ordine a combattere il crimine, ma le cose non sono andate così.
Secondo un’indagine congiunta condotta di The Markup e Wired
, infatti, i tentativi portati avanti sono stati purtroppo al quanto fallimentari.I modelli predittivi, non solo si sono rivelati inefficaci, ma hanno anche scatenato una serie di questioni etiche. A tal proposito, infatti, sia le forze di polizia che l’intelligenza artificiale stessa sono state criticate ampiamente a causa delle loro tendenze discriminatorie e nello specifico razziste.
L’analisi effettuata ha preso in esame all’incirca 23.000 previsioni, effettuate tra febbraio e dicembre del 2018. Dalle recenti ricerche è emerso che meno di 100 di queste previsioni corrispondevano ad un crimine che poi effettivamente sono stati commessi negli anni a venire.
Inoltre, il capo del dipartimento di polizia della città di Plainfield ha ammesso che il software era raramente utilizzato e che i fondi spesi per mantenere il contratto con Geolitica potevano essere spesi meglio se inseriti in una serie di investimenti per i programmi comunitari.
Dunque, il software chiuderà entro la fine dell’anno, ma non è detto che questo corrisponda ad una chiusura definitiva con questo tipo di sperimentazione. Infatti, il team dietro questa è stato assorbito da un’altra azienda di software per riuscire ad applicare il software sempre in relazione alla legge.