Recentemente Microsoft ha espressamente vietato ai dipartimenti di polizia degli Stati Uniti di usufruire dell’intelligenza artificiale generativa per il sistema di riconoscimento facciale che avviene utilizzando Azure OpenAI Service. Suddetto servizio rappresenta un’implementazione gestita e orientata dall’azienda di OpenAI ed ha assistito all’aggiunta di alcune restrizioni riguardo i propri termini di servizio.
Tra queste restrizioni troviamo anche il divieto esplicito per la polizia di utilizzare questo sistema per il riconoscimento facciale. Questo vale sia per i modelli di analisi attuali che per quelli futuri.
Microsoft vieta l’intelligenza artificiale alla polizia
I cambiamenti proposti arrivano successivamente all’annuncio di Axon, produttore di tecnologie e armi riservate alle forze dell’ordine, relativo ad un nuovo dispositivo che frutta GPT–4 di OpenAI per riassumere gli audio registrati dalle telecamere. L’annuncio ha causato una serie di preoccupazioni riguardo quelli che potrebbero essere i potenziali rischi scaturiti da questo sistema. Tra questi troviamo le allucinazioni generate dai modelli AI ed anche i pregiudizi razziali che possono essere introdotti dai dati di addestramento.
Anche se con gli aggiornamenti sono arrivate una serie di restrizioni, la politica di Microsoft permette ugualmente alcune interpretazioni flessibili. Nello specifico, il divieto di utilizzare Azure OpenAI Service viene applicato solo alla polizia degli Stati Uniti. Inoltre, non riguarda il riconoscimento facciale che viene eseguito con le telecamere fisse e in ambienti controllati. Inoltre, Microsoft ha dichiarato che il divieto imposto verrà applicato solo al riconoscimento facciale negli Stati Uniti. Dunque, non rappresenta un divieto totale sull’uso di questo sistema da parte di tutti i dipartimenti di polizia. Considerando queste premesse è probabile che l’azienda sia aperta a future discussioni per stabilire nuovi accordi su questo tema.
Suddetto approccio è in linea con la strategia più recente di Microsoft in relazione al suo partner OpenAI, nei confronti dei contratti con la polizia così come con tutti gli enti di difesa che sono in qualche modo correlati all’intelligenza artificiale.