I governi e le società private stanno implementando sempre di più sistemi di IA. I consumatori, però, non hanno gli strumenti adatti per ritenere questi sistemi responsabili quando falliscono. Questa è una delle principali conclusioni in un rapporto pubblicato da AI Now. Il gruppo di ricerca ospita dipendenti di aziende tecnologiche come Microsoft e Google, affiliati alla New York University.
Il rapporto esamina le sfide sociali dell’IA e dei sistemi algoritmici. Nello specifico parliamo di quello che i ricercatori chiamano “the accountability gap” (il divario di responbilità). Hanno avanzato dieci raccomandazioni, tra cui la richiesta di una regolamentazione governativa del riconoscimento facciale e leggi sulla “verità nella pubblicità” per i prodotti AI. In questo modo, le aziende non potranno puntare esclusivamente alla reputazione del prodotto per vendere i loro servizi.
Molti governi hanno già adottato strumenti di IA
Le grandi aziende tecnologiche si sono ritrovate in una “corsa all’oro dell’IA”. Abbiamo infatti assistito all’introduzione dell’intelligenza artificiale in una vasta gamma di mercati, dall’intrattenimento all’assistenza sanitaria. Meredith Whittaker, co-fondatrice di AI Now e leader del gruppo di ricerca di Google, afferma che molte delle affermazioni sui benefici e su l’utilità dell’IA non sono supportate da prove scientifiche pubblicamente accessibili.
Un’altro settore in cui è necessario agire immediatamente è l’uso del riconoscimento facciale. Questa tecnologia è sempre più utilizzata dalle forze di polizia in Cina, negli Stati Uniti e in Europa. Il software di rekognition di Amazon, ad esempio, è stato distribuito dalla polizia a Orlando e nella contea di Washington.
L’ addove le aziende affermano che la tecnologia può scannerizzare il volto di qualcuno e leggere il proprio carattere – o persino il proprio intento – gli autori di AI Now affermano che le aziende spesso vendono pseudoscienza.