I governi e le società private stanno implementando sempre di più sistemi di IA. I consumatori, però, non hanno gli strumenti adatti per ritenere questi sistemi responsabili quando falliscono. Questa è una delle principali conclusioni in un rapporto pubblicato da AI Now. Il gruppo di ricerca ospita dipendenti di aziende tecnologiche come Microsoft e Google, affiliati alla New York University.
Il rapporto esamina le sfide sociali dell’IA e dei sistemi algoritmici. Nello specifico parliamo di quello che i ricercatori chiamano “the accountability gap” (il divario di responbilità). Hanno avanzato dieci raccomandazioni, tra cui la richiesta di una regolamentazione governativa del riconoscimento facciale e leggi sulla “verità nella pubblicità” per i prodotti AI. In questo modo, le aziende non potranno puntare esclusivamente alla reputazione del prodotto per vendere i loro servizi.
Le grandi aziende tecnologiche si sono ritrovate in una “corsa all’oro dell’IA”. Abbiamo infatti assistito all’introduzione dell’intelligenza artificiale in una vasta gamma di mercati, dall’intrattenimento all’assistenza sanitaria
. Meredith Whittaker, co-fondatrice di AI Now e leader del gruppo di ricerca di Google, afferma che molte delle affermazioni sui benefici e su l’utilità dell’IA non sono supportate da prove scientifiche pubblicamente accessibili.Un’altro settore in cui è necessario agire immediatamente è l’uso del riconoscimento facciale. Questa tecnologia è sempre più utilizzata dalle forze di polizia in Cina, negli Stati Uniti e in Europa. Il software di rekognition di Amazon, ad esempio, è stato distribuito dalla polizia a Orlando e nella contea di Washington.
L’ addove le aziende affermano che la tecnologia può scannerizzare il volto di qualcuno e leggere il proprio carattere – o persino il proprio intento – gli autori di AI Now affermano che le aziende spesso vendono pseudoscienza.