L’intelligenza artificiale è ormai presente in molti aspetti del nostro quotidiano, dagli assistenti intelligenti sui nostri smartphone a quelli domestici nelle nostre smart home. Sono usate, però, anche da alcuni reparti di polizia, mentre moltissimi algoritmi basati sul machine learning sono usati in campo medico per le diagnosi.
Queste nuove tecnologie dovrebbero essere realizzate in maniera imparziale, progettate con algoritmi meno inclini alla discriminazione degli individui e alle pressioni del business. Eppure non sempre è stato possibile, poiché le AI sono pur sempre costruite da esseri umani, e l’uso improprio di queste “menti digitali” è una deriva molto allettante.
Visti tutti i campi di applicazione, non si tiene mai in conto che uno sviluppatore non è obbligato al rispetto delle norme sulla privacy e sulla protezione dei dati quando progetta una nuova AI. Eppure sono i loro algoritmi a consentire agli assistenti intelligenti di rispondere in modo più accurato alle nostre domande, o ad aiutare i medici a migliorare l’analisi dei rischi per la salute.
Per questo c’è bisogno di bilanciare lo sviluppo tecnologico, il rispetto della normativa e quello dei diritti umani. E non bastano le leggi sulla privacy, poiché dal costante tracciamento GPS sul nostro smartphone, alla condivisione dei dati, passando per social network e data mining, siamo tutti inesorabilmente esposti.
Sappiamo troppo spesso che i nostri dati sono stati venduti in maniera poco etica dagli stessi gestori delle varie app e servizi sul web. Un primo giro di vite è stato applicato dal GDPR, estendo il nostro controllo sui dati che condividiamo. Tuttavia tali correttivi non sono sufficienti se non vengono però sensibilizzati gli sviluppatori di software in materia di discriminazione indiretta.
Tale si verifica “quando una determinata routine algoritmica, benché costruita in maniera neutrale, porta ad un trattamento sfavorevole di un individuo o di un gruppo di persone.”Purtroppo, i professionisti del marketing si concentrano solo sugli aspetti legali del mero rispetto delle leggi: norme che in genere non sono al passo delle nuove tecnologie come il riconoscimento facciale, la geolocalizzazione e l’intelligenza artificiale. I casi in cui l’etica e il profitto viaggiano in direzioni diametralmente opposte sono ancora moltissimi. Basti pensare alla manipolazione dei test delle emissioni di CO2 da parte delle case automobilistiche.
Per non parlare della migliorata potenza di analisi dei dati, la quale permette di estrapolare comportamenti dettagliati e correlazioni degli stili di vita degli utenti. Queste tecnologie possono rivelarsi socialmente utili, ma spesso vengono sfruttate solo per il settore marketing.
Per risolvere il problema dovremmo chiederci in prima persona se le nostre applicazioni AI siano progettate per rispettare l’autonomia e la dignità digitale dei soggetti evitando pregiudizi involontari ed usi imprevisti. L’uso della intelligenza artificiale ci sta facendo capire quanto sia importante riflettere in merito alle modalità con cui lo sviluppo di queste tecnologie si intreccia con il rispetto, quanto mai essenziale, delle norme sui diritti umani e della privacy.
Lo sviluppo di un’etica digitale costituisce una delle vere sfide presenti e future su cui tutti, dalle imprese, gli sviluppatori di software fino ai consumatori, dovranno confrontarsi.