Oggi, il gruppo di esperti del Mise presenterà al Ministero una prima bozza della strategia nazionale sull’intelligenza artificiale contenente principi etici, giuridici e indicazioni industriali per il Bel Paese per cercare di assicurare al tempo stesso un adeguato sviluppo dell’AI per le imprese e la tutela dei diritti dei cittadini.
Intelligenza Artificiale: tutelare i dati personali degli utenti non è sufficiente, servono regole ad hoc
Il Comitato dei ministri del Consiglio d’Europa ha di recente invitato gli Stati membri a pensare a nuove tutele specifiche che riescano a proteggere gli utenti dall’utilizzo dei dati da parte delle aziende, che è ormai in grado di predire i comportamenti degli individui, fino ad influenzarli o a portare a nuove discriminazioni. Secondo Francesco Pizzetti, giurista ed ex garante privacy italiano, non è più sufficiente tutelare i dati personali degli utenti: occorrono tutele ad hoc per i dati inferiti, ovvero quei dati che, tratti da altri dati, riescono a predire ed a influenzare i comportamenti, le conoscenze, le opinioni e le scelte delle persone.
“Il tutto si inquadra in un processo più ampio guidato dalle istituzioni europee. A gennaio c’è stata l’adozione delle prime linee guida internazionali su Intelligenza Artificiale e dati personali, la carta etica sull’uso dell’Intelligenza Artificiale nei sistemi giudiziari e a breve vedrà una raccomandazione su media ed Intelligenza Artificiale”, spiega Alessandro Mantelero, special rapporteur per AI del Consiglio d’Europa. In particolare, la dichiarazione offre almeno cinque indicazioni agli Stati:
- Rafforzare il controllo e la vigilanza del fenomeno;
- Considerare nuove forme di tutela dei dati che superino la semplice visione di protezione dei dati personali;
- Promuovere il discorso, anche a livello istituzionale, su questo problema;
- Adottare le giuste misure per garantire la tutela contro interferenze illegittime su diritti e libertà degli individui;
- Promuovere lo studio sul fenomeno di raccolta, analisi e sfruttamento dei dati inferiti.
L’obiettivo è quello di massimizzare i benefici ottenibili dalle persone dalle capacità predittive, evitando dunque la manipolazione. Per fare ciò, occorre agire su due piani: “da una parte servono regole di base adottate con leggi, convenzioni; dall’altra, invece, è necessario lasciare spazio alla co-regolamentazione, con linee guide, codici di condotta, strumenti di più facile aggiornamento e più flessibili, capaci di coinvolgere nel processo partecipativo i diversi stakeholders, cominciando dalle imprese di settore”, spiega Alessandro Mantelero.
Quella italiana, comunque, è una strategia ancora da definire: i diversi gruppi di lavoro degli esperti si riuniranno quest’oggi per discutere i punti principali delle proprie bozze e finalizzare una prima bozza comune.