L’ordine esecutivo emesso dal presidente degli Stati Uniti, Joe Biden, rappresenta un’azione decisiva nel campo dell’intelligenza artificiale (IA), delineando un quadro normativo che mira a posizionare gli Stati Uniti come pionieri nella governance globale dell’IA. Questo provvedimento si propone di affrontare le sfide e i rischi associati all’IA, inclusi quelli legati alla creazione di deepfake, alla perdita di posti di lavoro e alle minacce esistenziali che potrebbero emergere dall’uso improprio di tali tecnologie.
Intelligenza Artificiale: gli ambiti strategici
Il piano delineato nell’ordine esecutivo si articola in otto ambiti strategici, ciascuno dei quali è volto a garantire che lo sviluppo e l’impiego dell’IA siano sicuri, equi e rispettosi dei diritti fondamentali. Le aree di intervento includono:
- La definizione di norme di sicurezza per garantire che i sistemi di IA siano affidabili e non comportino rischi per gli utenti o per la società.
- La protezione della privacy degli individui, assicurando che i dati personali non siano utilizzati in modo improprio.
- La promozione dell’equità e la tutela dei diritti civili, per prevenire discriminazioni e bias nei sistemi di IA.
- La salvaguardia dei diritti dei consumatori, con particolare attenzione alla trasparenza e all’accountability delle aziende che operano nel settore dell’IA.
- La considerazione dell’impatto dell’IA sul lavoro, con l’obiettivo di minimizzare la perdita di posti di lavoro e promuovere una transizione equa per i lavoratori.
- Il sostegno all’innovazione e alla concorrenza, per mantenere un mercato dinamico e stimolare la ricerca e lo sviluppo.
- L’affermazione della leadership internazionale, attraverso la collaborazione con altri paesi e organizzazioni internazionali per definire standard globali.
- La definizione di una governance dell’IA, con la creazione di un quadro di riferimento per la regolamentazione e il monitoraggio dei sistemi di IA.
Una delle iniziative più rilevanti è l’introduzione di linee guida per la marcatura dei contenuti generati dall’IA, al fine di mitigare i rischi associati ai deepfake. Inoltre, si richiede alle aziende che sviluppano IA di validare la sicurezza dei loro modelli prima del rilascio sul mercato.