Il Regolamento Europeo sull’Intelligenza Artificiale ha finalmente raggiunto la sua fase conclusiva nel percorso legislativo, introducendo una regolamentazione specifica per i cosiddetti “foundation model“, ora definiti “General Purpose AI Model” (GPAI), cioè i modelli di intelligenza artificiale generativa. Questi modelli, essenziali per lo sviluppo di una vasta gamma di sistemi AI, saranno soggetti a obblighi di trasparenza e valutazione del rischio, con una distinzione tra modelli generici e sistemici.
Con il voto avvenuto il 2 febbraio 2024 al Coreper, il cammino legislativo del Regolamento Europeo sull’Intelligenza Artificiale (noto anche come “AI Act“) è praticamente giunto al termine. Sebbene alcuni passaggi importanti debbano ancora essere completati, il voto favorevole degli Stati membri ha dissipato l’incertezza riguardo alla possibilità di ulteriori modifiche al testo.
Inizialmente, vi era una certa incertezza sul destino del testo a causa delle divergenze emerse durante le negoziazioni. Queste riguardavano, in particolare, Francia e Germania che avrebbero preferito una regolamentazione più leggera per i “foundation model” rispetto a quanto stabilito nel compromesso. Con l’approvazione all’unanimità dell’AI Act, si è però dissipata tale incertezza. Aprendo così la strada a una possibile ratifica positiva da parte del Parlamento europeo senza ulteriori modifiche.
Le basi dell’AI Act
Il Regolamento si concentra principalmente sulla regolamentazione dei “General Purpose AI Model” (modelli GPAI), definiti come modelli di intelligenza artificiale che dimostrano una significativa generalità e sono in grado di eseguire una vasta gamma di compiti distinti. Questi modelli sono stati al centro di un acceso dibattito a causa della loro crescente popolarità e dei potenziali rischi e benefici associati al loro utilizzo.
Il Regolamento prevede due categorie di modelli GPAI: i modelli generici e quelli sistemici. Mentre i primi sono soggetti principalmente a obblighi di trasparenza e documentazione tecnica, i modelli sistemici sono soggetti a una regolamentazione più rigorosa a causa dei potenziali rischi sistemici che possono rappresentare a livello europeo.
Inoltre, il Regolamento prevede l’elaborazione di “codes of practice” da parte delle imprese del settore, al fine di dimostrare il rispetto degli obblighi previsti. Sebbene l’approvazione formale di tali codici non sia obbligatoria, il sostegno dell’AI Office è essenziale per garantire la conformità alle disposizioni del Regolamento.
Il Regolamento Europeo sull’Intelligenza Artificiale rappresenta un importante passo avanti nella regolamentazione dei modelli di intelligenza artificiale, ma solleva anche diverse questioni e sfide, soprattutto per quanto riguarda l’applicazione pratica e l’individuazione dei modelli a rischio sistemico.