L’AI Act, il negoziato per la tecnologia l’utilizzo delle IA, mostra una nuova visione in cui si dà spazio al suo alto impatto. In questo sono infatti specificate delle regole contenenti i modi in cui distinguere i modelli fondativi. L’obiettivo è quello di ideare due corsie differenti riguardanti gli obblighi che le società devono rispettare.
Da un lato ci sono le IA altamente impattanti, per il quale c’è bisogno di un’applicazione precedente delle regole sulla sicurezza informatica, la condivisione dell’intera documentazione prima che il prodotto arrivi sul mercato e ovviamente la totale trasparenza dell’applicazione dei processi d’addestramento. Invece dall’altro lato vi sono i Foundational models, le cui leggi previste intercorrono nel momento in cui le creazioni vengono commercializzate.
Questa strategia mette d’accordo sia il consiglio rappresentante 27 paesi dell’Unione Europea e il Parlamento. La base è un’evidente ripresa del Digital Services Act che rappresenta uno dei pacchetti più usati all’interno della produzione digitale. IL DSA riguarda le piattaforme online più importanti e i motori di ricerca, conosciuti nel gergo come Vlop e Vlose.
Entrambi devono seguire le regole sulla loro attività ancor prima degli operatori. La medesima procedura può essere effettuata anche dagli sviluppatori delle intelligenze artificiali. In questo modo si verranno ad imporre delle verifiche condotte da Tim esterni per controllare la conformità e diminuire qualsiasi rischio
.Se l’intento del patto sulle intelligenze artificiali è quello di intervenire direttamente sui prodotti, come ad esempio ChaGPT, la nuova proposta cerca di far ritorno alle precedenti fondational models non sono però ad essere interessate soltanto le grandi aziende conosciute del settore come ad esempio OpenAI, Meta, ma anche piccole startup come Stability AI e Anthropic. La commissione cerca disbrigare l’utilizzo degli strumenti biometrici utili per il controllo e la sorveglianza. Pur di arrivare ad un accordo prima che la legislatura scada la prossima primavera, il governo spagnolo è disposto ad accettare il compromesso senza troppe remore.
Quello che potrebbe fare la differenza in realtà è il modo in cui i grandi del settore prenderanno le proprie decisioni. È possibile anche che il blocco non abbia successo per tale ragione. Sia la Microsoft che Google hanno già troppi “impegni” e cavilli da risolvere riguardanti regole precedenti, non serviva di certo un altro fermo di cui preoccuparsi. Fortunatamente nonostante queste intenzioni governative, le aziende prima citate, a dimostrazione del loro interesse, hanno stanziato in fondo di 10 milioni di dollari al fine di finanziare le università, i ricercatori ed i centri di studio per permettere loro di effettuare delle analisi specifiche sulla sicurezza dell’intelligenza artificiale.