News

AI Act: freno all’uso dell’intelligenza artificiale per contenere i rischi

AI Act: freno all’uso dell’intelligenza artificiale per contenere i rischiAI Act: freno all’uso dell’intelligenza artificiale per contenere i rischi

L’AI Act è entrato in vigore segnando un nuovo inizio per la regolamentazione dell’intelligenza artificiale in Europa. I sistemi considerati a “rischio inaccettabile” sono ora vietati. Perché? Per evitare potenziali danni ai diritti fondamentali e alla sicurezza dei cittadini. Un esempio evidente riguarda l’uso di sistemi biometrico in tempo reale negli spazi pubblici, una misura che punta a fermare la sorveglianza di massa. Come può la privacy essere tutelata in un contesto così avanzato tecnologicamente? La risposta, secondo il nuovo regolamento, è un divieto categorico per tali tecnologie, salvo eccezioni legate alle forze dell’ordine.

In effetti, è difficile non chiedersi se tali deroghe non aprano la strada ad usi abusivi della sorveglianza. È un rischio che si dovrebbe affrontare con molta cautela. L’AI Act, che suddivide i sistemi in base al loro livello di rischio, cerca di proteggere i cittadini. Serve a prevenire pratiche dannose possibili con l’uso dell’intelligenza artificiale come il social scoring o l’analisi delle emozioni. Il regolamento vieta anche pratiche ingannevoli, come il tentativo di manipolare i comportamenti umani senza che le persone ne siano consapevoli. Ma quale sarà l’impatto di questa regolamentazione? Lo vedremo.

Sanzioni per chi usa impropriamente l’intelligenza artificiale?

Le nuove disposizioni sull’intelligenza artificiale, però, non sono prive di controversie. Se da un lato c’è un impegno per la protezione della privacy, dall’altro si sollevano dubbi sulle eccezioni previste per le forze dell’ordine. Ma è davvero possibile garantire che questi strumenti non vengano utilizzati per altri scopi? Le organizzazioni per i diritti umani temono che, senza una regolamentazione chiara, queste deroghe possano divenire negative. Credono che queste possano trasformarsi in una porta aperta alla sorveglianza indiscriminata dell’intelligenza artificiale. Un rischio da non sottovalutare, considerando l’enorme quantità di dati in circolo.

Il regolamento prevede anche sanzioni molto elevate per chi non rispetta le normative. Le aziende, da quelle più grandi a PMI e start-up, saranno sanzionate con multe proporzionate al fatturato. Come conciliare però innovazione e conformità? Le soluzioni potrebbero arrivare dai sandbox. Cosa sono? Spazi di sperimentazione che permettono alle piccole imprese di testare la tecnologia dell’intelligenza artificiale in condizioni sicure. È una sfida che l’Europa affronta con determinazione. La protezione dei diritti e l’innovazione possono davvero andare di pari passo?

Condividi
Pubblicato da
Rossella Vitale