L’impiego dell’intelligenza artificiale (IA) ha permeato diversi aspetti della vita quotidiana e professionale, portando con sé sia opportunità che sfide. Mentre l’IA ha il potenziale di migliorare l’efficienza e la qualità del lavoro, eliminando la necessità di svolgere compiti ripetitivi e usuranti, presenta anche questioni complesse legate alla regolamentazione e all’etica, soprattutto in settori come i mercati finanziari.
Intelligenza Artificiale: il High Frequency Trading
Nel contesto finanziario, l’IA si manifesta in varie forme, tra cui il High Frequency Trading (HFT), un tipo di trading automatizzato che esegue transazioni in frazioni di secondo. Questi sistemi di IA possono essere categorizzati come “deboli” o “forti”. I sistemi deboli eseguono ordini specifici impartiti da un supervisore umano e sono tradizionalmente utilizzati nell’HFT. D’altro canto, i sistemi forti hanno capacità decisionali e di apprendimento autonome, il che li rende in grado di generare output indipendenti.
Tuttavia, l’autonomia dei sistemi forti solleva questioni legali e etiche significative. Ad esempio, se un sistema forte esegue una transazione finanziaria che risulta essere manipolativa, è difficile per un supervisore umano giustificare la logica dietro tale operazione. Questo pone il supervisore a rischio di incorrere in responsabilità penali per manipolazione del mercato, un reato previsto e punito dall’art. 185 del Testo Unico della Finanza (TUF) in Italia.
Un recente studio dell’Autorità olandese di vigilanza sui mercati finanziari (AFM) ha rivelato che, a causa di tali rischi, molti intermediari nei Paesi Bassi hanno evitato di utilizzare sistemi di IA forti. La preoccupazione principale è l’incapacità di giustificare le decisioni prese autonomamente dall’IA, che potrebbero essere interpretate come manipolative dal punto di vista legale.
Questo scenario evidenzia la necessità di un quadro normativo più robusto che possa tenere il passo con le innovazioni tecnologiche. La regolamentazione deve essere progettata in modo da bilanciare i benefici dell’automazione e dell’efficienza con la necessità di prevenire comportamenti eticamente o legalmente discutibili. Inoltre, c’è un bisogno crescente di trasparenza e di meccanismi di controllo che permettano di tracciare e comprendere le decisioni prese dai sistemi di IA.