L’intelligenza artificiale (IA) è sempre più presente nella nostra vita quotidiana, ma la sua diffusione sta anche influenzando il mondo militare. Un esempio di questo è il recente annuncio da parte di Lockheed Martin, il quale ha riferito che una semplice AI è stata in grado di pilotare un aereo da addestramento per 17 ore.
Il velivolo in questione è il VISTA X-62A, un moderno F-16D modificato utilizzato come aereo da addestramento. L’intelligenza artificiale ha dimostrato di essere in grado di mantenere perfettamente il volo, ma non è ancora chiaro esattamente cosa sia stato eseguito dal software.
Ci sono due modi di guardare a questa notizia. Da un lato, l’IA che è in grado di pilotare un aereo da addestramento potrebbe essere vista come un grande passo in avanti per la tecnologia. Ciò vorrà dire che, in futuro, i mezzi militari
saranno sempre più manovrati da software specifici e non richiederanno più un pilota umano. Questo potrebbe portare a una maggiore efficienza e precisione nei combattimenti. Dall’altra parte, c’è anche la questione dell’autonomia delle macchine e della loro capacità di prendere decisioni autonome. Per non parlare poi della sicurezza e l’affidabilità di queste nuove tecnologie.Una preoccupazione chiave è la possibilità di hackerare i sistemi di controllo dell’IA e manipolare il comportamento dei velivoli. Questo potrebbe avere gravi conseguenze per la sicurezza nazionale, soprattutto se queste tecnologie fossero utilizzate in missioni militari attive.
Inoltre, c’è anche la questione dell’etica e della responsabilità in caso di malfunzionamenti del sistema di controllo dell’IA. Chi sarebbe responsabile se un velivolo senza pilota causasse danni o perdite umane? Il discorso non vale per le operazioni di sorveglianza o le missioni di ricerca e soccorso.