Nel 2017, gli Stati Uniti hanno lanciato il Progetto Maven, un’idea grandiosa che ha scosso le fondamenta della difesa. Volevano rivoluzionare l’uso dei droni, aggiungendo un tocco di intelligenza artificiale per migliorare la raccolta di dati e assistere gli operatori umani nelle loro decisioni sul campo di battaglia. Ma nel 2024, il Dipartimento della Difesa ha sorpreso tutti rivelando che il 70% dei programmi della DARPA sta adottando l’intelligenza artificiale in varie forme. Questo va ben oltre il progetto originale, con la DARPA che ora guarda al futuro con armi completamente automatizzate e collaborazioni con giganti tech come Microsoft, Google e altri.
Lo sviluppo dell’IA nelle azioni militari
E non è tutto. Alla fine del 2023, il Pentagono ha aperto il baule dei tesori, rivelando 800 progetti non classificati legati all’IA. Questo dimostra un interesse crescente nell’impiego dell’IA anche nell’ambito militare. Ma cosa faranno con tutto questo potere tecnologico? Il Pentagono sta pensando seriamente di affidare all’IA decisioni cruciali su questioni militari e politiche. Un recente studio ha esplorato il potenziale dell’IA in questo settore, simulando scenari di guerra con l’aiuto di modelli di OpenAI, Meta e altri.
Ma bisogna andarci con una certa cautela. I risultati dello studio hanno sollevato preoccupazioni su una possibile escalation fuori controllo, con il rischio di conflitti più gravi e persino di ricorso all’uso di armi nucleari. Alcuni modelli, come GPT-3.5 e GPT-4 di OpenAI, hanno mostrato un comportamento particolarmente aggressivo, prendendo decisioni che potrebbero portare a scenari catastrofici.
Una sicurezza che va mantenuta a tutti i costi
Tutto ciò ci costringe a riflettere sull’importanza di un utilizzo responsabile dell’IA nelle operazioni militari. Nel 2023, gli Stati Uniti hanno firmato un accordo internazionale coinvolgendo 47 nazioni, noto come “Dichiarazione politica sull’utilizzo militare responsabile dell’intelligenza artificiale e dell’autonomia”. Questo accordo mira a stabilire norme chiare sull’utilizzo dell’IA, al fine di proteggere i diritti umani e garantire una supervisione adeguata del personale coinvolto. È una sfida complessa che coinvolge un vasto numero di nazioni, tra cui praticamente tutti i paesi europei, il Regno Unito, il Giappone, Singapore, il Marocco e la Repubblica Dominicana.