L’obiettivo risulta particolarmente ambizioso. L’agenzia intende costruire un’IA capace di analizzare dati complessi per simulare decisioni future di attori ostili. Sia che si tratti di stati, che di organizzazioni o individui. La “Theory of Mind” non si limita alla lettura delle azioni passate. Il suo obiettivo è di entrare nel profondo delle motivazioni, degli schemi comportamentali e delle possibili reazioni di chiunque rappresenti una potenziale minaccia per la sicurezza nazionale.
La base del progetto AI è un complesso sistema di machine learning alimentato da enormi quantità di dati. Quest’ultimi includono informazioni pubbliche, analisi geopolitiche, comunicazioni intercettate e persino tracce lasciate sui social. Integrando tali fonti, il sistema potrà generare modelli predittivi
che tengono conto non solo delle azioni passate, ma anche dello stato emotivo e delle intenzioni probabili degli avversari.Suddetta capacità previsionale non servirà solo a identificare minacce imminenti ma anche a formulare strategie per influenzare il comportamento. Le possibilità di “Theory of Mind” sono straordinarie. Ma come già accaduto, i progetti DARPA spesso si trovano al centro di controversie. Dal programma “Total Information Awareness” al “LifeLog”, l’opinione pubblica si è più volte opposta all’idea di un controllo pervasivo. In particolare sono stati citati rischi per la privacy e la libertà.
In un’epoca in cui le tecnologie AI emergenti modellano il nostro futuro, il progetto “Theory of Mind” rappresenta una frontiera affascinante, ma complessa. L’AI potrebbe davvero rivoluzionare il mondo della tecnologia, e non solo. Ma un suo uso poco etico rischierebbe di alimentare un’era di sorveglianza globale senza precedenti.