Secondo quanto riportato, i ricercatori coinvolti provengono da istituzioni connesse all’Esercito Popolare di Liberazione (EPL) cinese. In particolare, dall’Accademia di Scienze Militari. Essi hanno utilizzato Llama 2 13B, versione rilasciata da Meta a febbraio 2023, integrandolo con parametri specifici per costruire uno strumento AI in grado di raccogliere e interpretare dati rilevanti per le operazioni militari. In questo modo si facilita la presa di decisioni tattiche e strategiche.
L’uso di Llama da parte dell’EPL però violerebbe esplicitamente i termini di utilizzo
stabiliti da Meta. Quest’ultimi proibiscono l’applicazione del modello in ambiti militari o bellici. Meta, rappresentata da Molly Montgomery, direttrice delle politiche pubbliche, ha confermato a Reuters che l’azienda non autorizza l’impiego dei suoi modelli per scopi militari e che tale uso è contrario alle politiche di licenza. Tale caso solleva quindi il problema del controllo sull’open source. Quando un modello è reso accessibile a tutti, risulta complesso monitorare e limitare i suoi impieghi, specialmente quando vengono utilizzati in contesti geopoliticamente delicati.La situazione mette in discussione la filosofia stessa dell’open source per modelli avanzati di AI. Meta, infatti, sostiene che la condivisione aperta dei modelli possa accelerare lo sviluppo globale dell’intelligenza artificiale grazie al contributo di ricercatori di tutto il mondo. In questo contesto però le implicazioni di sicurezza e le possibili applicazioni militari preoccupano vari governi. Alla luce di tali considerazioni, è lecito domandarsi se modelli come Llama debbano essere limitati o regolamentati con più rigore. O se, in alternativa, sia possibile trovare un equilibrio tra apertura e sicurezza.