Gli avanzamenti nei modelli linguistici intelligenti (LLM) che alimentano i chatbot hanno evidenziato una peculiare tendenza: sembrano “pensare” principalmente in inglese, anche quando affrontano domande in altre lingue. Questo fenomeno è attribuibile alla distorsione dei dati di addestramento, dove i concetti predominanti derivano dalle culture di lingua inglese, creando così una sorta di filtro linguistico.
Le sfide dei chatbot multilingue
Con l’emergere di chatbot avanzati come ChatGPT nel novembre 2022, l’impiego diffuso di intelligenze artificiali per rispondere a domande in diverse lingue è diventato una realtà comune. Al fine di comprendere quale lingua predomini effettivamente durante l’elaborazione delle richieste degli utenti, i ricercatori del Politecnico Federale di Losanna, in Svizzera, hanno condotto uno studio su tre versioni del modello Llama 2 di Meta, l’azienda madre di Facebook.
L’esperimento coinvolgeva la presentazione di prompt in cinese, francese, tedesco e russo, allo scopo di analizzare se gli strati interni dei LLM stavano elaborando effettivamente in inglese. I risultati hanno rivelato una tendenza chiara: il percorso di elaborazione degli strati attraverso i LLM passava quasi invariabilmente attraverso uno “spazio inglese“, sottolineando così l’uso dell’inglese come intermediario chiave per la comprensione dei concetti.
In termini più semplici, ogni prompt in una lingua specifica veniva tradotto in inglese, elaborato all’interno di un contesto “culturalmente inglese” e successivamente ritradotto per fornire la risposta all’utente. Questa preminenza dell’inglese nei dati di addestramento solleva preoccupazioni legate alla possibilità che il modello imponga una visione del mondo limitata a contesti linguistici e culturali specifici.
Il dilemma della diversità
Le conseguenze di questa limitata diversità linguistica dei chatbot sono molteplici e vanno dalla potenziale perdita di sfumature linguistiche a rischi più gravi, come risposte inaccurare o produzione di contenuti culturalmente inappropriati. Ad esempio, se un modello è utilizzato per generare testo in una lingua non prevista nel suo addestramento, potrebbe generare risultati che mancano di sensibilità culturale.
L’analisi sottolinea l’urgenza di promuovere una maggiore diversità nei dati di addestramento dei LLM, evidenziando preoccupazioni legate alla rappresentazione culturale limitata nei modelli linguistici artificiali impiegati globalmente da un vasto pubblico. Questa consapevolezza è cruciale per garantire l’efficacia e la sensibilità culturale di tali tecnologie, che impattano quotidianamente la vita di migliaia di persone in tutto il mondo.