I modelli di Intelligenza Artificiale si basano sul concetto di Token, ovvero una piccola parte di testo, usata per analizzare e generare il linguaggio. Un numero maggiore di token consente di gestire input più lunghi e precisi, migliorando la capacità di mantenere il contesto, fornendo risposte più coerenti. Il nuovo modello di Alibaba si distingue proprio per questo fattore, aumentando a 131.000 il numero di token che riesce a gestire. In questo modo è in grado di operare su input lunghi, migliorando il ragionamento logico e la pianificazione. Inoltre, il processo di Apprendimento di Rinforzo
è strutturato in due fasi: la prima focalizzata su matematica e codifica, la seconda dedicata al perfezionamento delle risposte.Nonostante utilizzi meno risorse hardware, rispetto ad altre soluzioni con parametri elevati, QwQ-32B offre comunque prestazioni paragonabili a quelle di modelli come DeepSeek R1. Infatti, grazie al suo design orientato all’efficienza, il modello richiede 24 GB di vRAM su una singola GPU, molto meno rispetto alle risorse esorbitanti degli altri sistemi. Questo innovazioni rende QwQ-32B competitivo rispetto ad altri modelli di punta, come, il già citato, DeepSeek R1 e la serie o3 di OpenAI.
Inoltre, la licenza Apache 2.0 consente l’utilizzo libero per scopi commerciali e di ricerca, eliminando preoccupazioni legate a sicurezza, specialmente per gli utenti non cinesi. Con l’evoluzione dei large reasoning models, QwQ-32B si posiziona come un passo decisivo verso un futuro in cui l’intelligenza artificiale potrà auto-migliorarsi abbattendo barriere economiche. Questo modello innovativo non solo rappresenta un progresso tecnico, ma stimola anche una riflessione profonda sul futuro della tecnologia. Specialmente per aprire nuove strade e rendere l’intelligenza artificiale più accessibile, sicura e sostenibile.