La nuova presentazione di Anthropic sul modello linguistico di grandi dimensioni (LLM) Claude 2.1 rappresenta un passo significativo nell’avanzamento delle tecnologie di intelligenza artificiale generativa. La notevole finestra di contesto di 200.000 token di Claude 2.1 è un grande miglioramento rispetto al suo predecessore e persino al GPT-4 Turbo. Ciò significa che l’IA è in grado di esaminare una quantità enorme di informazioni quando genera risposte. Anthropic sottolinea che questa finestra potrebbe essere sufficiente per elaborare testi estesi come l’Iliade o l’Odissea in un solo prompt.
Per comprenderne meglio la potenza è bene spiegare prima cosa siano i token. Essi sono i componenti di base che il modello legge e scrive. Possono variare dalla lunghezza di un carattere a una parola intera. Una finestra di contesto di 200.000 token corrisponde a un testo di 150.000 parole, equivalente a circa 500 pagine per un solo prompt. L’IA Claude 2.1 riduce è capace di ridurre il tasso di allucinazione del 50%
. Le allucinazioni sono risposte generate dal modello che non sembrano essere supportate dai dati di addestramento.Questo è un miglioramento cruciale, specialmente in contesti aziendali in cui risposte erronee possono avere conseguenze gravi. L’IA è già disponibile attraverso API all’interno Console di Anthropic e va ad implementare l’esperienza della chat nel sito dell’intelligenza. Sebbene non sia ancora direttamente utilizzabile in Italia, può essere provato attraverso terze parti come con la piattaforma Poe.
L’avanzamento di Anthropic con Claude 2.1 rappresenta un passo importante verso modelli linguistici sempre più potenti e comprensivi. La capacità di gestire finestre di contesto così estese apre nuove possibilità, ma è necessario gestire attentamente il rischio di allucinazioni, specialmente quando si affrontano dati di dimensioni così grandi. Se le premesse verranno rispettate, si potrebbe davvero assistere ad una rivoluzione in quest’ambito tecnologico.