Recentemente, si è parlato molto di intelligenza artificiale e della questione se questi sistemi possano davvero “pensare” come gli esseri umani. Questa discussione è diventata piuttosto accesa, soprattutto perché alcune persone sostengono che le AI, come i chatbot, potrebbero avere una sorta di coscienza. Ma la realtà è ben diversa da come viene presentata nella fantascienza.
Prendiamo ChatGPT, ad esempio. Questo chatbot non è capace di pensare o ragionare come facciamo noi. Invece, ciò che fa è cercare di imitare una conversazione naturale in modo che sembri che stia parlando come un umano. Ma dietro le quinte, c’è un sistema complesso che usa enormi quantità di dati e algoritmi sofisticati per fare in modo che il chatbot possa rispondere alle domande in modo coerente.
Quando ChatGPT o un altro sistema simile genera una risposta, non sta davvero “pensando” alla risposta nel senso umano del termine. Piuttosto, sta scegliendo quale parola o frase utilizzare successivamente basandosi su probabilità. Utilizza un metodo chiamato “tokenizzazione“, che trasforma le parole in numeri. In pratica, il sistema lavora con sequenze di numeri, non con parole vere e proprie. Questo processo permette ai modelli di calcolare quale parola è più probabile che venga dopo nella conversazione.
Ecco perché a volte si verificano delle “allucinazioni” nei chatbot, cioè risposte sbagliate o incoerenti. Questo accade perché l’IA si basa su probabilità e modelli matematici piuttosto che su una vera comprensione del contesto. Non essendo capace di ragionare come noi, i sistemi di intelligenza artificiale possono commettere errori che sono difficili da evitare completamente, anche con una grande quantità di dati.
Un salto importante nella tecnologia dei modelli di linguaggio è avvenuto con GPT-3, che è molto più avanzato rispetto al suo predecessore GPT-2. Mentre GPT-2 aveva 1,5 miliardi di parametri, GPT-3 ne ha 175 miliardi. Questo grande aumento nella quantità di dati e parametri ha migliorato notevolmente le capacità del modello, rendendolo più efficace nel simulare conversazioni naturali. Tuttavia, nonostante questi miglioramenti, i chatbot non sono diventati capaci di pensare come gli esseri umani.
Per il futuro, gli scienziati stanno cercando di sviluppare un’intelligenza artificiale generale (AGI), che sarebbe in grado di apprendere e svolgere qualsiasi compito intellettuale che può essere svolto da un umano. Ma siamo ancora lontani da questo traguardo e, per ora, possiamo solo aspettare e vedere come la tecnologia continuerà a evolversi. Nel frattempo, è utile ricordare che, anche se i chatbot possono sembrare intelligenti, in realtà funzionano grazie a modelli statistici e probabilistici, non alla vera cognizione umana.