Una notte di settembre, Sébastien Bubeck, ricercatore in apprendimento automatico presso Microsoft, si svegliò pensando all’intelligenza artificiale e agli unicorni. Bubeck aveva recentemente ottenuto accesso anticipato a ChatGPT 4, l’aggiornamento dell’algoritmo di generazione del testo di OpenAI, ed era impressionato dai risultati prodotti dal sistema. Egli chiese a GPT-4 di disegnare un unicorno usando TikZ, un linguaggio di programmazione per diagrammi scientifici. Ma cosa successe?
ChatGPT: cosa ne pensano gli esperti?
Inaspettatamente, il codice generato dal modello produceva un’immagine grezza ma riconoscibile di un unicorno. Bubeck si convinse che qualcosa di nuovo stesse accadendo nell’intelligenza artificiale.
Il dibattito sull’intelligenza e la fiducia nell’IA è diventato sempre più pressante, soprattutto dopo il lancio di ChatGPT alimentato da GPT-3, il quale ha suscitato stupore, preoccupazione e panico riguardo alle frodi accademiche, alla disinformazione e alla perdita di posti di lavoro. Comprendere il potenziale e i rischi delle nuove capacità dell’IA richiede una visione chiara delle loro reali abilità. Tuttavia, i ricercatori stanno ancora studiando questi sistemi e cercando di capire cosa succede dietro le richieste degli utenti.
Nonostante OpenAI abbia presentato GPT-4 con risultati impressionanti in esami legali e medici, gli scienziati che studiano l’intelligenza umana sostengono che ci siano differenze fondamentali tra le capacità del modello e le nostre. Il mistero diventa ancora più importante ora che milioni di persone utilizzano questa tecnologia ogni giorno e le aziende puntano sull’IA.
Un documento pubblicato da Microsoft afferma che nei primi esperimenti, GPT-4 ha mostrato un “barlume di intelligenza artificiale generale”. Tuttavia, il documento ha suscitato critiche da parte di ricercatori e esperti. Alcuni hanno sottolineato che gli esperimenti sono impossibili da replicare e che GPT-4 commette ancora errori ridicoli.
Talia Ringer, docente presso l’Università dell’Illinois a Urbana-Champaign, afferma che il documento di Microsoft presenta fenomeni interessanti ma esagera le affermazioni. La donna sottolinea che affermare che questi sistemi siano incredibilmente intelligenti incoraggia gli utenti a fidarsi di queste tecnologie anche quando presentano difetti notevoli.
Bubeck riconosce che il suo studio ha limiti e che GPT-4 presenta zone d’ombra. Tuttavia, l’uso del termine “intelligenza artificiale generale” aveva lo scopo di innescare un dibattito sulle capacità del modello e sulla sua ampiezza. Ad ogni modo è indubbio che il funzionamento di GPT-4 e altri potenti modelli linguistici AI sia diverso dal nostro cervello e dai processi della mente umana. Ciò non significa che non sia un buon punto per l’evoluzione e il progresso dell’AI.