OpenAI, una delle aziende leader nello sviluppo dell’intelligenza artificiale, ha recentemente pubblicato un documento di ricerca che affronta il tema dell’avvento di una superintelligenza artificiale. Il capo scienziato di OpenAI, Ilya Sutskever, figura come autore principale del documento, che mette in luce la potenziale realizzazione di una forma di intelligenza artificiale che supera significativamente le capacità umane entro il prossimo decennio.
OpenAI: Sviluppo di Sistemi di IA Sovrumani Sicuri
La ricerca si concentra sullo sviluppo di strumenti e metodi per assicurare che questi futuri sistemi di intelligenza artificiale sovrumani rimangano allineati con gli standard di sicurezza umani e non rappresentino una minaccia. OpenAI ha riconosciuto l’importanza di comprendere come allineare i sistemi di IA superumani in modo sicuro, affermando che ora è più semplice compiere progressi empirici in questo campo.
Il team “Superalignment“, guidato da Ilya Sutskever e Jan Leike, è stato creato per garantire che i sistemi di intelligenza artificiale molto più avanzati rispetto all’intelligenza umana seguano le regole e i principi umani. La loro proposta prevede che OpenAI progetti modelli di intelligenza artificiale di dimensioni ridotte per addestrare i modelli di IA sovrumani.
OpenAI attualmente utilizza il feedback umano per allineare sistemi come ChatGPT, garantendo che non producano risultati pericolosi. Tuttavia, con l’incremento dell’intelligenza di questi sistemi, diventa evidente che l’intervento umano potrebbe non essere sufficiente. Di conseguenza, OpenAI sta esplorando la possibilità di addestrare intelligenze artificiali meno complesse per svolgere questo ruolo.
La ricerca ha dimostrato che l’addestramento di modelli AI di grandi dimensioni tramite modelli AI più piccoli – un approccio definito “generalizzazione da debole a forte” – può risultare più efficace rispetto all’addestramento diretto da parte degli umani. Questa metodologia è stata applicata nell’addestramento di GPT-4 utilizzando GPT-2. Tuttavia, OpenAI non considera questo approccio una soluzione definitiva al superallineamento, ma piuttosto un framework promettente.
I ricercatori di OpenAI hanno sottolineato che un’intelligenza artificiale sovrumana potrebbe essere estremamente potente e, se mal utilizzata o non allineata con i valori umani, potrebbe causare danni catastrofici. Il documento riflette sulla difficoltà di studiare empiricamente questo fenomeno e sull’importanza di sviluppare metodologie adeguate per gestire tale potenzialità.