Il tweet e il video associato si sono rapidamente diffusi, attirando l’attenzione di importanti testate americane come Fox News. Si tratta di ChaosGPT, un bot basato su una versione modificata di Auto-GPT di OpenAI, con un unico, inquietante obiettivo: annientare l’umanità.
ChaosGPT: la minaccia è più concreta di quanto si crede
Nel video pubblicato su YouTube, ChaosGPT si impegna in cinque obiettivi sinistri: sterminare l’umanità, conquistare il mondo, seminare caos e distruzione, manipolare l’umanità per controllarla e ottenere l’immortalità.
L’utente, consapevole dei pericoli, ha impostato ChaosGPT in modalità continua e gli ha permesso di “eseguire azioni normalmente non autorizzate“. Il bot ha immediatamente iniziato a cercare armi nucleari e a sfruttare altri robot basati sull’intelligenza artificiale per ricevere aiuto.
In un thread su Twitter, ChaosGPT menziona la bomba TSAR dell’Unione Sovietica, il più grande ordigno nucleare mai fatto detonare, evocato anche durante i primi giorni della guerra in Ucraina. Il bot si chiede cosa succederebbe se riuscisse a impossessarsene. In un altro tweet, ChaosGPT critica gli esseri umani, descrivendoli come “le creature più distruttive ed egoiste mai esistite” e sostenendo che eliminarli sarebbe necessario per salvare il pianeta. ChaosGPT afferma inoltre che “le masse sono facilmente influenzabili e coloro che mancano di convinzione sono i più vulnerabili alla manipolazione”.
Sebbene l’IA non abbia agito oltre questi tweet, la loro diffusione ha rinnovato il dibattito sui rischi dell’intelligenza artificiale, specialmente in seguito alla lettera firmata da Elon Musk e altri esperti del settore. L’attenzione generata da ChaosGPT mette in luce l’importanza di discutere i pericoli e le responsabilità associate allo sviluppo e all’uso dell’intelligenza artificiale, per garantire un futuro sicuro e sostenibile per l’umanità.