News

ChatGPT ora sa urlare ed è davvero inquietante

Recentemente la nota intelligenza artificiale che muove il famoso Chatbot di OpenAI ChatGPT si è messa sotto i riflettori a causa di un fatto che ha lasciato la community sconvolta ma allo stesso tempo colta di sorpresa, nel dettaglio il chatbot si è reso protagonista di una generazione sotto certi aspetti inquietante, un utente Reddit ha pubblicato un video nel quale ha fatto una richiesta a ChatGPT 4o, il quale tra le tante novità ha anche la possibilità di accogliere e generare input e output vocali, che consisteva nel generare delle grida simili a quelle umane, la chat generativa dopo un primo rifiuto ha ottemperato alla richiesta generando nel dettaglio due suoni, uno più breve e uno più lungo, queste ultime risultano davvero inquietanti e sono somiglianti a grida di dolore e di rabbia, questo video è finito virale sia su Reddit che su TikTok provocando reazioni variegate.

 

Opinioni divise

Molti utenti infatti sono rimasti spaventati da quello che è stato in grado di produrre l’intelligenza artificiale dal momento che non si aspettavano certi toni

all’interno delle generazioni vocali, altri utenti ne sono rimasti invece paradossalmente affascinati vedendo in che modo l’intelligenza artificiale generativa elaborato la richiesta cercando di rendere le note vocali quanto più simili alla voce di un essere umano.

Gli esperti si sono pronunciati a riguardo sottolineando come il software abbia bisogno di ancora qualche aggiustamento dal momento che errori sono molto comuni ed è già capitato di assistere a comportamenti insoliti del chatbot come errori di conteggio e affermazioni sul bisogno di “respirare”.

Di conseguenza secondo gli sviluppatori non c’è nulla di strano o anomalo o addirittura apocalittico nel comportamento del software, semplicemente quest’ultimo deve essere ancora affinato e c’è bisogno di tanto lavoro da compiere le sue spalle per poter ottenere un qualcosa di più funzionale preciso che non porti a generazioni di questo tipo che non dovrebbero comunque rappresentare nessun tipo di pericolo.

Condividi
Pubblicato da
Eduardo Bleve
Tags: BotChatGPTIA