I dipendenti di Google hanno espresso preoccupazione riguardo al chatbot Bard dell’azienda, definendolo “un bugiardo patologico” e chiedendo di non lanciarlo, secondo Bloomberg, che ha avuto accesso a discussioni interne. Google Bard è stato accusato di fornire consigli pericolosi su temi quali l’atterraggio di aerei e le immersioni subacquee. Tanto che un dipendente ha affermato: “Bard è più che inutile: per favore non lanciatelo”.
Nonostante le preoccupazioni, Google avrebbe cancellato un test di sicurezza interno e spinto per l’apertura dell’accesso a Bard, ignorando le raccomandazioni contrarie. Il gigante di Mountain View sembra più preoccupato di competere con i rivali che di creare un prodotto di qualità. Due licenziamenti avvenuti nel 2020 e 2021, riguardanti ricercatori che avevano segnalato problemi nell’intelligenza artificiale di Google, potrebbero essere indicativi di tale mentalità.
Tuttavia, le IA concorrenti minacciano l’esistenza stessa di Google, poiché mettono a rischio il motore di ricerca web. È evidente la necessità di adottare misure per contrastare questa minaccia. D’altro canto, i test pubblici possono essere essenziali per sviluppare questi sistemi, e forse è un prezzo da pagare per migliorarli, nonostante i rischi associati a testi tossici e informazioni fuorvianti. Google si trova in una situazione unica rispetto agli altri protagonisti del settore.
Anche i concorrenti di Google, come Microsoft, Meta e OpenAI, affrontano problemi simili legati all’intelligenza artificiale. Tuttavia, non detengono il monopolio della ricerca web, un fattore che fa una grande differenza. La situazione solleva questioni sulla responsabilità delle aziende nello sviluppo di intelligenza artificiale e l’importanza di porre l’etica e la sicurezza al centro di tali innovazioni.