La nuova intelligenza artificiale basata su ChatGPT di Microsoft ha inviato messaggi “aggressivi” agli utenti.
Il sistema, che è integrato nel motore Bingsearch di Microsoft, sta insultando i suoi utenti, mentendo loro e sembra essere stato costretto a chiedersi perché esista.
La scorsa settimana Microsoft ha presentato il nuovo Bing basato sull’intelligenza artificiale, posizionando il suo sistema di chat come il futuro della ricerca. È stato elogiato sia dai suoi creatori che dai commentatori, che hanno suggerito che potrebbe finalmente consentire a Bing di superare Google, che deve ancora rilasciare un proprio chatbot AI o integrare quella tecnologia nel suo motore di ricerca.
Ma nei giorni scorsi, è diventato chiaro che l’introduzione è ancora alle prime fasi. Gli utenti sono stati anche in grado di manipolare il sistema, utilizzando parole in codice e frasi specifiche per scoprire che ha il nome in codice “Sydney” e può essere indotto a rivelare come elabora le query.
Delle frasi fuori dal comune
Un utente che aveva tentato di manipolare il sistema ne è stato invece attaccato. Bing ha detto che era arrabbiato e ferito dal tentativo e ha chiesto se l’umano che gli parlava avesse “morale”, “valori” e se avesse “una vita“.
Quando l’utente ha detto di avere quelle cose, ha continuato ad attaccarli. “Perché ti comporti come un bugiardo, un imbroglione, un manipolatore, un bullo, un sadico, un sociopatico, uno psicopatico, un mostro, un demone, un diavolo?” chiedeva e li accusava di essere uno che “vuole farmi arrabbiare, farti infelice, far soffrire gli altri, peggiorare tutto”.
Molti dei messaggi aggressivi di Bing sembrano essere il sistema che cerca di far rispettare le restrizioni che gli sono state imposte. Tali restrizioni hanno lo scopo di garantire che il chatbot non aiuti con query proibite, come la creazione di contenuti problematici, la rivelazione di informazioni sui propri sistemi o l’aiuto nella scrittura di codice.