ChatGPT è un programma gestito dall’intelligenza artificiale creata da OpenAI e ha fatto il suo debutto pubblico lo scorso dicembre. Può risolvere problemi, produrre scrittura creativa e alcuni sostengono che possa persino essere impiegato dai consulenti finanziari.
Ma i critici dicono che è pieno di errori e pregiudizi raccolti dalle persone che lo hanno ispirato. L’intelligenza artificiale, dicono, potrebbe aprire le aziende alle accuse di discriminazione nelle pratiche di lavoro e, piuttosto che sostituire i compiti umili, potrebbe portare i fannulloni a usarla per lavori che richiedono creatività e supervisione umana.
Rosenfeld, professore di machine learning alla Carnegie Mellon University, ha recentemente chiesto a GPT 4, una versione premium del software AI di scrivere una poesia a sua moglie, un’imprenditrice tecnologica, per celebrare il loro anniversario di matrimonio selezionando tra circa 70 parole scelte.
Le parole includevano: “Automobile. Bene. Nozze. Sposo. Relax. Sposa. Vacanza. Marito. Vestito. Oceano.” Ad ogni tentativo, ha chiesto che fosse più divertente, più stravagante, più lungimirante e persino qualcosa di “un po’ meno sdolcinato“, tra le altre istruzioni.
Un problema da considerare
“Non commette errori, ma li ammette quando glielo fai notare.” dice Roni Rosenfeld, professore di machine learning. GPT-4 all’inizio ha usato più delle parole che ha suggerito. Bisognava sottolineare gli errori e chiedergli di attenersi alle sue istruzioni originali.
Ma non è il suo unico uso. La scorsa settimana, Steven A. Schwartz, un avvocato dello studio Levidow, Levidow & Oberman, ha ammesso davanti a un giudice federale di Manhattan di aver utilizzato ChatGPT per compilare una memorandum di 10 pagine per un cliente che stava facendo causa a una compagnia aerea.
Ma il problema è che quello che aveva scritto non aveva alcun fondamento nella realtà, secondo il New York Times, che per primo ha riportato il caso. Conteneva una mezza dozzina di casi fasulli e citazioni fasulle.