ChatGPT è un programma gestito dall’intelligenza artificiale creata da OpenAI e ha fatto il suo debutto pubblico lo scorso dicembre. Può risolvere problemi, produrre scrittura creativa e alcuni sostengono che possa persino essere impiegato dai consulenti finanziari.
Ma i critici dicono che è pieno di errori e pregiudizi raccolti dalle persone che lo hanno ispirato. L’intelligenza artificiale, dicono, potrebbe aprire le aziende alle accuse di discriminazione nelle pratiche di lavoro e, piuttosto che sostituire i compiti umili, potrebbe portare i fannulloni a usarla per lavori che richiedono creatività e supervisione umana.
Rosenfeld, professore di machine learning alla Carnegie Mellon University, ha recentemente chiesto a GPT 4, una versione premium del software AI di scrivere una poesia a sua moglie, un’imprenditrice tecnologica, per celebrare il loro anniversario di matrimonio selezionando tra circa 70 parole scelte.
Le parole includevano: “Automobile. Bene. Nozze. Sposo. Relax. Sposa. Vacanza. Marito. Vestito. Oceano.” Ad ogni tentativo, ha chiesto che fosse più divertente, più stravagante, più lungimirante e persino qualcosa di “un po’ meno sdolcinato
“, tra le altre istruzioni.“Non commette errori, ma li ammette quando glielo fai notare.” dice Roni Rosenfeld, professore di machine learning. GPT-4 all’inizio ha usato più delle parole che ha suggerito. Bisognava sottolineare gli errori e chiedergli di attenersi alle sue istruzioni originali.
Ma non è il suo unico uso. La scorsa settimana, Steven A. Schwartz, un avvocato dello studio Levidow, Levidow & Oberman, ha ammesso davanti a un giudice federale di Manhattan di aver utilizzato ChatGPT per compilare una memorandum di 10 pagine per un cliente che stava facendo causa a una compagnia aerea.
Ma il problema è che quello che aveva scritto non aveva alcun fondamento nella realtà, secondo il New York Times, che per primo ha riportato il caso. Conteneva una mezza dozzina di casi fasulli e citazioni fasulle.