ChatGPT è una Intelligenza Artificiale (IA) sviluppata da OpenAI in grado di generare testi in modo autonomo e in diversi idiomi, tra cui l’italiano. Recentemente, un articolo di TIME del 18 gennaio 2023 ha sollevato la questione dei metodi utilizzati da OpenAI per garantire che le risposte generate da ChatGPT siano appropriate e non offensive. L’indagine ha scoperto che OpenAI ha assegnato questo compito di “etichettatura” a una società di outsourcing chiamata Sama, situata a San Francisco, ma che ha impiegato lavoratori in Kenya.
ChatGPT: l’accusa nei confronti dell’intelligenza artificiale
Secondo l’articolo, questi lavoratori guadagnano meno di 2 dollari l’ora e hanno il compito di “etichettare” contenuti sensibili, come quelli che incitano all’odio, al fine di “addestrare” l’IA a non utilizzare un “linguaggio non consono” nelle sue risposte agli utenti. L’inchiesta sostiene che il sistema ha inviato decine di migliaia di frammenti di testo a Sama a partire da novembre 2021, gran parte dei quali estratti dai siti più oscuri di internet.
Il fatto che ChatGPT sia in grado di fornire risposte appropriate sarebbe legato a queste prestazioni lavorative. L’inchiesta ha scatenato molte reazioni e discussioni sui social media e sui media tradizionali, con molte persone che si chiedono se questi metodi siano etici e se i lavoratori vengano adeguatamente retribuiti.
Tuttavia OpenAI si difende dichiarando di aver avviato un’indagine interna sull’uso dei lavoratori in outsourcing da parte di Sama. Inoltre la stessa ha sottolineato che sta prendendo in considerazione la possibilità di adottare misure per garantire che i lavoratori coinvolti siano adeguatamente retribuiti e trattati in modo equo.