Dopo aver catturato frammenti di testo generati dal potente strumento ChatGPT di OpenAI che assomigliavano a segreti aziendali, Amazon sta ora cercando di impedire ai suoi dipendenti di far trapelare qualcos’altro all’algoritmo.
Secondo i messaggi interni di Slack che sono trapelati a Insider, un avvocato di Amazon ha detto ai lavoratori di aver “già visto istanze” di testo generato da ChatGPT che “assomigliavano molto” ai dati aziendali interni.
Questo problema sembra essere giunto al culmine di recente perché lo staff di Amazon e altri lavoratori della tecnologia in tutto il settore hanno iniziato a utilizzare ChatGPT come una sorta di “assistente di codifica” per aiutarli a scrivere o migliorare stringhe di codice, osserva il rapporto.
Sebbene questo non sia necessariamente un problema dal punto di vista dei dati proprietari, è una storia diversa quando i dipendenti iniziano a utilizzare l’intelligenza artificiale per migliorare il codice interno esistente, cosa che sta già accadendo, secondo l’avvocato.
Non è stato ancora capito bene
Questo è importante perché gli input possono essere utilizzati come dati di addestramento per un’ulteriore iterazione di ChatGPT, ha scritto l’avvocato nei messaggi di Slack visualizzati da Insider.
L’avvocato ha anche rivelato, per Insider, che Amazon sta sviluppando “tecnologia simile” a ChatGPT, una rivelazione che sembrava suscitare l’interesse dei dipendenti che hanno affermato che l’utilizzo dell’intelligenza artificiale per assistere la scrittura del codice ha portato a un aumento della produttività di dieci volte.
Mentre altri settori si agitano e si agitano all’idea di essere sostituiti dall’intelligenza artificiale, molti sono apparentemente più inclini ad accoglierlo come un utile strumento di codifica.