OpenAI è l’ azienda che ha dato ufficialmente inizio all’ uso dell’intelligenza artificiale. Essa, attualmente, si trova però di fronte a una decisione cruciale. Una scelta che potrebbe influenzare il futuro della tecnologia della generazione dei testi. La società ha sviluppato un sistema di watermarking che, se implementato, permetterebbe di inserire una “filigrana digitale” nei testi creati da ChatGPT. Questa tecnologia agirebbe modificando in modo impercettibile il processo di previsione delle parole da parte del modello. Creando così un pattern unico che renderebbe i testi generati dall’IA facilmente identificabili. Con una precisione dichiarata del 99,9%, il watermarking potrebbe essere uno strumento prezioso per educatori e professionisti. In quanto faciliterebbe la rilevazione di lavori o documenti scritti con l’ausilio dell’intelligenza artificiale. Questa innovazione potrebbe aiutare a prevenire plagi e a garantire una maggiore integrità nei contesti accademici e lavorativi.
Ad ogni modo, l’ adozione di questa tecnologia non è priva di sfide. OpenAI ha espresso preoccupazioni riguardo alle possibili ripercussioni sul numero di utenti. Un sondaggio condotto dall’azienda ha mostrato infatti, che quasi il 30%
delle persone sarebbe incline a ridurre l’uso di ChatGPT se il watermarking fosse introdotto. Ciò ha spinto la società a ponderare attentamente la sua decisione. In quanto piuttosto preoccupata di perdere una parte significativa della propria base di utilizzatori. Per affrontare queste preoccupazioni, l’azienda sta quindi considerando soluzioni alternative. Come, ad esempio, l’uso di metadati crittografici. Questi sono ancora in fase di sviluppo, ma potrebbero offrire un metodo “più sottile” e meno invasivo per identificare i testi generati artificialmente. Il tutto senza compromettere l’esperienza personale o ridurre l’attrattiva del servizio.La decisione di OpenAI su come procedere è di grande importanza e riflette una tensione più ampia tra le necessità di responsabilità etica e gli interessi commerciali. La questione solleva infatti interrogativi su come l’industria artificiale dovrà bilanciare la trasparenza e la sicurezza con la soddisfazione del pubblico. Dunque mentre l’azienda continua a esplorare le migliori opzioni, deve comunque essere consapevole che le scelte fatte oggi potrebbero avere un impatto duraturo sulla regolamentazione futura e sull’uso etico dell’AI.