Google DeepMind ha sviluppato una filigrana speciale che riconoscerebbe i testi composti da IA, meglio se lunghi come tesi universitarie.

Un gruppo di ricerca di Google DeepMind ha sviluppato un sistema di filigrana AI, ora applicato con successo per identificare testi generati dal chatbot Gemini. Dopo mesi di utilizzo, questa tecnologia sarà resa disponibile anche per altri sviluppatori di intelligenza artificiale, aprendo nuove prospettive per il monitoraggio e l’identificazione dei contenuti generati dall’IA. La filigrana si basa su un innovativo algoritmo di “campionamento a torneo” che influisce sulla selezione delle parole durante la creazione del testo, introducendo una firma statistica unica. Grazie a questo metodo, il sistema rende più complessi eventuali tentativi di alterare o rimuovere la filigrana dai testi generati.

 

La nuova filigrana AI di Google DeepMind

Il responsabile del progetto, Pushmeet Kohli, ha sottolineato che questa non è una soluzione assoluta, ma rappresenta un passo importante verso strumenti di identificazione più affidabili. Sebbene la tecnologia non elimini del tutto i rischi di riconoscimento errato, l’obiettivo è intercettare una parte significativa della disinformazione generata dall’IA e prevenire l’utilizzo dei chatbot in attività come il plagio accademico, fenomeno cresciuto con la diffusione dell’intelligenza artificiale generativa. 

Durante i test, condotti su 20 milioni di risposte generate da Gemini, il sistema di filigrana ha dimostrato di operare senza compromettere la qualità dei testi prodotti. I ricercatori hanno osservato che la filigrana risulta più efficace in testi estesi e complessi, come saggi o email, nei quali la struttura e la varietà delle parole utilizzate permettono una firma più chiara e distinguibile. Tuttavia, il metodo non è stato ancora testato su generi particolari di output, come problemi matematici o di codifica, in cui il linguaggio risulta meno vario.

L’iniziativa di Google di rendere la tecnologia open-source mira a incoraggiare altri sviluppatori di IA a seguire una strada simile, favorendo la trasparenza e la responsabilità nel settore. Si auspica che questo approccio spinga alla creazione di un ecosistema più affidabile, in cui diventi sempre più semplice distinguere tra contenuti generati dall’IA e contenuti prodotti dall’uomo. La tecnologia di filigrana, dunque, si propone non solo come una misura di controllo, ma anche come strumento fondamentale per una gestione etica e responsabile dell’intelligenza artificiale.

Articolo precedentePromozione da brivido: rinnova il tuo smartphone con MediaWorld
Articolo successivoTesla: con l’aumento ufficiale degli utili in arrivo nuove proposte