Per arrivare a questa conclusione hanno effettuato diversi test su strumenti che in teoria dovrebbero avere la capacità di effettuare questa distinzione, ma tutti hanno fallito.
In sostanza, i rilevatori possono essere elusi dalle intelligenze artificiali grazie ad una semplice riformulazione dei testi. Tuttavia, come per ChatGPT, non sempre i testi creati hanno una base reale: possono fornire informazioni errate.
Le risposte possono sembrare anche convincenti, tuttavia potrebbero essere fuorvianti. Potrebbero addirittura essere inserite citazioni del tutto fasulle: è consigliabile quindi non usarle come fonti di ricerca.
Anche se i rilevatori non funzionano, questo non vuol dire che un insegnante o un altro essere umano non sappia intuire che ciò che sta leggendo, mettiamo il caso di un compito scolastico, sia prodotto in maniera artificiale
. Poi, da subito sarebbe notabile un cambio drastico di stile di scrittura o se le capacità grammaticali migliorino istantaneamente di uno studente.Non sono solo i giovani a “fallire” ed essere scoperti. Di recente, un autore della rivista Nature ha commesso un errore che ha permesso di sgamarlo: non solo ha copiato un articolo, ma ha anche lasciato la parola “Regenerate”. Davvero un genio del male.
Per quanto gli strumenti di rilevamento di intelligenze artificiale falliscano al giorno d’oggi, non vuol dire che lo faranno in futuro. Si sta già lavorando a nuovi sistemi per identificare ciò che è stato generato da un’IA. Se doveste usare un’intelligenza artificiale per lavoro o per la scuola, controllate almeno se la risposta sia veritiera e state attenti con il copia e incolla.