Un team di ricercatori dell’ETH di Zurigo ha fatto un bel passo avanti nell’aggirare i CAPTCHA, quei test che ci chiedono di riconoscere biciclette, semafori e attraversamenti pedonali nelle immagini. Grazie all’intelligenza artificiale, sono riusciti a creare un sistema capace di superare questi test ogni volta, e talvolta persino più velocemente di un essere umano. Lo studio, guidato da Andreas Plesner, un dottorando, ha dimostrato che un modello AI, addestrato su migliaia di immagini di traffico, può eguagliare le capacità umane nell’identificare oggetti nelle griglie di immagini di Google ReCAPTCHA v2. Questo risultato apre molti dubbi su quanto i CAPTCHA siano ancora efficaci nel distinguere le persone reali dai bot.
I problemi dei CAPTCHA con l’AI
Nonostante Google stia pian piano rimpiazzando ReCAPTCHA v2 con una versione “invisibile“, il vecchio sistema è ancora largamente utilizzato su tantissimi siti web. E il team dell’ETH ha proprio voluto dimostrare che, con l’intelligenza artificiale, anche questo tipo di protezione può essere superata facilmente. Usando una versione ottimizzata del modello di riconoscimento oggetti YOLO, addestrata su oltre 14.000 immagini etichettate, l’AI è stata in grado di riconoscere perfettamente le categorie di oggetti richieste dal sistema CAPTCHA, come i semafori o le biciclette.
Ma non si sono fermati lì. Per evitare che il loro bot venisse scoperto, i ricercatori hanno adottato alcune astuzie: una VPN per mascherare l’indirizzo IP, un modello che simulava il movimento umano del mouse e falsi dati su browser e cookie. Grazie a queste soluzioni, il bot è riuscito a superare i test sempre, facendo addirittura meglio di un utente umano medio.
Questa ricerca non solo rappresenta un passo avanti rispetto ai precedenti tentativi di aggirare i CAPTCHA, che raggiungevano al massimo un successo del 70%, ma lancia anche un allarme. Gli autori hanno spiegato che, man mano che l’intelligenza artificiale migliora, sarà sempre più difficile creare test che separino efficacemente le macchine dalle persone. Google, dal canto suo, ha già iniziato a lavorare su nuovi metodi di protezione, come il reCAPTCHA v3, che è stato introdotto nel 2018 e si basa su un sistema di protezione invisibile.
Essere o non essere (umano)?
Tuttavia, questa situazione apre un interrogativo importante: fino a che punto potremo davvero continuare a garantire che l’utente dall’altra parte dello schermo sia una persona vera? Mentre le capacità dell’AI continuano a progredire, il mondo della sicurezza online dovrà trovare nuove strategie per distinguere le interazioni umane da quelle automatizzate, evitando che internet diventi una giungla di bot.