I bot automatizzati rappresentano una minaccia significativa per Internet perché possono fingersi utenti umani legittimi. Sono in grado di eseguire operazioni dannose come lo scraping di contenuti, la creazione di account e la pubblicazione di commenti o recensioni falsi, nonché il consumo di risorse. “I robot possono eseguire queste azioni su larga scala”, spiegano gli esperti. Per oltre due decenni, i test Captcha sono stati implementati come controlli di sicurezza dai siti Web per bloccare bot potenzialmente dannosi presentando enigmi che dovrebbero essere semplici da risolvere per le persone, ma molto difficili per i computer.
Le forme precedenti di Captcha, ad esempio, chiedevano agli utenti di trascrivere un testo distorto da un’immagine. Con i progressi dell’intelligenza artificiale e dell’apprendimento automatico, i robot hanno presto raggiunto il riconoscimento del testo con una precisione quasi perfetta. I Captcha si sono da allora evoluti con una sempre più pressante presenza su Internet, diventando più difficili da risolvere sia per i bot che per gli umani. Tuttavia, la nuova ricerca pubblicata su arXiv rileva che i bot sono in grado di decifrare rapidamente i test Captcha.
Nello studio, gli scienziati hanno valutato 200 dei siti Web più popolari e hanno trovato 120 Captcha ancora utilizzati in molti siti. Hanno chiesto l’aiuto di 1.000 partecipanti online di diverso tipo – che variano per località, età, sesso e livello di istruzione – per sostenere 10 test captcha e valutare i livelli di difficoltà. I ricercatori hanno scoperto che molti robot descritti nelle riviste scientifiche potrebbero battere gli umani in questi test sia in termini di velocità che di precisione.
Alcuni test Captcha hanno richiesto ai partecipanti umani dai nove ai 15 secondi per essere risolti, con una precisione dal 50 all’84% circa, mentre i robot hanno impiegato meno di un secondo per decifrarli, raggiungendo quasi la perfezione. “La precisione dei robot varia dall’85 al 100%, con la maggioranza superiore al 96%. Questo supera sostanzialmente l’accuratezza umana”, spiegano gli scienziati nello studio. Hanno anche scoperto che i tempi di risoluzione dei bot sono “significativamente inferiori” o quasi uguali a quelli degli umani in quasi tutti i casi. Poiché gli attuali Captcha non soddisfano l’obiettivo di sicurezza richiesto di tenere lontani i bot, i ricercatori ritengono siano necessari approcci migliori e più dinamici per proteggere i siti web.