Google ha sviluppato un chatbot chiamato Bard, che è in grado di generare risposte coerenti e realistiche a una serie di domande. Tuttavia, gli esperti di sicurezza informatica avvertono che Google Bard, come altri chatbot, potrebbe essere sfruttato per attività di phishing e truffe via email.
Bard è un chatbot basato su intelligenza artificiale che utilizza un modello di linguaggio per generare risposte. Questo è addestrato su una vasta gamma di dati di testo, permettendo all’AI di rispondere a una serie di domande in modo realistico e coerente. Tuttavia, questa stessa capacità potrebbe essere sfruttata da elementi malevoli per condurre attacchi di phishing.
Secondo Acronis, una società di sicurezza informatica, le email di phishing sono aumentate del 464% nella prima metà del 2023 rispetto al 2022. Ciò è dovuto in parte all’uso di chatbot come Bard. Gli attacchi di phishing
utilizzano spesso email che sembrano provenire da fonti legittime per ingannare gli utenti e indurli a rivelare informazioni personali o finanziarie. Ad esempio, un malintenzionato potrebbe utilizzare un chatbot per generare un’email che sembra provenire da una banca o da un altro fornitore di servizi. L’email potrebbe chiedere all’utente di confermare le proprie credenziali o di fornire altre informazioni sensibili, che potrebbe poi utilizzare per accedere ai conti dell’utente o per commettere altre forme di frode.Mentre Google e altre aziende continuano a sviluppare e migliorare i chatbot, è importante che gli utenti siano consapevoli dei potenziali rischi di sicurezza. Questi dovrebbero essere cauti quando ricevono email non sollecitate che chiedono informazioni personali o finanziarie, e dovrebbero verificare sempre l’autenticità di tali email prima di rispondere. Inoltre, gli utenti dovrebbero utilizzare strumenti di sicurezza come l’autenticazione a due fattori per proteggere i propri conti online.