Gli strumenti basati sull’intelligenza artificiale generativa come ChatGPT possono creare contenuti in base ai comandi o alle richieste dell’utente. Più saranno utilizzati con il passare del tempo più ne noteremo gli effetti nella vita di tutti i giorni, oltre che in contesti lavorativi, in ambito sanitario o nell’istruzione. Ci saranno molti pro ma anche tanti svantaggi, come il rischio di facilitare i cyber attacchi.
L’Intelligenza Artificiale, come tutte le cose, ha dei punti vulnerabili. Quei punti sono difficile da raggirare ma non è impossibile. Rubare dati, informazioni e altro può comportare una serie di numerosi rischi. In realtà molte aziende semplicemente non sono a conoscenza di questo tipo di minacce e pericoli, proprio a causa della complessità dei chatbot. L’evoluzione di queste nuove tecnologie è talmente rapida che spesso non si ha il tempo di capirle a pieno.
Sulla piattaforma cinese Baidu-Unit gli scienziati sono riusciti a ottenere configurazioni confidenziali del server Baidu tramite codici manomessi. In risposta a quanto accaduto Baidu ha affrontato e corretto le vulnerabilità segnalate e ha premiato gli scienziati che gliel’hanno fatto notare con alcuni fondi finanziari per la loro ricerca.
“Al momento, ChatGPT sta ricevendo molta attenzione. È un sistema autonomo, quindi i rischi per il servizio stesso sono minimi, ma quello che abbiamo scoperto è che può essere indotto con l’inganno a produrre link che possono causare gravi danni ad altri servizi, hackerare singoli utenti o intere aziende”. Il rischio con le IA come ChatGPT è che sempre più persone le utilizzino come strumenti pensato per la produttività, piuttosto che come bot conversazionali, è qui che la ricerca mostra che sono le vulnerabilità. La prossima settimana il Regno Unito ospiterà una conferenza sulla sicurezza dell’intelligenza artificiale, in cui il governo inviterà i leader mondiali e i giganti del settore a riunirsi per discutere le opportunità e i problemi di sicurezza legati a queste applicazioni.