Quando si istruisce, per esempio, un sistema al riconoscimento di una immagine contente un elemento specifico, l’intelligenza artificiale non sarà in grado di distinguere gli elementi di reale interesse da quelli, potremmo definirli, di contorno; un esempio lampante potrebbe essere quello dei meme. Una macchina non sarà in grado di distinguere la parte testuale dall’immagine vera e propria.
In questo modo l’intelligenza artificiale imparerà che la figura “gatto” sarà composta anche dalla frase non avendo la capacità di distinguere i due elementi. Sfruttando questo limite è possibile inquinare
la progettazione di un’intelligenza artificiale con la tecnica del data poisoning. La tecnica è concettualmente semplice; consiste nell’inserire immagini, o più in generale dati, che compromettano il processo di assimilazione delle informazioni dell’I.A. Benché la tecnica sia di semplice intuizione, la sua attuazione risulta più complessa; per riuscire ad applicarla, l’hacker di turno, dovrà riuscire ad accedere ai programmi adibiti all’istruzione dell’A.I.Il problema però non va preso sottogamba, specie in un mondo in cui l’utilizzo dell’intelligenza artificiale sta diventando sempre più comune. Basti pensare ai rischi pericoli che causerebbe un’intelligenza artificiale preposta al riconoscimento dei segnali stradali; attraverso il data poisoning si potrebbe istruire la macchina ad interpretare un segnale di stop come un limite di velocità mettendo a repentaglio la vita dei passeggeri e non solo.