Tuttavia c’è da comprendere come un sistema come quello dell’intelligenza artificiale che fino a qualche tempo fa veniva considerato assolutamente obiettivo possa cadere vittima di simili distorsioni. Il problema di fondo risiede nei bias, la tendenza a trasmettere o elaborare un’informazione in secondo dei dati pregiudizievoli e dalla tendenza specifica. Un problema che tutt’oggi affligge l’intelligenza artificiale e non ha ancora trovato una soluzione definitiva.
Sono molti i fattori a rendere difficile la risoluzione di questo genere di problema; al di la della difficile individuazione del pregiudizio all’interno del sistema dell’intelligenza artificiale
, influiscono anche i dati immessi dall’uomo stesso. Per fare un esempio concreto si può pensare al problema che si creò qualche tempo fa con i primi sistemi di riconoscimento facciale. Numerosi studi hanno dimostrato come l’intelligenza artificiale preposta al riconoscimento dei tratti somatici di una persona avesse più possibilità di commettere un errore con persone dalla carnagione scura o di organi asiatiche.In questo caso il problema era generato dal modello utilizzato per l’istruzione del intelligenza artificiale che avevano prediletto l’utilizzo di immagini di uomini caucasici. Appare dunque evidente che dietro il cosiddetto “razzismo dei computer” si celi ancora una volta la mano dell’uomo. Di certo non era nelle intenzioni dei programmatori effettuare questo tipo di discriminazione; tuttavia resta un fattore da tenere in considerazione per rendere la tecnologia uno strumento di inclusione piuttosto che un mezzo divisivo.