Anca Dragan è una donna a capo di una squadra all’Università della California a Berkely. Il lavoro di tale team è creare possibili scenari da incubo nei rapporti umani-Intelligenza Artificiale. Lo scopo è capire come prevenire tali dinamiche negative.
Il dipartimento è chiamato Centro per l’intelligenza artificiale compatibile. Il personale del dipartimento fa esattamente quello che il rispettivo nome fa intuire. Gli umani commettono errori e possono travisare desideri o dettagli importanti, anche verso gli altri. Ecco che subentrano Dragan e il suo team.
Il Centro per l’IA compatibile è sostanzialmente basato sul concetto che l’intelligenza artificiale potrebbe gestire le incoerenze umane. Uno dei modi principali è facendo in modo che l’IA esamini un compito per capirlo a pieno. Dragan e il suo team, infatti, vogliono che i programmi IA siano in grado di dire quando un obiettivo che hanno ricevuto potrebbe non corrispondere alla volontà di un umano. Ciò si realizzerà insegnando ai programmi a dare la priorità a risultati, compiti e valori, più o meno allo stesso modo degli umani.
L’intelligenza Artificiale e gli esseri umani collaboreranno per trovare le soluzioni ad eventuali errori.
L’obiettivo è che i programmi di intelligenza artificiale riconoscano quando il loro compito è discutibile. In tal modo potranno controllare il compito con l’essere umano che ha emesso le istruzioni. Si mira ad ottenere chiarimenti o informare l’umano di un risultato negativo e causare un effettivo miglioramento.
La fantascienza popolare e i veri esperti sono diventati filosofici nel corso degli anni riguardo ciò che l’intelligenza artificiale nel bene e nel male rappresenta. L’attuale tendenza di integrare l’intelligenza artificiale e la robotica avanzata annullerà quel potenziale problema. Questa problematica non è minimamente da sottovalutare. Più la tecnologia è presente nella quotidianità più è importante integrarla positivamente, evitando conflitti di qualsiasi tipo.