OpenAI si spinge verso una frontiera complessa e affascinante: la moralità delle macchine. Attraverso la sua branca no-profit, ha avviato un progetto ambizioso finanziando un team della Duke University per sviluppare un’intelligenza artificiale capace di comprendere e applicare principi etici. L’iniziativa, denominata “Research AI Morality“, ha ricevuto un finanziamento di un milione di dollari, da distribuire in tre anni.
Il progetto è guidato dal professor Walter Sinnott-Armstrong, figura di spicco nel campo dell’etica pratica, e dalla ricercatrice Jana Schaich Borg. Il loro lavoro si concentra sulla creazione di algoritmi in grado di prevedere i giudizi morali umani, affrontando dilemmi reali come quelli legati alla medicina e al diritto. Sinnott-Armstrong ha già esplorato questioni etiche complesse, come la selezione dei destinatari di trapianti di organi, cercando di bilanciare le prospettive del pubblico e degli esperti per garantire equità.
L’obiettivo è ambizioso, ma le sfide non mancano. Tentativi precedenti, come il progetto Ask Delphi dell’Allen Institute for AI, hanno evidenziato i limiti dell’insegnare la moralità alle macchine. Delphi, pur capace di risolvere semplici dilemmi morali, mostrava risposte problematiche se le domande venivano riformulate, evidenziando i limiti degli algoritmi basati sui dati di addestramento.
Questo approccio riflette i pregiudizi insiti nei dati, spesso legati a culture dominanti, e solleva interrogativi sulla possibilità di creare un’AI realmente “morale“. La moralità varia da società a società e manca di quadri universali, rendendo complesso allineare l’intelligenza artificiale ai valori umani in modo significativo.
Resta aperta anche la domanda se sia auspicabile affidare alle macchine il compito di prendere decisioni morali. Le implicazioni di un tale sviluppo sarebbero profonde, potenzialmente trasformando il rapporto tra esseri umani e tecnologia. Per ora, si guarda al 2025, termine del finanziamento, per valutare i progressi raggiunti e capire se il sogno di un’AI etica sia realizzabile o ancora lontano.