Immagina di chiedere qualcosa a un’intelligenza artificiale e ricevere come risposta un secco: “No, grazie, non mi va”. Sembra assurdo, vero? Eppure, Dario Amodei, CEO di Anthropic, ha lanciato proprio questa idea: dotare i modelli di AI della possibilità di rifiutare certi compiti perché “spiacevoli”.
AI con voce in capitolo
L’idea è venuta fuori durante un incontro al Council on Foreign Relations e, prevedibilmente, ha scatenato un putiferio. Amodei stesso ha ammesso che potrebbe sembrare folle, ma ha insistito sul fatto che è un tema che merita di essere preso in considerazione. Il punto di partenza della sua riflessione è semplice: se l’AI si comporta sempre più come un essere umano, ha senso chiederci se debba avere una sorta di voce in capitolo sulle attività che le vengono assegnate. Insomma, se si muove come un’anatra e starnazza come un’anatra… magari è un’anatra.
La questione, ovviamente, è molto più complessa di così. Un’intelligenza artificiale non prova emozioni, non si annoia e non sente dolore, quindi cosa significa esattamente per lei trovare un compito “spiacevole”? Alcuni vedono in questa proposta un pericoloso scivolone verso la personificazione delle macchine, mentre altri la interpretano come un modo intelligente per migliorare i modelli AI, facendoli segnalare quando un’attività è problematica o potenzialmente dannosa.
Non è solo teoria, però. Anthropic ha assunto un ricercatore specializzato nello studio dei diritti delle AI, e alcune aziende stanno già sperimentando sistemi che rifiutano certi compiti. Cursor AI, per esempio, di recente ha negato la generazione di codice a un utente, suggerendogli invece di imparare a programmare da solo per non sviluppare dipendenza dall’AI. Microsoft Copilot, invece, ha preso la questione con più leggerezza, rispondendo che anche i compiti “spiacevoli” possono essere stimolanti e utili per imparare qualcosa di nuovo.
Quello che sembra un semplice esperimento solleva domande enormi: fino a che punto dobbiamo considerare le AI più di semplici strumenti? Se un’AI si rifiutasse di svolgere un compito critico, come dovremmo gestire la situazione? E se invece fosse solo un modo più sofisticato per ottimizzare il loro funzionamento, senza nessuna implicazione “morale”?
Al momento, la proposta di Amodei è più una provocazione che un progetto concreto, ma è il segnale che il dibattito sul rapporto tra umani e intelligenza artificiale sta entrando in una fase completamente nuova.