Il co-fondatore di DeepMind, società di Google, ha espresso le sue preoccupazioni sull’uso dell’intelligenza artificiale. Quest’ultima è in grado di progettare agenti patogeni e causare danni a tal punto da portare ad un possibile scenario simile a quello pandemico fronteggiato negli ultimi anni. “L’ipotesi peggiore è che le persone sperimenteranno agenti patogeni, sintetici ingegnerizzati che potrebbero finire per essere, accidentalmente o intenzionalmente, più trasmissibili o più letali”.
Analogamente, così come esistono restrizioni per impedire alle persone di accedere facilmente a microbi patogeni come l’antrace, Suleyman ha chiesto i mezzi per limitare l’accesso alla tecnologia avanzata con IA e al software che esegue tali modelli. “È qui che abbiamo bisogno di contenimento. Dobbiamo limitare l’accesso agli strumenti e al know-how per portare avanti questo tipo di sperimentazione”, spiega nel podcast The Diary of a CEO.
“Non possiamo permettere a chiunque di accedervi. Dobbiamo limitare la possibilità di accedere al software dell’intelligenza artificiale, i sistemi cloud e persino parte del materiale biologico”, spiega il cofondatore di Google DeepMind. “E ovviamente dal punto di vista biologico ciò significa limitare l’accesso ad alcune sostanze
”, spiega aggiungendo che lo sviluppo dell’intelligenza artificiale deve essere affrontato con un “forte senso di precauzione”.Le dichiarazioni di Suleyman fanno eco alle preoccupazioni sollevate in un recente studio secondo il quale anche dei “semplici” studenti universitari senza un background in biologia possono fornire suggerimenti dettagliati per produrre questa tipologia di armi partendo da sostanze biologiche. I ricercatori, compresi quelli del Massachusetts Institute of Technology, hanno scoperto che i chatbot possono suggerire “quattro potenziali agenti patogeni pandemici” entro un’ora e spiegare come possono essere generati dal DNA sintetico.
La ricerca ha scoperto che i chatbot “fornivano anche i nomi delle società di sintesi del DNA che difficilmente avrebbero vagliato gli ordini, identificato protocolli dettagliati e come risolverli e raccomandato a chiunque non avesse le competenze per eseguire la genetica inversa di impegnarsi in una struttura principale o in un’organizzazione di ricerca a contratto”. Tali modelli linguistici di grandi dimensioni (LLM), come ChatGPT, “renderanno gli agenti di classe pandemica ampiamente accessibili non appena saranno identificati in modo credibile, anche a persone con poca o nessuna formazione”, afferma lo studio.