L’utilizzo dell’intelligenza artificiale sta interessando sempre più ambiti e questo non è un mistero. Le persone che si stanno mettendo alla ricerca delle varie soluzioni che possono adottare con questa nuova risorsa, sono sempre di più e anche i benefici che ne vengono fuori. La tecnologia si rapporta alla grande con questo nuovo ambito e ovviamente tutto ciò può portare anche a qualche rischio di troppo.
Secondo quanto riportato infatti questa volta non si parla di intelligenza artificiale rapportata all’economia, bensì ai rischi che possono riguardare la sicurezza
. L’IA potrebbe essere infatti utilizzata anche in alcuni contesti molto più delicati come quello delle armi batteriologiche e nucleari.L’allarme è arrivato fin dal primo momento e a lanciarlo è stato il CEO di OpenAI, creatrice di ChatGPT, Sam Altman. Il manager ha ribadito la necessità di una nuova regolamentazione che possa vietare l’utilizzo improprio della tecnologia, con un ordine esecutivo emesso anche dalla Casa Bianca. Questo è stato prodotto proprio per impedire che l’intelligenza artificiale possa essere sfruttata per la realizzazione di armi e materiali biologici molto pericolosi.
Un nuovo studio è stato coinvolto con ben 50 esperti di biologia e 50 studenti delle università che hanno simulato la creazione di una nuova minaccia di tipo biologico. Esattamente la metà ha utilizzato solo Internet, mentre l’altra metà ha avuto accesso alle informazioni che sono state fornite da una versione particolarmente elaborata di GPT-4.
Le differenze sono state statisticamente poco significative e l’utilizzo dell’intelligenza artificiale, secondo quanto riportato, avrebbe fornito solo un piccolo aumento nell’acquisizione delle informazioni utili per creare una minaccia biologica. Ciò sta a significare dunque che il rischio dell’utilizzo improprio dell’IA in questo campo è realmente minimo.
“Sebbene non siano emerse differenze statisticamente significative in merito a questo parametro, è stato osservato che i partecipanti che avevano accesso al modello tendevano a fornire risposte più estese, arricchite da un maggior numero di dettagli importanti ai fini dell’attività.”