Ancor prima del rilascio del suo modello OpenAi avrebbe incaricato un gruppo di esperti per la valutazione dei suoi rischi. A distanza di qualche mese i risultati della ricerca sono stati pubblicati dalla stessa OpenAi, che classifica GPT-4o come un modello a rischio medio.
A esser state valutate sarebbero problematiche come la possibilità che ChatGPT-4o possa sfruttare illecitamente la voce
degli utenti per creare dei cloni senza alcuna autorizzazione; utilizzare clip audio protette da copyright; o realizzare contenuti erotici e violenti. Una caratteristicA che sembrerebbe aver sollevato non pochi dibattiti, inoltre, sarebbe la capacità di persuasione dei testi elaborati dal modello, che seppur in minima parte, risulterebbe abbastanza efficace.L’analisi condotta dagli esperti, infatti, tiene conto di una media calcolata sui risultati ottenuti dal modello in quattro categorie: la sicurezza informatica, minacce biologiche, persuasione e autonomia del modello. Mentre le prime due categorie avrebbero ottenuto un livello di rischio basso, quest’ultima è stata classificata a rischio medio.
OpenAi presto potrebbe vedersi costretta ad assumere un atteggiamento più trasparente nei confronti degli utenti. Soprattutto qualora venga approvata la legge proposta dai legislatori della California, circa l’obbligo delle aziende di testare i loro modelli di AI prima di renderli disponibili per gli utenti così da garantire una maggiore sicurezza.