OpenAI ChatGPT-4o GPT 4o, il nuovo modello di ChatGPT, è stato protagonista di una ricerca condotta e pubblicata dalla stessa OpenAI riguardo il suo livello di rischio. Il modello è stato rilasciato nel mese di maggio introducendo numerosissime opportunità per gli utenti, che possono sfruttarlo per ricevere in output risultati multimodali, fatti di testo, audio, immagini o video. GPT-4o si distingue dai modelli precedenti anche per la sua capacità di riconoscere e interpretare le emozioni e le espressioni facciali degli utenti così da fornire risposte appropriate. Proprio quest’ultima funzione avrebbe indotto un team di esperti a valutare il livello di rischio del nuovo modello di OpenAi.

OpenAi: ChatGPT-4o ha un livello di rischio medio

 

Ancor prima del rilascio del suo modello OpenAi avrebbe incaricato un gruppo di esperti per la valutazione dei suoi rischi. A distanza di qualche mese i risultati della ricerca sono stati pubblicati dalla stessa OpenAi, che classifica GPT-4o come un modello a rischio medio. 

A esser state valutate sarebbero problematiche come la possibilità che ChatGPT-4o possa sfruttare illecitamente la voce degli utenti per creare dei cloni senza alcuna autorizzazione; utilizzare clip audio protette da copyright; o realizzare contenuti erotici e violenti. Una caratteristicA che sembrerebbe aver sollevato non pochi dibattiti, inoltre, sarebbe la capacità di persuasione dei testi elaborati dal modello, che seppur in minima parte, risulterebbe abbastanza efficace.

L’analisi condotta dagli esperti, infatti, tiene conto di una media calcolata sui risultati ottenuti dal modello in quattro categorie: la sicurezza informatica, minacce biologiche, persuasione e autonomia del modello. Mentre le prime due categorie avrebbero ottenuto un livello di rischio basso, quest’ultima è stata classificata a rischio medio.

OpenAi presto potrebbe vedersi costretta ad assumere un atteggiamento più trasparente nei confronti degli utenti. Soprattutto qualora venga approvata la legge proposta dai legislatori della California, circa l’obbligo delle aziende di testare i loro modelli di AI prima di renderli disponibili per gli utenti così da garantire una maggiore sicurezza.

 

Articolo precedenteGemini Nano: debutto su Samsung Galaxy Z Fold 6 e Flip 6
Articolo successivoVodafone Silver: giga extra a prezzi stracciati!