Microsoft potrebbe aver trovato la soluzione al problema tramite sistemi di sicurezza, il cui funzionamento poggia sostanzialmente su tre funzioni, che consentono di verificare la possibile presenza di allucinazioni e bloccarle o segnalarle all’utente.
Sono definite allucinazioni quelle risposte fornite in output dall’intelligenza artificiale che non corrispondono alla realtà o alla verità oggettiva e che quindi possono risultare dannose per l’utente, che può ottenere così informazioni incoerenti e prodotti fittizi, sviluppati da un’errata interpretazione dei dati da parte dell’AI, dall’utilizzo di dati sporchi durante la fase di addestramento o dall’assenza di contesto che permetta all’AI di produrre risposte appropriate.
Sarah Bird, chief product officer di Microsoft, a tal proposito ha dichiarato a The Verge che, l’azienda ha finalmente trovato una soluzione per arginare il problema e garantire una maggiore sicurezza ai clienti, che avranno a disposizione nuove funzioni semplici ed efficaci da impiegare durante l’utilizzo di Azure AI. Le funzioni in questione sono principalmente tre:
Presto potrebbero essere introdotte ulteriori funzionalità tramite le quali Microsoft si pone l’obiettivo di rendere la sua intelligenza artificiale ancora più affidabile e sicura.
Azure AI è la piattaforma Microsoft che sostiene le aziende proponendo servizi di intelligenza artificiale che “aiutano sviluppatori e organizzazioni a creare rapidamente applicazioni intelligenti, all’avanguardia, pronte per il mercato e responsabili con API e modelli predefiniti e personalizzabili.” Accedendo alla piattaforma è possibile conoscere quali sono i servizi offerti e come sfruttarli al meglio, accedendo alla prova gratuita di 30 giorni e provando il piano a consumo.