Negli ultimi anni, l’intelligenza artificiale ha rivoluzionato numerosi settori, ma non è immune da difetti, tra cui le temute “allucinazioni” che possono compromettere l’affidabilità delle informazioni fornite. Microsoft ha affrontato questo problema con determinazione, presentando soluzioni innovative per migliorare la precisione delle risposte generate dalle sue IA, come riportato nel recente post sul blog Microsoft Source.
Le allucinazioni delle intelligenze artificiali
Le “allucinazioni” nell’ambito dell’IA si manifestano quando i modelli generano risposte inaccuratamente aggiungendo o alterando informazioni. Questo fenomeno può compromettere la qualità delle informazioni distribuite, influenzando negativamente decisioni e analisi basate su questi dati. Per affrontare questo problema in modo efficace, Microsoft ha sviluppato una serie di strategie mirate.
Una delle iniziative più promettenti è il potenziamento di Copilot attraverso l’integrazione dei dati di ricerca di Bing. Utilizzando la tecnica denominata “generazione aumentata dal recupero“, Microsoft arricchisce il modello con informazioni aggiuntive provenienti dal vasto database di Bing. Questo approccio non richiede un riaddestramento completo del modello ma permette a Copilot di offrire risposte più precise, complete di citazioni che facilitano la verifica delle informazioni da parte degli utenti.
Per le aziende e le organizzazioni che utilizzano l’Azure OpenAI Service, Microsoft offre la funzione “On Your Data“. Questa permette di integrare i dati interni direttamente nelle applicazioni di intelligenza artificiale, migliorando ulteriormente la pertinenza delle risposte fornite dai sistemi di chatbot. Inoltre, è stato introdotto uno strumento in tempo reale per monitorare e migliorare il grado di “concretezza” delle risposte, assicurando un flusso informativo più affidabile e accurato.
Verso tecnologie più precise con Microsoft
Tra le prossime innovazioni previste, spicca la funzionalità di blocco e correzione in tempo reale delle informazioni erronee generate dalle IA. Questo strumento si propone di individuare e correggere automaticamente i dati infondati, assicurando che le risposte siano sempre basate su fatti verificabili e dati concreti. Sebbene la data di rilascio ufficiale non sia stata ancora comunicata, l’introduzione di questa funzionalità rappresenterà un passo cruciale verso una maggiore affidabilità delle IA.