Google ha annunciato un’importante novità per il suo sistema di intelligenza artificiale, Gemini. La nuova funzione, chiamata Gemini Live, permette all’AI di vedere il mondo in tempo reale, sia attraverso la fotocamera dello smartphone che lo schermo. Questo aggiornamento permette di avere una maggiore velocità nell’avere risposte dall’assistente o di ricevere subito informazioni, grazie a ciò che viene inquadrato o visualizzato. Alex Joseph, portavoce di Google, ha confermato che verrà aggiunta questa nuova funzione. La particolarità è che arriverà solo negli Stati Uniti. In altri mercati, gli utenti dovranno probabilmente aspettare un po’ di più.
Google ha creato un nuovo livello di interazione con l’intelligenza artificiale
Il lancio di queste nuove funzionalità è stato anticipato da un utente di Reddit che ha condiviso un video dimostrativo sul suo telefono Xiaomi. Questo ha mostrato come Gemini sia in grado di leggere lo schermo, un aspetto fondamentale della tecnologia annunciata a marzo per gli abbonati al piano Gemini Advanced, che fa parte di Google One AI Premium. Inoltre il video live è ora in fase di perfezionamento. Così si permetterà a Gemini di interpretare i flussi video in tempo reale, come ad esempio rispondere a domande relative agli oggetti o scene catturate dalla fotocamera del dispositivo.
La funzione video live di Gemini rappresenta una svolta significativa nell’evoluzione dell’assistenza digitale, con implicazioni che vanno oltre le normali capacità di un assistente virtuale. Ad esempio nel video si riprende un utente che chiede consiglio a Gemini sul colore della vernice da utilizzare per una ceramica appena smaltata. Questo tipo di dialogo ci mostra come l’intelligenza artificiale viene sempre più utilizzata anche nelle situazioni quotidiane, interpretando ciò che viene visto in tempo reale e rispondendo a richieste pratiche. Ma non è da dimenticare che l’accesso a queste funzionalità è attualmente riservato solo agli abbonati al piano premium, il che ne restringe la diffusione.