Nell’ultimo anno il mondo dell’Intelligenza Artificiale ha subito un’espansione a dir poco senza precedenti, i modelli neurali infatti si sono diffusi pressoché ovunque e hanno consentito agli utenti di usufruire di servizi mai vista prima, primo tra tutti come potete immaginare ChatGPT, il quale ha rivoluzionato il concetto di IA nel comune e che continua a offrire all’utenza features uniche nel suo genere.
Per usufruire dell’IA però, è necessario eseguirla in cloud in quanto in pochi al momento disporrebbero di una potenza di calcolo e di risorse hardware adeguate a muovere software di quel tipo, spesso infatti le IA sono eseguite su datacenter remoti e gli input e gli output sono presi tramite internet.
Per Nvidia però sembra arrivato il momento di cambiare qualcosa, ha infatti presentato la prima demo di un chatbot simile a ChatGPT o Copilot, che però viene eseguito completamente in locale su PC dotati di schede video RTX, cosa che effettivamente ha un senso se pensiamo che le schede già di base eseguono software di IA
all’interno dei videogiochi per migliorare il frame rate, dunque non si tratta di codici sconosciuti per le schede che di base nascono anche per questo.
Il software in questione si chiama Chat with RTX e la società specifica che sono compatibili solo le RTX 30 e le RTX 40, e con almeno 8 GB di video RAM, requisiti che però da quanto possiamo intuire, non escludono le schede laptop, ai quali dobbiamo accostare poi la necessità di Windows 11 e almeno 16 GB di RAM di sistema. Essenziale l’aggiornamento del driver video almeno alla versione 535.11.
Stando a quanto dichiarato da Nvidia il software al momento consente l’estrazione di dati da fonti testuali supportando formati di vario genere come TXT, DOCX e PDF, il tutto facendo domande in modo naturale e non macchinoso, ovviamente si capisce come ne giovi la privacy dal momento che i dati restano in locale.