Sta per arrivare la prossima generazione dei chip personalizzati per l’intelligenza artificiale di Meta. Secondo quanto è stato dichiarato questi saranno molto più potenti e in grado di addestrare i modelli di ranking dell’azienda ad una velocità decisamente superiore.
Il chip in questione è definito Meta Training and Inference Accelerator (MTIA) ed è stato progettato per funzionare meglio con i modelli di ranking e raccomandazione offerti da Meta stessa. Secondo quanto è stato dichiarato dall’azienda di Mark Zuckerberg MTIA rappresenta un passo fondamentale per poter costruire un’infrastruttura utile per poter utilizzare l’intelligenza artificiale nei propri servizi. Lo scopo ultimo è quello di progettare chip che funzionano con l’infrastruttura tecnologica attuale. Inoltre, si sta lavorando affinché possano essere usati anche con le future versioni delle GPU.
Meta si impegna nella produzione di nuovi chip AI
Attualmente, MTIA si occupa soprattutto dell’addestramento degli algoritmi di ranking e raccomandazione, come accennato poco fa. Sembra però che Meta stia puntando ad espandere le capacità del chip. Lo scopo è quello di includere anche l’addestramento dei modelli di AI generativa. Tra questi sono compresi anche i suoi modelli di linguaggio Llma.
Secondo quanto dichiarato da Mera il nuovo chip si focalizza soprattutto sul fornire l’equilibrio migliore tra la potenza di calcolo, la larghezza della banda e la capacità di memoria. Riguardo quest’ultimo fattore, sembra che il chip presenterà una memoria on–chip da 256 MB ed una frequenza di 1,3 GHz.
I dati rilasciati da Meta dopo i primi test hanno mostrato prestazioni tre volte superiori rispetto alla prima generazione su quattro modelli che sono stati valutati dall’azienda. L’intelligenza artificiale richiede elevatissime potenze di calcolo e proprio per questo diverse aziende del settore stanno indirizzando la propria attenzione alla produzione di chip personalizzati. In questo modo si punta a ridimensionare lo strapotere di NVIDIA nell’intero settore. Tra gli esempi principali, ad esempio, troviamo i chip TPU del 2017 di Google, o il Trainium 2 di Amazon. Mentre Microsoft sta lavorando alla propria soluzione proprietaria, ovvero Maia 100.