Microsoft ha annunciato due anni fa una collaborazione con il laboratorio di intelligenza artificiale OpenAI per costruire un ‘supercomputer AI’ nel cloud di Azure. Microsoft ha affermato che si trattava di uno dei più grandi cluster di supercomputer al mondo con 285.000 core CPU e 10.000 schede grafiche.
Microsoft ha annunciato una partnership ‘pluriennale’ con Nvidia per costruire un nuovo supercomputer ospitato in Azure e alimentato dalle GPU, dal networking e dal software AI di Nvidia.
Microsoft e Nvidia si preparano per il loro prodotto
I dettagli prima della stampa erano pochi. Microsoft e Nvidia hanno rivelato in un post sul blog che il prossimo supercomputer impiegherà la rete Quantum-2 400Gb/s InfiniBand e le GPU H100. Le istanze di Azure usano GPU Nvidia A100 e Quantum 200 Gb/s InfiniBand. L’H100, il fiore all’occhiello dell’architettura Hopper di Nvidia, arriva con un esclusivo ‘Transformer Engine’ per accelerare le operazioni di apprendimento automatico e promette prestazioni da 1,5 a 6 volte superiori rispetto all’A100. Offre le stesse prestazioni dell’A100 con un’efficienza energetica 3,5 volte superiore.
Nvidia utilizzerà istanze di macchine virtuali di Azure per esplorare l’IA generativa o sistemi di autoapprendimento in grado di produrre testo, codice, grafica, video o audio. Microsoft ottimizzerà la sua libreria DeepSpeed per il nuovo hardware Nvidia per ridurre al minimo la potenza di calcolo e l’utilizzo della memoria durante i carichi di lavoro di addestramento AI. L’azienda collaborerà anche con Nvidia per rendere accessibili i flussi di lavoro AI e gli SDK dei clienti aziendali di Azure.
Nvidia ha precedentemente utilizzato il proprio supercomputer, Selene, per addestrare l’IA generativa come GauGAN2, che crea arte da semplici disegni. Nvidia si aspetta che i suoi sistemi di intelligenza artificiale superino le capacità di Selene e forse anche Eos, un supercomputer proof-of-concept che sta creando con 4.608 GPU H100 e 18,4 exaflop di velocità di elaborazione dell’IA.