L’ultimo anno è stato caratterizzato dalla corsa all’Intelligenza Artificiale delle varie aziende coinvolte nel mondo dell’informatica, tutti infatti hanno iniziato a dotarsi di un proprio modello IA da diffondere poi al pubblico o da integrare anche all’interno dei vari programmi come Edge o le UI degli smartphone.
Ciò ha ovviamente portato di conseguenza alla corsa verso le GPU create appositamente per l’addestramento dei modelli neurali, dinamica che ha permesso a Nvidia di fare affari davvero d’oro vendendo le proprie schede H100 veramente a tutti, richiestissime e potentissime, queste ultime in particolare costerebbero addirittura 4 volte di più rispetto alle controparti prodotte da casa AMD, scopriamo perchè.
I prezzi precisi di queste schede video sono tutt’ora sconosciuti al grande pubblico in quanto, sebbene elevatissimi, le varie aziende spesso riescono a ottenere sconti consistenti sul prezzo grazie ad ordini decisamente imponenti, basti pensare a Meta che ne ha acquistate addirittura 50.000, ordine che ha sicuramente ottenuto un abbassamento di prezzo consistente.
A sorprendere è però l’enorme gap di prezzo tra le soluzioni di AMD e di Nvidia, infatti gli acceleratori AMD Instinct MI300X da 192 GB costino circa 10.000-15.000 Dollari al pezzo, questi ultimi ad esempio sono molto utilizzati da Microsoft per gestire la sua architettura Copilot basata su GTP4 e che quest’ultima paga con sconto 10.000 dollari al pezzo grazie ad una partnership con AMD, le controparti Nvidia invece, le H100 da 80Gb costano addirittura tra i 30.000 e i 40.000 dollari al pezzo, quasi il quadruplo.
Il prezzo in questione è tra l’altro il price tag di partenza, che lievita se ad esempio si sceglie una versione con add-in HBM2E o di una più performante GPU H200.
La risposta a questa differenza di prezzo è probabilmente ricercabile all’interno della differente architettura delle schede e nei software, sembra infatti che la combo driver Nvidia e CUDA sia meglio ottimizzata e performante rispetto al binomio drivers e CDNA3 di AMD.