Nel recente lancio del chip, AMD ha parlato delle prestazioni di inferenza della GPU H100 rispetto a quelle del chip MI300X, I risultati che sono stati condivisi non hanno utilizzato un software ottimizzato e l’H100, risulta 2 volte più veloce. Nvidia ha risposto contrapponendosi all’affermazione espressa da AMD secondo cui l’MI300X, è al 40-60% più veloce rispetto a Nvidia nell’elaborazione dell’inferenza per l’intelligenza artificiale generativa.
Dagli ultimi risultati, eseguiti su un software antecedente alla presentazione del chip e un batching per la latenza (2,5 secondi), Nvidia batte l’MI300X di 14 volte.
Se sei interessato all’MI300X, non ti stiamo dicendo che non sia efficiente o che sia una pessima piattaforma AI. Sembra essere il terzo chip AI più veloce, dietro a Cerebras con l’enorme WSE CS2 e la Nvidia H100. e questo è buono per chi è alla ricerca una GPU con un prezzo ragionevole (anche se AMD non ha rilasciato nessun prezzo).
Il mercato degli hardware AI si muove molto velocemente e l’H100 farà spazio all’H200 più rapidamente di quanto AMD si aspetta. L’MI300 ha specifiche migliori rispetto all’H100, ma è necessario un software ottimizzato per far funzionare i chip AI. Anche se AMD ROCm ha fatto molti progressi, AMD ha ancora molto lavoro da fare, ma siamo sicuri riuscirà a raggiungere ottimi risultati in futuro.