Nvidia a prezentat, luni, o unitate de procesare grafică, denumită H200, concepută pentru antrenarea și implementarea tipurilor de modele de inteligență artificială care alimentează boom-ul AI generativ. Acest cip este succesorul lui H100, ale cărui prețuri de vânzare sunt estimate la 25.000 – 40.000 de dolari, potrivit CNBC.
Nvidia a spus că H200 va fi de aproape două ori mai rapid decât H100 – cipul OpenAI folosit pentru a antrena cel mai avansat model de limbaj mare al său, GPT-4.
Companiile mari, startup-urile și agențiile guvernamentale luptă pentru a se putea aproviziona cu astfel de cipuri din cauza stocurilor limitate.
Entuziasmul din piață față de GPU-urile AI ale Nvidia a generat creșterea cu peste 230% a valorii acțiunilor companiei în decursul acestui an. Nvidia se așteaptă la venituri de aproximativ 16 miliarde de dolari în trimestru al treilea fiscal, în creștere cu 170% față de un an în urmă.
Îmbunătățirea esențială a H200 este că include 141 GB de memorie „HBM3” de generația următoare, care va ajuta cipul să efectueze „inferențe” sau să folosească un model după ce este antrenat pentru a genera text, imagini sau predicții.
H200, care este de așteptat să fie livrat în al doilea trimestru al anului 2024, va concura cu GPU-ul AMD MI300X. CiAMD chip, similar cu H200, are memorie suplimentară față de predecesorii săi, ceea ce ajută la montarea modelelor mari pe hardware.
Nvidia a spus că H200 va fi compatibil cu H100, ceea ce înseamnă că firmele de AI care se antrenează deja cu modelul anterior nu vor trebui să își schimbe sistemele de server sau software-ul pentru a utiliza noua versiune.
Nvidia spune că noul cip va fi disponibil în configurații de patru sau opt GPU pe sistemele complete HGX, precum și într-un cip numit GH200, care combină GPU-ul H200 cu un procesor bazat pe Arm.