Maggio 17, 2024

Italnews

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Nvidia GH200: Grade Hopper ha appena ricevuto l’aggiornamento HBM3e

Nvidia GH200: Grade Hopper ha appena ricevuto l’aggiornamento HBM3e

La GPU H100 ottiene un altro aumento di velocità: Nvidia la sta lanciando con HBM3e invece dei componenti di memoria HBM3. Ciò aumenta la capacità e il throughput della RAM e ha lo scopo di accelerare l’addestramento di modelli AI particolarmente grandi.

annuncio

Nvidia parla una lingua Pubblicità per una mostra di cigrafi di un aumento di un fattore di 3,5 – ovviamente in scenari “casi migliori” selezionati. Tuttavia, per ora, la GPU H100 migliorata è disponibile solo come chip GH200 “di fascia alta” insieme al processore ARM di Nvidia su un circuito stampato generico.

In questa variante, l’acceleratore utilizza 141 GB di memoria HBM3e con una velocità di trasferimento di circa 5 TB/s. Nvidia non fornisce alcun background tecnico per questa capacità deformata: alcune locazioni di memoria potrebbero essere fuori servizio. Samsung, SK Hynix e Micron stanno inizialmente producendo componenti con capacità fino a 24 GB, sei dei quali produrranno effettivamente 144 GB.

Nella versione H100 originale, sono attivi cinque dei sei blocchi HBM3 allegati. È possibile utilizzare 80 GB di RAM a una velocità di trasferimento di 3,35 TB/s. Con l’H100 NVL è attiva la sesta unità HBM3. Ciò aumenta la capacità a 94 GB (anche i singoli livelli di archiviazione sono disattivati ​​qui) e la velocità di trasferimento a 3,9 TB/s.

GPU

H100

H100 NVL

H100 (pannello GH200)

core dello shader

14.592

14.592

14.592

magazzinaggio

80GB HBM3

94GB HBM3

141HBM3e

tasso di trasferimento

3,35 TB/sec

3,9TB/sec

circa 5TB/sec

Il resto dell’equipaggiamento non cambia tra le tre versioni. Usano tutti 14.592 core shader, che raggiungono una potenza di calcolo di circa 4 petaflop durante l’addestramento dell’IA. Questo valore si applica al calcolo dell’8° PQ con scarsa precisione, ma è sufficiente per l’addestramento.

annuncio

Con 72 core ARM Neoverse V2, la CPU Grace delle schede GH200 appartiene alla classe medio-alta di questi tempi. Il carico di calcolo principale è la GPU H100.

I primi sistemi con le nuove schede GH200 dovrebbero essere disponibili nel secondo trimestre del 2024. Per allora, i produttori di memorie dovrebbero essere in grado di offrire componenti HBM3e. Inoltre, Nvidia ha ancora tempo per alleviare i colli di bottiglia nelle consegne.

I sistemi contenenti la precedente combinazione Grace Hopper sono ancora rari. Nvidia lo ha annunciato all’inizio dell’estate 2022 per la prima metà del 2023; I primi modelli sono stati presentati alla fiera Computex di maggio. Tuttavia, deve ancora apparire in commercio.


(Maestro)

alla pagina iniziale