Hirdetés

Mit rejteget az NVIDIA Hopper architektúra?

Ha az A100-ra azt írtuk, hogy gépi tanuláshoz készült, akkor ez az új H100-ra hatványozottan igaz.

Hirdetés

A Hopper nagyvonalakban

A H100 a memóriaalrendszer tekintetében sokban hasonlít az előző generációs A100-ra. Megmaradt a méretes interposer, amelyre hat darab, egyenként 16 GB-os, azaz összesen 96 GB HBM3 vagy HBM2e memória kerül. Ebből kitalálható, hogy 6144 bites a memóriabusz, mivel a hat darab memóriatömb egyenként 1024 bites buszon keresztül kapcsolódik a GPU-hoz. Persze a tényleges hardverekben egy darab 1024 bites csatorna le lesz tiltva, így végül 5120 bites buszon fog 80 GB-nyi fedélzeti tár működni, és a HBM3 szabványra építve ez így is biztosít majd 3 TB/s-os memória-sávszélességet. Ez még nem végleges adat, mert a memóriák órakeléről még nem döntött az NVIDIA, de nagy változás nem valószínű.

NVIDIA H100
NVIDIA H100 [+]

A Hopper architektúra a strukturális felépítést tekintve sokban hasonlít az elődjeire. A legfontosabb feldolgozótömb a GPC, ami a Graphics Processing Clusternek rövidítése. Ebből nyolc darab található az új dizájnban, és egy GPC-ben kilenc darab TPC, azaz Texture Processor Cluster található, és ezeken belül bújuk meg két-két darab, SM nevű multiprocesszor, amelyekről az első oldalon értekeztünk, így ezek részletes felépítését már kifejtettük.

Van azonban egy változás az előző generációs dizájnokhoz képest, ugyanis az NVIDIA két részre strukturálja a teljes lapkát, vagyis a beépített nyolc darab GPC két darab, négy GPC-vel rendelkező logikai blokként működik. Ennek az oka valószínűleg az, hogy a Hopper architektúra már annyira sok feldolgozót tartalmaz, hogy a rendkívül sok futtatható konkurens szál mellett skálázási limitekbe ütközne a régóta használt memóriamodellel. Ezt az NVIDIA úgy kezeli, hogy két logikai blokkra osztja a teljes lapkát, ezzel kettévágva az összesen amúgy 50 MB-os L2 gyorsítótárat, illetve az ahhoz kapcsolódó memóriacsatornákat. A grafikus képességeket figyelembe véve az NVIDIA szerint a H100 nem rendelkezik kijelzőmotorral, NVENC kódolómotorral, illetve sugárkövetést gyorsító feldolgozókkal sem, de grafikai feladatokra nagyon korlátozott mértékben azért képes, mert az egyik GPC-ben található setup motor, amelyhez papíron két TPC van hozzákötve. Ezek közül azonban az egyik TPC grafikai képessége le lesz tiltva, ami valószínűleg egy kihozatal növelését célzó döntés.

A H100 az A100-hoz hasonló dizájnban érkezik, így fontos az NVLINK interfész, illetve az SXM formátum, ennek is az ötödik generációs verziója. A friss lapkában 18 darab, kétirányú kommunikációra képes NVLINK található, így összesen 900 GB/s biztosított. A lapkák összeköttetése szempontjából több lehetőség van. Négy GPU-ig elég szimplán az NVLINK-et használni, míg nyolc GPU-nál már NVSwitch is kell. A host processzor felé x16-os PCI Express 5.0-s interfész áll rendelkezésre, de opcionálisan itt is lehet élni az NVLINK-kel, ha az adott CPU képes natívan támogatni. A fogyasztás terén egyébként a H100 új szintet üt meg, ugyanis 700 wattos energiaigénnyel rendelkezik, de a hagyományos, PCI Express 5.0-s kiépítéssel már 350 watt mellett üzemel, de persze ez jóval kisebb teljesítményt is jelent.

NVIDIA H100 SXM5
NVIDIA H100 SXM5 [+]

A várható H100-as modellek biztosan nem változó paramétereit az alábbi táblázat részletezi:

NVIDIA Hopper architektúrára épülő H100 modellek
Típus H100 SXM5 H100 PCIe
GPC-k száma 9 8
TPC-k száma 66 57
FP32 magok száma 16 896 14 592
FP64 magok száma 8448 7296
INT32 magok száma 8448 7296
Tensor magok száma 528 456
Textúrázók száma 528 456
Memóriabusz szélessége 5120 bit 5120 bit
Memória típusa
HBM3 HBM2e
Fogyasztás 700 W 350 W

A cikk még nem ért véget, kérlek, lapozz!

Hirdetés

Azóta történt

Előzmények