ASUS TUF Gaming RTX 3080 OC: megérkezett az Ampere

Itt az első fecske az RTX 3000-es sorozatból, melyet a 2080 Ti-vel eresztettünk össze, hogy kiderüljön, mit ért két évnyi fejlesztés.

A multiprocesszorokon túl

Az Ampere architektúra strukturális felépítésében túlságosan nem változott a setup területén, így az NVIDIA továbbra is egy raszteres és egy úgynevezett PolyMorph részre vágja a hagyományos értelemben vett setup motort. Az előbbi egységből hét található a GA102-ben, és egy raszter motor maximum hat darab Texture Processor Cluster (TPC) ellátásáról gondoskodik. Ezt a felállást a vállalat Graphics Processing Clusternek (GPC) szokta nevezni, és ez most sincs másképp. A raszter motor órajelenként 16 pixelt képes feldolgozni, ami a GA102 esetében a teljes lapkára nézve 112 pixelt jelent, amely adat egyensúlyban van a 112 blending egységgel is, azaz a friss fejlesztés ezen a ponton kiegyensúlyozott.

NVIDIA GA102
NVIDIA GA102 [+]

A TPC-kben található PolyMorph motor továbbra is a geometriával kapcsolatos munkálatokat végzi, és a korábbi rendszerekhez képest semmit sem változott a működése. Mivel a GA102-ben 42 TPC található, értelemszerűen ez ugyanennyi PolyMorph motort eredményez.

Hirdetés

Ahol változás történt, azok a ROP-blokkok, ezek képességei ugyan nem módosultak, tehát továbbra is 8 blending és 32 Z mintavételező egység található bennük, viszont beköltöztek a GPC-be, méghozzá párosával, így egy ilyen nagyobb feldolgozótömb két ROP-blokkot kínál.

A GA102 10 752 kB megosztott L2 gyorsítótárat kap, és ehhez kapcsolódik mostantól a GDDR6X-os szabványú memóriákat támogató memóriavezérlő, ami a GA102 esetében 32 bites csatornákra szétosztott, 384 bites buszt eredményez. Ráadásul a lapka rendelkezik még négy darab NVLink interfésszel, két DMA motorral, emellett beveti a PCI Express 4.0 támogatását.

Végre itt az SR-IOV!

Az Ampere egyik kevésbé reklámozott, de amúgy jelentős újítása a PCI-SIG SR-IOV (single root I/O virtualization) szabványára épülő virtualizáció támogatása. Ennek a GeForce termékskálán ugyan nincs jelentősége, mert az NVIDIA nem fogja a meghajtóban kihasználhatóvá tenni, de a professzionális modelleken nyilván elérhető lesz.

De miről is van szó? A GPU-s virtualizáció terén az NVIDIA korábban saját szoftveres megoldását erőltette, amely a GPU-s munkaasztalra vonatkozó virtualizációs forma szempontjából függetlenített időosztásos modellben tette elérhetővé a multiprocesszorokat, illetve a videodekódoló és -kódoló blokkot, míg a videomemóriát szimplán fizikai felosztásúként lehetett használni. Ennek az előnye, hogy szoftveres Hypervisor menedzsmenttel viszonylag egyszerű volt a korlátozott képességű hardverekre is biztosítani magát a virtualizációt, de számos limitációt generált, amelyek közül a legnagyobb az volt, hogy a videomemóriát nem védte semmi, ami miatt relatíve egyszerűen kivitelezhetővé vált az, hogy az egyik GPU-s munkaasztal tartalmát kimásolja egy másik, ezzel pedig az adatlopás kockázata nem zárható ki.

A Hypervisor menedzsment azonban már régóta létezik hardveres (SR-IOV) formában, például az AMD évek óta ezt alkalmazza, és az előnyök világosak, hiszen a videomemória védett fizikai felosztásúvá válik, ahogy maga GPU is, tehát egy virtualizált környezet fix erőforrásokat kap az adott lapkán belül, és ezeket más kliensről nem lehet elérni, vagyis az adatlopás lényegében kizárt.

Az NVIDIA technológiája kapcsán annyi biztos, hogy a multiprocesszorok elérhetők fizikai felosztás szintjén, de a videodekódoló és -kódoló blokkal kapcsolatban nincs adat a virtualizáció formájáról, ugyanakkor valószínűleg itt is történt némi előrelépés.

Az Ampere esetében ez főleg a felhős játékszolgáltatások terén lesz hasznos, ugyanis ilyen formában nem csak a GeForce Now rendszerén belül tudja majd használni termékeit a cég, hanem a hardveres virtualizáció miatt már a többi platform tulajdonosa is elgondolkodhat rajtuk, nem lesznek az AMD megoldásaira kényszerítve.

A cikk még nem ért véget, kérlek, lapozz!

  • Kapcsolódó cégek:
  • ASUS

Azóta történt

Előzmények

Hirdetés