Hirdetés

Vélemény: az Ampere megmutatta, hogy miért nem szabad felülni a pletykáknak

7 nm, NVCache, traversal coprocessor, DLSS 3.0 és Tensor memóriatömörítés. Ezek voltak a pletykaszezon legnagyobb slágerei, amelyekből végül nem lett semmi.

Jelen korban már majdnem mindenki készíthet tartalmat az internetre. A különböző közösségi platformok olcsó belépőt kínálnak, és a kellő népszerűséget is egyszerű megszerezni, ha a megfelelő tartalom megtalálja a célközönségét. Ezek miatt a pletykagyárak ma jobban égnek, mint valaha, ami sok tartalommal tölti meg a világhálót. Az utóbbi időszak legnagyobb slágere volt az NVIDIA Ampere architektúrája, ezen belül is az, hogy milyen újításokat hozhat a GeForce-okba. Az egyes pletykák kulcsszavakban ezekről szóltak: 7 nm, NVCache, RT koprocesszor, DLSS 3.0 és Tensor memóriatömörítés.

A tegnapi bejelentés után kiderült, hogy ezekből nem sok valósult meg. Emiatt is próbálunk távol maradni a híresztelésektől, és az ellenőrzött információkra fókuszáltunk. Többek között már márciusban megírtuk, hogy a játékosoknak szánt sorozat egy nem EUV-s Samsung gyártástechnológiát használ, vagy 8, vagy 10 nm-t. Végül a 8 nm jött be ebből a két lehetőségből, viszont nagyon sokáig éltek a 7 nm-es pletykák, még a megjelenés előtt pár nappal is, és itt felvetődik a médiapiac egyik aktuális problémája, hogy sokan nem ellenőrzött információkat közölnek.

Hirdetés

A másik nagy figyelmet kiváltó híresztelés az úgynevezett traversal coprocessor volt, amiről már az elején leírtuk egy véleménycikkben, hogy miért nem realitás, de nagyon sokáig tartotta magát így is a pletyka, egészen addig, amíg ténylegesen kiderült, hogy nincs semmilyen extra chip a nyomtatott áramköri lap hátoldalán. A Redditen azonban még mindig hisznek az egészben, csak most éppen már úgy magyarázzák, hogy az NVIDIA inkább beépítette a GPU-ba. Mintha egy ilyen komplex lapkát pillanatok alatt át lehetne tervezni. A dolog tehát abból a szempontból is aranyos, hogy sokan nem hajlandók elengedni egy-egy pletykát akkor sem, ha végül kiderült, hogy nincs semmi igazságalapja. Helyette valamilyen magyarázatot generálnak maguknak, ami összekötheti a valóságot a pletykavilággal.

Voltak azonban olyan hírek is, amelyekkel direkten nem foglalkoztunk, ide tartozik a Tensor memóriatömörítés, ami arról szólt, hogy a GPU nem helyezné el a memóriában a teljes részletességű textúrát, hanem csak a kisebb felbontású verziója kerülne bele, majd a Tensor magok a mintavétel idejére felskáláznák a tartalmat nagyobb felbontásúra. Ez is megért volna egy kisebb misét, ugyanis maga a koncepció nagyon aranyos, de két gond van vele. Egyrészt ezzel a módszerrel garantáltan veszteséges, kvázi tömörítés következik be, és közel sem biztos, hogy az adott neuronháló megfelelő minőséget képes majd előállítani az egyes textúrákból, tehát az így elérhető minőség lényegesen rosszabb is lehet, mint a pletykált Tensor memóriatömörítés nélkül. Másrészt nem elhanyagolható tényező a GPU-k működése, azok ugyanis úgy vannak felépítve, hogy a memóriaeléréseket a multiprocesszorok konkurens wave-ekkel áthidalják. Ha az egyik wave-nek éppen adatra van szüksége, akkor elindul egy memóriaművelet, de a rendszer ettől nem áll le pihenni, hanem bekér egy másik wave-et, méghozzá lehetőség szerint olyat, aminél már be van töltve a munkavégzéshez szükséges adat. Nagyon fontos tehát, hogy egy multiprocesszor képes legyen annyi konkurens wave-et futtatni, amennyivel kényelmesen átlapolható a memóriaelérés késleltetése, és a legtöbb shader optimalizálási útmutató erre is van kihegyezve, hiszen ez a legfontosabb tényező egy GPU működése kapcsán. De mi van akkor, ha nem csak memóriaeléréssel, hanem AI felskálázással is számolni kell? Nos, az extra késleltetés, nem is kevés, akár a skálázás nélküli szint háromszorosa, vagyis sokkal több wave-et kellene tűzben tartani. Igen ám, de ezek száma korlátozott, a shaderek statikus erőforrás-allokációja határozza meg, vagyis nem lehet ám tetszőlegesen nagy mennyiséget használni, így a Tensor memóriatömörítés bármennyire is jól hangzik, csak jelentősen lassítaná a mai GPU-k feldolgozását, és még minőségcsökkenést is behozna a képbe. A lassulás pedig rosszabb képminőség mellett nem szokott egy kedvelt párosítás lenni.

Az NVCache-t furcsa módon kezdi megmenteni az RTX IO, ami megint egyfajta hídépítés a valóság és a pletykavilág között, de valójában az előbbi elvileg a finomszemcsés adatmenedzsmentről szólna, hasonlóan az AMD-féle HBC-hez. Az RTX IO azonban egy alternatív problémára reflektál. Nevezetesen arra, hogy a mai játékok olyan mennyiségű tartalmat használnak, hogy azokat a fejlesztők egyre többször tömörítve szállítják le. Ahhoz, hogy ezeket a feldolgozás során használni lehessen, előbb ki kell kódolni a tömörített formátumból, amire manapság a processzormagok kerülnek bevetésre. Ha azonban számításba vesszük a rendkívül gyors SSD-ket, akkor a jövőben sokkal több tartalmat lehetne használni a játékokban, és akkor már sokkal-sokkal több processzormagra lenne szükség a kikódoláshoz is. Az RTX IO gyakorlatilag itt segít, ugyanis a Microsoft DirectStorage API-jára építve ezt a feladatot átteszi a GPU-ra, ami tehermentesíti a processzormagokat, miközben a kitömörített tartalom ott lesz a GPU memóriájában. Ettől azonban az adatmenedzsment még nem lesz finom szemcsézettségű, ahhoz alternatív technológiák kellenek, amiket az NVIDIA még nem jelentett be, talán azért, mert PC-n egyelőre nem látható, hogy lesz-e megfelelő funkció beépítve a grafikus API-kba.

Az RTX IO tehát az új generációs konzolokban felvetett, gyors tartalomstreamelés problémakörének egyik felére reflektál, konkrétan a tartalom kikódolásánál a processzor tehermenetesítésére, míg a másik tényező, a finomszemcsés adatmenedzsment továbbra is gond, de utóbbit lehet ellensúlyozni a GPU melletti nagy kapacitású fedélzeti memóriával (24 GB-os GeForce RTX 3090-et valakinek?). Valószínű egyébként, hogy a Microsoft, ahogy a DirectStorage-et, úgy az SFS (sampler feedback streaming) funkciót is áthozza majd egyszer PC-re, tehát idővel ez is le lesz fedve. Ettől függetlenül NVCache-ről sem az NVIDIA előadásán, sem bármilyen fellelhető gyártói anyagon nem hallani, ez is tehát egy eltemethető pletyka maradt.

Végül a DLSS 3.0 maradt, ami idővel lehet, hogy lesz, de egyelőre a DLSS 2.1 érkezik, és az érintett stúdiók már megkapták a fejlesztőkörnyezetet, hogy beépíthessék a támogatást a készülő játékokba. A DLSS 2.0-hoz képest egyébként nincs sok változás, pusztán a neuronháló frissült. Utóbbit egyébként folyamatosan cseréli az NVIDIA, de a nagyobb előrelépéseket külön verzióval jelölik. Ettől függetlenül továbbra is DLSS 2.0-ként fognak hivatkozni a technológiára, mivel követhetetlen lenne, ha minden háttérben történő változásnál más számot raknának a jelölés mögé.

Sok pletyka tehát nem vált valóra, de valószínű, hogy ezek után sem fog megváltozni a médiapiac, és amíg fogyasztják ezeket a kétes forrású tartalmakat, addig lesznek is ilyen hírek. Az olvasóknak azonban figyelembe kell venni, hogy ezek pletykák, tehát van esély rá, hogy a leírtak nem feltétlenül válnak valóra. Bizonyos oldalak pedig azért vonhatják ki magukat az egyes hírek megírása alól, mert nem tudnak megerősítést szerezni a friss adatokra.

Hirdetés

  • Kapcsolódó cégek:

Előzmények

Hirdetés