Hirdetés

Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Keksz03 #296 üzenetére

    Lesznek a jövőben is olyan játékok, amik a teljes grafikához dGPU-t igényelnek. Szóval ez a piac még évekig megmarad, csak nem mindegy, hogy a teljes GPU-piac 20, vagy 30%-a dGPU. Jelenleg a 20% felé tartunk, ami elég kevés.
    A túl- és alultervezés világosan látszik. Vannak olyan részei a Keplernek, és a GCN-nek, amiket pusztán a játékok szempontjából nem lehet megmagyarázni.
    A GCN-nél felmerül a kérdés, hogy miért kell egy GPU-nak CPU-hoz mérhető hatékonyságú cache-szervezés, vagy például ugyanazokat a pointereket kezelnie, amiket az AMD64 ISA-t használó processzorok kezelnek. Vagy miért kell egyáltalán egy grafikára kihegyezett GPU-nak annyira hatékonyan kezelnie az elágazásokkal teli kódot, mint egy CPU-nak. Mert a GCN legalább annyira hatékony ebben, sőt a flexibilisebb vektorfeldolgozók miatt hatékonyabb. Ott van még context switch teljesítmény, ami nagyságrendekkel gyorsabb GCN-en, mint bármi máson. Szóval ha csak a grafikát nézzük, akkor túl van tervezve.
    A Keplernél fordított a helyzet. 2012-ben előálltak minden idők legkisebb shared memory teljesítménnyel rendelkező DX11-es architektúrájával. Konkrétan harmadolták a Fermit ebben a paraméterben. A cacheszervezés semmit sem fejlődött, a context switch lassabb lett az elődhöz képest. Figyelembe véve azt, hogy mennyire a compute shadert nyomja a piac a Fermivel megkezdett irány folytatása lett volna ésszerű, de nem így történt, és így viszont alul van tervezve.
    Mindkét cég szeme előtt más szerepelt, mint a VGA-piac. Az AMD előtt a heterogén éra megkezdése egy Larrabee-szerű architektúrával, míg az NV előtt egy alacsony fogyasztású architektúra a Tegrába.

    (#300) tombar: Nem hiszem, hogy bonyolult. Ezt az AMD inkább azért csinálja, mert az NVIDIA fején átfutott az, hogy mekkora marketingereje van a tesszellálásnak, és erre építettek egy nagyon párhuzamos hardvert. Az AMD az NV előtt is foglalkozott ezzel a kérdéssel, hiszen ők tették le az Xbox 360-ban a ma használt tesszellálás alapjait. Nyilván ez idő alatt megismerkedtek a rendszer gyenge pontjaival, és úgy gondolták, hogy amíg ez nincs rendben, addig felesleges erre gyúrni. Csak az NV makacsul erre gyúr, és mindent megtettek korábban, hogy akár sík felületek is le legyenek tesszellálva. Ezért hozta be az AMD ezt a trükközgetést, mert nem akarnak erre sok tranyót költeni, mert iszonyatos meló a tesszellálás a művészeknek, és nem is hatékony a DX11-be épített noSplit módszer a jelenlegi raszterizálási formáknak. De mivel az NV ennyire erőlteti, hát bedobtak pár trükköt, hogy tehermentesítsék a rendszert. A GCN-ben a vertex re-use nagyon hatékony, illetve, ha nagyon komplex a felület, akkor szimplán le lehet menteni az L2 gyorsítótárba. Ha a következő képkockán megvan, akkor le sem kell futtatni a számítást. Szimplán lehet visszatölteni az L2-ből, persze itt csak kis felületekre kell gondolni, de ha egy nagyobbat jobban megéri lementeni, akkor ott a VRAM, oda elég sok adat elfér. Ez csak egy szimpla trükk azért, hogy ne kelljen követni az NV-t a front-end agyonpárhuzamosításával. Egyébként, ha az NV akarja, akkor ők is csinálhatnak ilyet, de nekik minek, ugye pont azért ölnek ennyi tranyót ebbe, hogy számoljon a lapkán belül ez a rész. Szóval szerintem ezt nem fogják másolni. Az Intel viszont lehet. Ők azért átgondolják a dolgokat technikailag, és nyilván a felületek lementése nagy ötlet. A prociban ott is van a tár hozzá, akár az L3 az IGP-ben, akár az LLC.
    Egyébként a lementés dolog nem hülyeség a VRAM-ba. Szerintem a jövőben mindenki opcionálisan csinál egy ilyet, mert ne feledjük, hogy a procedurális content felé haladunk, vagyis nem a művész készíti az egyszerűbb modelleket, hanem a hardver matematikai képletekből számolja majd.

  • tombar

    senior tag

    válasz Keksz03 #296 üzenetére

    csak az a gond h egyre kevesebben vesznek diszkért vgakat. erre mondta Abu h ez egy durván szűkölő piac, sajnos...

Új hozzászólás Aktív témák