Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Pipó #1 üzenetére

    Egy játékfejlesztő mindig programozhatóságot akar. Ez nem számít, mert ilyen alapon nem lenne fixfunkciós hardver a lapkákban. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Pipó #3 üzenetére

    Pontosan ezért választanák mindig a programozhatóságot. Messze úgy a legegyszerűbb dolgozni, mintsem igazodni a fixfunkciós hardverekhez.
    A fejlesztőket ebből a szempontból a hardvergyártók nem is kérdezik, tudják jól, hogy számukra csak a programozhatóság létezik. Még emlékszem, hogy Sweeney mennyire sírt, amikor az Intel lelőtte a Larabee-t. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #32839680 #10 üzenetére

    A Turingban az NV egy RT magot használ multiprocesszoronként és ebben az egy magban van egy bejárást, illetve a metszésvizsgálatot biztosító fixfunkciós motor. Ezzel multiprocesszoronként egy metszésvizsgálatot és egy bejárást biztosító hardver van.

    Az AMD a textúrázóegységbe építi a metszésvizsgálatot biztosító motort, konkrétan csatornánként egyet, tehát egy multiprocesszorban nyolc ilyen egység lesz, de a bejárás programozható, tehát a multiprocesszorok általános feldolgozóin fut.

    A fejlesztőknek ezzel addig nincs gondja, amíg megelégszenek a limitekkel, ilyenkor pedig elég írni egy DXR-nek megfelelő kódot, aztán fut ahogy fut.
    Ha nagy teljesítményt akarnak, akkor mindkét megközelítés célirányos optimalizálást igényel. Az AMD-nél érdemes egyéni BVH bejárást írni, így optimalizálva a motort a hardverre. Az NV-nél a fixfunkciós hardver adott, tehát annak a limitjeit kell megkeresni, és gyakorlatilag a modellek részletességét kell optimalizálni a limitekhez.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #32839680 #15 üzenetére

    Két CU az valójában egy multiprocesszor (WGP a hivatalos megnevezése), csak a GCN miatt hívják még (dual) CU-nak, mert egyszerűbb a régi dizájnhoz hasonlítani. Az emlegetett számok ilyen formában nem a multiprocesszorra vonatkoznak.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #22 üzenetére

    A PS5 100%-ban ugyanazt a hardvert használja, mint az Xbox Series X és az AMD RDNA2.

    Olyan nem létezik, hogy ál RT. Micsoda az? Minden egyes valós idejű grafikai számítás trükkök millióit használja, hogy gyors legyen. Ilyen szempontból az egész számítógépes grafika egy fake technológia.

    Egyáltalán nem limitálja az NV megoldását, hogy mire jó vagy nem. Itt BVH bejárásról van szó. Bármire jó, az a probléma, hogy a fixfunkciós egységeknek is vannak limitjei, amelyeket úgy lehet kezelni, hogy megfelelő tartalmat csinálsz hozzá, vagyis megpróbálod elkerülni azokat a szituációkat, amikor esetlegesen már túl mély a BVH gyorsítóstruktúra a jó teljesítményű eredményhez, stb. Ez ugyanolyan optimalizálás, mint amit a konzolok vagy az AMD csinál, csak ott nem a modellek áttervezésével dolgoznak, hanem alternatív BVH bejárást terveznek az tipikus terhelésekre. Végeredményben ugyanoda el lehet jutni mindkettővel, csak az NV-nél vissza kell ültetni a modelleket tervezőket a géphez, hogy átalakítsák azokat át, míg az AMD-nél programozással kerekedsz felül a limiteken ... mert limit mindkét megoldással lesz, egyiknek sincs végtelen teljesítménye, csak a bennük rejlő optimális tempó más módokon nyerhető ki.

    A programozhatóságnak még annyi előnye van, hogy olyan algoritmusokhoz is hozzányúlhatsz, ami jelenleg a DXR 1.0 és 1.1 alól elérhetetlen. De ezeket az új algoritmusokat akkor kezdik majd igazán használni PC-n, amikor szabványosan is le lesznek fedve. Addig igen ritkán kerülnek majd bevetésre, amíg Radeon Rays 4.0-n keresztül használhatók csak ki. Hosszabb távon abszolút el tudom képzelni, hogy ez az egész szabványosítva lesz, mert alapvetően mindig ez történt az API-kkal. Jött valami fixfunkciós szinten, aminél felmerült, hogy jobb lenne programozhatóvá tenni az egyes lépcsőket, és végül programozhatók lettek. Ugyanez történik most is, egy átalakulás közepén vagyunk, aminek a vége az lesz, hogy szabványos szinten jön majd a programozhatóság. A konzoloknál ennek elébe kell menni, mert azokat 10 éves életciklusra tervezik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26 üzenetére

    Mi az, hogy minden RT effekttel? RT effektek között is vannak nagyon terhelők, és alig. Leginkább a reflection terhel, míg az árnyékok számítása kedvezőbb a hardvernek, mert nincs árnyalási fázis.

    Nekik is menne a jó RT sebesség, de az Unreal Engine fejlesztése nem kedvez ennek. Ez a motor egy terepjáró. Minden terepen jó, de egyben mindenhol lassú. Mivel rengeteg platformot támogatnak, így sosem tudnak teljesítménykritikus megoldásokat választani, mert ugye azokat el kell vinni nem egy, hanem több API-ra is. Az UE ezért nem vezette még be a DXR 1.1-et, mert azt nem tudják jól leportolni Metal és Vulkan API-ra, így viszont sokáig a rendkívül lassú DXR 1.0-ra vannak kényszerítve. Ha már API szinten is a lehető leglassabb futószalagot használják, akkor persze, hogy nem gyors hardveres szinten. De nem hiszem, hogy ők azért ebből messzemenő következtetéseket vonnának le, hiszen tudják ők, hogy mekkora teljesítményhez nem nyúlnak hozzá a hardverekben. Csak egy példa. Az új Spidermanbe nemrég építettek be RT reflectiont, ami PC-n tipikusan -40%-ot sebességvesztést jelent, de ezt az RDNA2-n megoldották -8%-ból. Az Unreal Engine fejlesztői is hozzányúlhatnak a modernebb lehetőségekhez, már a DXR 1.1 is óriási előrelépés lehetne nekik, de várniuk kell addig, amíg a Metal és a Vulkan is felnő ehhez a szinthez.

    Ezek azok az okok, amiért az Unreal Engine a Microsoft keze alatt valósággal száguld, míg egy indie stúdió töredék sebességet tud csak kihozni belőle. A Microsoft nem az alap kódot használja, mert tudják, hogy milyen terepre mennek, és arra cserélik a gumikat is. Egy indie ehhez hozzá nem nyúl, és emiatt az Unreal Engine alap sebességét kapja, ami pont azért elég rossz, mert annyira általános a motor, hogy mindenhova illeszkedő, de sehova sem jó döntéseket kell hozni a fejlesztésénél.

    (#27) ColdMan: Nem, ez teljesen más. Itt van pár alapvető szabvány PC-n, amit mindenki támogat.

    (#31) SindaNarmo: Nincs olyan, hogy kamu RT. Hacsak nem arra gondolunk, hogy maga a sugárkövetés is valamennyire fake, hiszen tökéletesen az sem reprezentálja a valóságot. De ettől függetlenül mindegyik szabványos RT megoldás pontosan ugyanazt csinálja a számítás tekintetében.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Shing #35 üzenetére

    Nem kell megvárni a köztes generációkat. Már nagyon jól használhatók erre az új konzolok.

    Érdemes majd elfelejteni a mostani tipikus teljesítményvesztést. Ezeket nagyrészt a nem túl gyorsra tervezett DXR 1.0 okozza. A DXR 1.1 már önmagában sokkal jobb rendszer, és PC-ben is jobb lesz vele a sebesség.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #37 üzenetére

    Olyan nincs. Ha te DXR-t használsz egy programban, akkor két eltérő, DXR implementációval rendelkező hardveren, ugyanabban a jelenetben, pontosan ugyanolyan a sugárkövetés és a raszterizáció aránya. Ez azért nem lehet másképp, mert ugyanazt a programot futtatod. A hardver a programban írt kódot tudja futtatni, nem tud a semmiből programkódot generálni magának.

    A felbontás kérdése beállítás kérdése. Küldhetsz sugarat pixelenként, négyes pixelblokkonként, de akár egy pixelből többet is, mind konfigurálható akár a DXR-ből is. Az AI felskálázásoknak ehhez semmi köze, azok a végső képen mennek, amik már eleve kész eredmények.

    Ma RT-t csak effektekre lehet használni, így mindenhol keverik a raszterizálással.

    Ha nem valós-idejű egy számítás, akkor nincs értelme RT-t használni. Ennek pont a valós idejű eredmény a lényege. Ha erre nincs szükség, akkor beraksz egy előre generált lightmapet, vagy visszatükröződésre env mapet, és milliószor gyorsabban kapsz eredményt. Viszont ezeknek a hátránya, hogy nem valós idejű megoldások. RT csak valós időben van értelme használni, máshol nincs haszna, mert jobb eredményeket adó, milliószor gyorsabb alternatívák vannak rá.

    Az RT-t több évig csak effektekre fogják használni, viszont nem muszáj az effekteket portolni. Konzolon alig van olyan játék, ami CAS szűrőt használ, míg PC-n már rengeteg címbe belerakták a CAS-t. Ez lesz később is. Nem muszáj mindent portolni a platformok között, mert xy effekt nélkül még működőképes marad a program.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #40 üzenetére

    Ha képről nem mondod meg, hogy különbség van a konzol és a PC megoldása között, akkor PC-n teljesen felesleges a több erőforrást igénylő effektbeállítást használni, hiszen nem ad képminőségbeli előnyt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #53 üzenetére

    Némi pontosítás. A DXR 1.1 és a DXR 1.0 futószalagja nem kompatibilis egymással. Vagy az egyiket támogatja a program vagy a másikat. Amelyiket támogatja, ahhoz megfelelő meghajtóimplementáció kell. De a lényeg, hogy ha egy program inline raytracinget használ, akkor az nem képes DXR 1.0-s implementáción futni, míg ha a sugárkövetés dinamikus shader-alapú, akkor az DXR 1.1-es implementáción nem futhat le.

    A programszintű kompatibilitás már abból adott, hogy a DXR 1.0-s és 1.1-es kódok futtatátáshoz gyakoraltilag elég egy compute shadert támogató GPU (kb. az elmúlt tíz évből bármi), ha van hozzá driver. Mindkét DXR verzió úgy van felépítve, hogy a futószalagok implementálhatók szoftveres szinte, compute shaderrel. Tehát alapvetően a Microsoft egyik DXR verziónál sem követel direkt hardveres támogatást. Emiatt is tudnak olyan rendkívül szabadon dönteni a futószalagra vonatkozó újításokról. Ha az új futószalag valamelyik lépcsője nem megfelelő a régi hardverekbe épített gyorsítókhoz, akkor azokat a lépcsőket meg lehet írni compute shaderben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz T.Peter #68 üzenetére

    Na most Richard Cowgill nem az Epic, hanem az NVIDIA alkalmazottja, tehát az Epic szempontjából mindegy, hogy mit mond. Nyilván nem azt fogja, hogy bucira ver minket az AMD implementációja, ki is csapnák az NV-től, ha megtenné.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #75 üzenetére

    Bocs, de valahogy nem tartom annyira fontosnak, hogy egy adott cég dolgozója azt mondja, hogy a munkáltatójának a terméke a csúcslegjobb. Persze, hogy ezt mondja, onnan kap pénz ételre. De ezzel amúgy nincs semmi baj. Akkor lenne gond, ha nem ezt mondaná. :DDD

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #77 üzenetére

    Megvan, de ez amúgy minden hardverre, effektre, stb. igaz. :)

    Tudom, hogy az Unreal megy a 3D audió irányába, már jó ideje be van építve a SteamAudio 2.0, és egész jól használható is az újabb verziókban: [link] - ebben leírják, hogy miképp tudod kihasználni. A Ray Tracernél azért vigyázz, mert nem mindig a Radeon Rays adja a legjobb eredményt, ha nem fogja be a GPU-t, akkor az Embree jobb. Az a lényeg, hogy ne a Valve ray tracere legyen, mert az borzalmasan lassú (csak egy szálon fut). :D

    A konzolok ebből a szempontból külön supportot kapnak, mert mások az API-k, bár a ray tracer az Radeon Rays azokon a gépeken is, de ez mindegy.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz K0vasz #99 üzenetére

    Igazából PC-n a Ratchet & Clank aktuális verziója nagyon nehezen futna. Az adatmennyiség, amivel real time dolgozik, az nagyjából 100 GB. Ez PS5-ön könnyű, mert alapvetően a játék úgy működik, hogy a telepített program lesz maga a rendszermemória. A PS5 valós memóriájának egy kis része, konkrétan 2,5 GB lesz a CPU memóriája, a maradék, OS által nem használt terület pedig egy utolsó szintű, több GB-os cache-ként működik, ahova az SSD-ről streameli a rendszer az éppen szükséges tartalmat. Ezért tudnak olyat csinálni, hogy egyik pillanatról a másikra kicserélik a főhős körül a pályát, ugye a dimenzióváltás. Na most ezt PC-n is meg lehetne oldani, de szükség lenne arra, hogy az adat ott legyen a RAM-ban és a VRAM-ban, viszont nem elérhetők olyan memóriakapacitással rendelkező VGA-k, amelyek el tudnának bánni ekkora adatmennyiséggel. A dolog úgy lenne megoldható, hogy a gyors váltások valójában töltőképernyőt eredményeznének, így ha a gépben lenne mondjuk 64 GB-nyi rendszermemória, akkor onnan másolhatók lennének a szükséges adatok a VRAM-ba, és akkor futna PC-n is, de elképesztően megtörné a játék működését, mert ez egy játékmenetbe épített elem, minden dimenzióváltásnál a loading felirat, majd a várakozás megtörné az élményt.

    Az az Unreal Engine 5-ös techdemó is hasonlóan működik. Az egész adatmennyiség, amit feldolgozó 150 GB fölötti. Működne ez PC-n is, mert a számítási kapacitás megvan, de hiányzik a memória VGA-król hozzá, így olyan pop-up "élmény" lenne az egész, mint anno volt a Rage. Ezen úgy segít az UE5 PC-n, hogy 128 GB rendszermemóriát használ, de még így is rengeteg a popup. Egy szimpla, 32 GB RAM-mal rendelkező PC-n 20 másodpercig is eltart, amíg feltextúrázza az aktuális környezetet a motor. Addig persze fut, tudsz benne járkálni, csak elmosódott minden felület, és mivel a mai VGA-k VRAM-ja eléggé limitált, gyakorlatilag rövid időn belül törölni kell a tárolt tartalmat, tehát az egész egy pop-up fesztivállá válik. De persze lefut, a Rage is működött pop-up mellett. Csak a játékosok nem voltak kibékülve, hogy várni kellett, amíg a textúrák megjelentek.

    (#84) morgyi: Az, hogy az explicit API memóriamenedzsmentje nehéz, nem jelenti azt, hogy nem tetszik a fejlesztőknek, hiszen van egy nagy különbség a régi API-hoz képest. Ha esetleg nem működik a program, akkor tudnak rajta módosítani, míg régi API-val ez lehetetlen volt, a gyártókat kellett megkérni, hogy ha van esetleg idejük, akkor csináljanak már valamit, ha szerencséjük volt fél év alatt csináltak is.

    ---

    Általánosan a DXR-re.

    A DXR 1.0 nagyrészt a Microsoft és az NVIDIA megoldása volt, míg a DXR 1.1 már sokkal átfogóbb egyeztetés eredménye, így elég nagy kooperációval alakult ki. Az AMD megoldása egy harmadik alternatíva, és elérhető mindkét új konzolon. Alapvetően a Microsoft, a Sony és az AMD közös fejlesztése, ebbe a PC-s GAB tagok nem szóltak bele. Majd ezt is eléjük fogják rakni, és akkor erre készülhet egy szabvány.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák