Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz b. #24 üzenetére

    Valójában ugyanazt kapod meg ezzel is, csak itt annyi változás van a GeForce-hoz képest, hogy egyrészt van egy picikét több sebesség, de ami fontosabb, hogy van rajta 24 GB VRAM, ami azért például sugárkövetésnél nem mindegy, mert simán lehet ekkora modellekkel dolgozni. Egy GeForce GTX 2080 Ti-n 11 GB fölött csak egy out of memory-ra futja. Még annyi a különbség, hogy itt ha összekötsz két Titan RTX-et, akkor azzal 48 GB memóriához jutsz, méghozzá úgy, hogy egy GPU fogja mindkettőt elérni, míg a GeForce-on ez a speciális mód nem engedélyezett, hiába kötöd össze a kártyákat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26 üzenetére

    Nem. Azokhoz Quadro kell. Ha nem fizeted meg, akkor nincs alkalmazáshitelesítés. A Titan RTX azoknak van, akik nem férnek bele a GeForce RTX 2080 Ti 11 GB-jába, de ugyanakkor nem is dolgoznak olyan szoftverekkel, amelyekhez szüksége van kiemelt támogatásra. Az meg nyilvánvaló, hogy a 11 GB nem sok. Nagyon könnyű tartalomvizualizálás mellett kifutni belőle.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #44 üzenetére

    A textúra nem számít. Hasonlóan a raszterizáláshoz a mintavétel itt sem változik a textúra felbontásától. Maximum a memóriára jelent nagyobb terhet, de a számítás mennyisége szempontjából ugyanaz. A BF5 implementációján látszik, hogy a memória-sávszélesség a kevés, mert egyszerűen jelentőset esik a GPU kihasználtsága. Nem tudja etetni a memória a hardvert. Persze a háttérben lehet szinkronizációs gond is, viszont itt alapvetően az jelenti a legfőbb limitet, hogy nagy az adatmennyiség, a heterogén módon működő feldolgozók önmagukban gyorsak, de mindehhez kevés a sávszél.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #47 üzenetére

    Aki mondjuk natív részletességet akar, nem pedig a natív felbontás csupán 75%-át. Az rendben van, hogy az üzenet az, hogy majd az AI felismeri, hogy hol kell túlmintavétel, de mi van ha éppen nem ismeri fel? Akkor azon a részen baromi ronda lesz ám a képkocka. Csak persze ezt nem említik meg, illetve meg sem mutatták, hogy milyen. Nem véletlenül. Azért azt tudni kell, hogy ezek a neuronhálók nem tűpontosak. A hatékonyságuk attól függ, hogy meddig tréningelik őket, és mivel a DLSS neuronhálóján nem múlik emberélet, így erre azért sok időt nem áldoznak, már csak azért sem, mert marha drága ám a tréning gépideje. Egy 50-60%-os hatékonyságút kreálnak aztán jól van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #50 üzenetére

    Valójában mindegyik között van különbség, csak az a helyzet, hogy a sugárkövetés nem egy olyan eljárás, aminek állandó hatása van a képre. Pályánként változó, hogy mit látsz. Szóval a különbségeket pályánként kell keresni, mert például van olyan környezet, ahol aztán az off és az ultra között sincs látható különbség. És ilyen környezetben csak azt látod, hogy az fps-ed esik. De persze ez érthető, attól még nem adnak fémes hatást a betonnak, mert valamit mutatni kellene a sugárkövetésből. Ott kell nézni, ahol a különbség látszik. :))
    [link] - Itt látható az összehasonlítás különböző területeken.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #51 üzenetére

    A HBCC nem egy szoftveres megoldás, hanem egy hardveres lapalapú menedzsment. Annak alapvetően még szoftveres támogatás sem kell, csak lehet hozzá írni, ha valaki akar.

    Itt egyébként nem arról van szó, hogy a DLSS hasztalan, hanem megvannak a maga hibái, ahogy más AA-nak is. Például az, hogy a natív felbontás 75%-ával dolgozik, és ha bizony a neuronháló nem tökéletes hatékonyságú, márpedig nem fognak heteket tréningelni egy kb. 85%-os neuronhálóért, akkor bizony a kép egyes részein jobb lesz a minőség, mint a natív felbontáson, míg más részein rosszabb. Ettől a DLSS nem lesz rossz, csak pro/kontra érveket lehet felhozni mellé, mint a többi AA-nál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #59 üzenetére

    Igazából a gépidőn múlik. A fejlesztő leginkább bérel gépidőt az NV-nél, ahol tréningelnek maguknak egy neuronhálót, mert a saját stúdiójukba bizony eléggé költséges lenne összerakni egy szuperszámítógépet. De ugye az NV-nek ott a Saturn, viszont ezt nem használhatják ám ingyen. Ez a gép majdnem fél megawattot fogyaszt óránként, amit bizony a bérlőnek ki kell fizetnie, nyilván egyéb költségek mellett, hiszen a hűtés sem csak a semmiből szerzi magának az energiát, és egy akkora gépnél az is combos költség. Tehát az egész minősége attól függ, hogy mennyi pénz van arra, hogy megtalálják az adott tréning során a leghatékonyabb neuronhálót. És mivel játékról van szó, így annyira azért nem fogják törni magukat, mert ha mondjuk ennek a hatékonysága eléri a 60%-ot, akkor az már jó (beleszámítva, hogy a legtöbb fejlesztő csóró, vagy a kiadó smucig). A legrosszabb ami történik, hogy időnként ronda lesz a kép egy része. De ez nem veszélyeztet életeket, mint mondjuk az önvezető autóknál, ahol azért igen jó neuronhálót kell találni, hogy problémamentesen működjön. 100%-os ez sem lesz persze.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #62 üzenetére

    Ez nem azon múlik. Nekem tetszik a DLSS, csak látom a hibáit is, a gyorsulásnak ára is van a képminőségre, jobb lenne ha a natív felbontás is beállítható lenne, és akkor legalább az AA nélküli szintnél nem lenne rosszabb az eredmény a problémás részeken. Ezernyi olyan eljárás van, ami tetszik, de kb. mindegyiknek van valami hibája. Ettől az adott eljárás nem lesz rossz. Igen ritka egyébként a tökéletes megoldás. Már csak amiatt is, mert akkor nem kellene tovább dolgozni. :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #65 üzenetére

    Szerintem tudok hibát találni bármiben. ;)

    A hiba a komplex rendszerek sajátossága. Van egy problémád, és van egy csomó alternatív megközelítés, amelyek eltérő előnyöket és eltérő hátrányokat adnak. Akármilyen AA-t hozol fel, egyik sem tökéletes. Megkockáztatom, hogy a brute-force SSAA-nál jobbat soha senki nem fog csinálni. De ezt megközelítőt igen, ami nem zabálja le annyira a teljesítményt. A legjobb megoldásnak egyébként az analitikai AA-k kombinálása tűnik. Ezzel az a gond, hogy sok kutatást igényel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dr. Akula #82 üzenetére

    Ez inkább arra szolgál, hogy a data set be is férjen a VRAM-ba, mert elég sok olyan helyzet van, ahol a 24 GB is kevés. Ha nincs elég VRAM-od, akkor tényleg csak egy out of memory üzenetig jutsz el. Kiírja a program, hogy nincs meg a hardver hozzá, és nem tudja megcsinálni, amit kérsz. Ezért van a Quadro modellen 48 GB. De az se mindig elég ám, például egy filmes data set megvan 1-2 TB is. Szóval azt a vizualizáláshoz fel kell bontani ~48 GB-os szeletekre. Ha nincs ilyen VGA-d, akkor ~24 GB-osra kell felbontani. Ha ennyi sincs, akkor ~11 GB-osra, ésatöbbi. Alternatív megoldás a szarni rá, és a Vega elvben 512 TB-ig megcsinálja felbontás nélkül, ez viszont elméleti határ, az SSG 2 TB-ja fölé itt sem éri meg menni. De most nem erről van szó, hanem arról, hogy maga a probléma, hogy nagyok lehetnek a tartalmak, tehát minél több memóriával rendelkező GPU-t veszel, annál kevesebb részre kell bontani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #84 üzenetére

    Semmi hihetetlen nincs benne. Egy bitang egyszerű megoldást alkalmaz az AMD. A vezérlő a fedélzeti memóriát gyakorlatilag cache-ként kezeli, és hardveres formában tölti bele a megcímzett lapokat a rendszermemóriából. Az egyetlen említésre méltó dolog, hogy az SSG API-val bájtszintű elérésre is képes a vezérlő, vagyis flash-alapú tárolókat is direkten el tud érni, akár közvetlenül, akár a helyi hálózaton keresztül.
    Alapvetően a bájtszintű elérés kivételével a Volta és a Turing is tudja ugyanazt, de muszáj mellé IBM hostot rakni, hogy működjön is. Tehát egy x86/AMD64-es host mellett ez a képessége az NVIDIA GPU-knak használhatatlan.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák