Hirdetés

Új hozzászólás Aktív témák

  • Yany

    addikt

    válasz #09256960 #3625 üzenetére

    azaz kisebb felbontáson lerenderelt képből próbál előállítani valamely képjavító eljárással jobb képet.

    Nagyon nem jó fiókba raktad el magadban ezt. És fölösleges színezett szemüveggel gyanusítani azokat, akik a DLSS-be többet látnak, mert ennél jóval többről van szó. A szerverfarm(ok)on megtanult információk tömkelegét veti be a kép megalkotásakor, nem pedig egy képjavító eljárásról van szó a hagyományos értelemben. Ez nem egy post process és nem is supersampling, valahol a kettő között, ugyanis míg a förmedvény MLAA, vagy image sharpening egy (vagy) több aktuálisan kirenderelt képkockából dolgozó algoritmus, addig a SuperSampling egy a képernyőnél magasabb felbontásban történő renderelés eredményét skálázza lefelé kisebb felbontásra. Előbbinél nincs plusz input, kizárólag egy előre megírt algoritmus teszi hozzá a saját módosítását egy kész képhez. A SuperSampling rengeteg plusz információval bír, ráadásul nem közelített, vagy sejtett értékeket tesz a tényszerűen odavaló pixelek helyére/mellé. Sőt, még odavalóbb pixeleket tesz oda, hiszen 1 pixel színét több alkotja egyben, és mivel a valóság analóg ugye, tehát nincs felbontása, a kvázi végtelen felbontással érnénk el a tényekig (persze sokkal inkább csak olyan skáláig kell lemenni, ahol a molekulák sűrűsége már színt definiál egy emberi szemben megtalálható receptor számára, de ez már túlzás).

    De a DLSS...! Fogja az alacsony felbontáson kirenderelt képet (pl. 1440p) és a sok-sok számítással kialakított neuronháló segítségével döntéseken keresztül kiegészíti a látottakat "emlékből". Az emlék picit megtévesztő, mert az emberben az emlék sokkal inkább érzés jellegű, semmint tényleges képi információ explicit részletekkel, de valami ilyesmiről van szó, mert "néha" téved és e tévedések egymásutánja változó glitch-ek formájában manifesztálódik a végleges képkockákon.

    Amit kihangsúlyoznék: a DLSS nem pusztán azzal az információval rendelkezik bemenetként, amit a gpu kirenderelt, hanem egy iszonyat tömény adathalmazzal is, amit extrém magas felbontáson látottak alapján gyártott le neki egy (vagy több) bivalyerős vas. Ez a neuronháló a tréning mértékétől függően nem feltétlen csak "sejt" dolgokat, de kvázi jobban is tudhatja, mint egy natív felbontású végeredmény, hiszen jóval magasabb felbontású emlékekkel rendelkezik. Ne feledjük, hogy a natív render rengeteg kényszerű optimalizációval rendelkezik, amik közt az egyik legtipikusabb pl. a mipmapping, ami pl. a kerítés jellegű objektumoknál akár el is tüntetheti a hálós tartalmat. Egy SSAA esetén azt látnád ugye... ahogy egy DLSS is jellemzően itt brillírozni tud.

    Mielőtt bárkiben felmerülne: a DLSS-t nem kell fetisizálni, de a távlatokat, amiket nyit az ML alapú render, azt jobban teszi mindenki, ha nyitott elmével fogadja, mert abban extrém meglepő tartalék lappang. (5~6 év múlva ha valaki még emlékszik erre a gondolatomra, akkor nyugodtan linkelje be, én szóltam, egy gyors hint: lásd tanult vs. számított fizika, ahol pont ugyanez történik).

    szerk: ja igen, a lényeg: De, egy ML algoritmus közreműködésével készült 4K kép, ha nem is minden pillanatban és minden részletében, de tud helyesebb képet eredményezni, mint a natív 4K és ezt a véleményemet vállalom minden ezen nevető ember előtt. :K

    [ Szerkesztve ]

    Építs kötélhidat  -  https://u3d.as/3078

Új hozzászólás Aktív témák