Keresés

Hirdetés

Új hozzászólás Aktív témák

  • gainwardgs

    addikt

    válasz b. #6 üzenetére

    Főleg hogy a Ti 3 éves :DDD :DDD
    Akárki akármit mond bitang jól tartja magát a mai napig :K

    [ Szerkesztve ]

  • aginor

    addikt

    válasz b. #13 üzenetére

    Azért nem mindenki csodálkozik ezen. Viszont az RT őrületből jól látható, hogy nem tudott hova fejleszteni az Nvidia ezért nyúlhattak ehhez az eszközhöz. Bízom benne, hogy a másik gyártó is mihamarabb belép a klubba, ami a tartalomkészítők hathatós támogatásával akár még érhet is valamit még a mi életünkben. ;) Szarkazmus off.
    Ugyanakkor annak nem örülök, hogy megint a saját zárt szabványukat erőltetik, ahelyett, hogy beállnának egy nyílt és mindenki számára használható megoldás mögé, ami jelentősen gyorsítaná a technológia terjedését és elfogadottságát. :(

    Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/

  • ribizly

    veterán

    válasz b. #13 üzenetére

    Nem is állítom, hogy rossz dolog ennek a bevezetése. Csak oda kellett volna figyelni a marketing-nél, hogy ezt hogyan adagolják.
    Ha mondjuk akkor elárulták volna, hogy 1-1 játékban valós árnyékok (Metro Exodus), vagy valós tükröződés (BFV) lesz csupán ettől és mellette az RTX2080Ti megjelenésekor kikerült volna a full RT támogatott Quake II RTX meg a még mindig magára várató RT-s Minecraft a Control mellett, akkor mindenki tudná miről is van itt szó. De nem így volt.
    Szóval elbagatelizálták a legnagyobb ütőkártyájukat, mert nem volt semmi, amivel használni lehetett volna, mostanra meg már a laikusok "leírták".

    |•| https://hardverapro.hu/tag/ribizly |•|

  • aginor

    addikt

    válasz b. #17 üzenetére

    Az igaz, hogy nyitott, de az is, hogy nem eléggé, bár a kevés is több, mint a semmi. Ezek az "effektek" akkor tudnak jól terjedni, ha van szabvány hozzájuk és ennek megfelelő az implementáció. Mire gondolok? Arra, hogy ha egy effekt megvalósításához gyártóspecifikus megoldás kell, akkor az lesz leprogramozva, miért fizetnek, viszont ez lassítja a technológia terjedését. Az RT-nél ez alapvetően rendben van, de a DLSS megvalósítása -vagy ezzel egyenértékű megoldásé- is ilyennek kellene, hogy legyen. Láttuk mi lett a Hairworkssel, vagy a Physx-el (a másik oldalon szintén a hajas móka pl.). Alig használják, mert kötött megoldás, csak bizonyos hardvereken működik, azokon is csak a gyártótól kapott változatban. A piacnak -nekünk- az a jó, ha az ilyenek minden hardveren futnak -jól- és mihamarabb vagy általánossá tid válni, vagy a játékmechanika szerves részét tudja képezni.

    Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/

  • arty

    veterán

    válasz b. #24 üzenetére

    pont ezek miatt ilyen értékelhetetlen a pécés helyzet :(
    korábban fizix, aztán gameworks, most dlss... (a másik oldali mantle és hbcc simán kiröhöghető volt, szerencsére, piaci részesedésből adódóan)
    és most majd lesz majd nyilván inteles patkánykodás is
    gsync-freesync-vrr
    (és a piaci rész miatt nv masszivan "sikerre" is vitte a saját megoldásait :( )

    emellé a steam, epicstore, blizzardstore szegregáció már csak a hab a tortán :W

    "ugyanitt hazájából elüldözött nigériai herceg aranybányájának tulajdonjogát megtestesítő NFT jegyezhető."

  • Kansas

    addikt

    válasz b. #31 üzenetére

    Az, hogy nem érted, miért a RIS-hez hasonlítják az eredeti DLSS-t a cikkben, téged minősít, ha rendesen végiggondolod, abszolút van értelme az összevetésnak, de, már megbocsáss, nem fogom a szádba rágni(segítségül azért: a kulcsszó a "big picture").

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • gV

    őstag

    válasz b. #31 üzenetére

    ha rám hallgatsz a Techspoton nem húzod fel magad, nem ér annyit: csak nézd meg a DX12U-s cikküket, meg sem említik, hogy a Turing támogatja [link] az új DLSS cikkükben is feleslegesen sokat írnak a Controlról, ahelyett, hogy megnéznék a Bright Memoryt is, na vicc amit művelnek

  • Kansas

    addikt

    válasz b. #35 üzenetére

    OK, akkor megfejtem a talányodat: a RIS és a DLSS is használható arra, hogy alacsonyabb(és utána felskálázott) felbontás esetén javítsa a képminőséget.
    Ráadásul mindkettőnek köze van az antialiasing-hoz: a DLSS egy antialiasing metódus, a RIS pedig korrigálja a túl elmosott AA negatív hatását, ami tipikus a kisebb teljesítmény-igényű AA metódusok esetében(igaz, a túlzásba vitt SSAA-nál is, pedig az eszi a vasat).
    Végső soron mindkettő arról szól, hogyan hehet minél több képminőséget megőrizni miközben teljesítményt spórolunk. Jó minőségű képre a sharpeninget ráengedve csak ronthatunk a dolgon, ezt az esetet ezért nem veszem figyelembe.

    Így már világosabb a kapcsolat?

    Egyébként nem személyeskedtem, az ugyanis a személyes tulajdonságaidra alapozva támadta volna az érveid érvényességét, én azonban az érveid minőségét direktben támadtam, és abból vontam le minimális mennyiségű konzekvenciát a személyes kognitív képességeidre nézve(ezt hívják empirikus megfigyelésnek)... amit egyébként azóta sem cáfoltál meg, láthatólag továbbra sem érted, miről van szó. Vagy csak látszólag?

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #40 üzenetére

    Az jött át, hogy le vagy ragadva a low-level technikai részletekben, és nem érted, mit/hogy/mire(is) használnak.
    Ha mégis érted, akkor Oscart neked, jól adod az értetlent... :R

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #42 üzenetére

    "75 % render + RIS nem ugyan az mint a DLSS ." - nem, valóban nem ugyanaz, a végeredményt tekintve több fps-veszteségért rosszabb képminőséget nyújt a DLSS, és ez tovább romlik, ha még image sharpeninggel is nyakon öntöd, mert bár a képminőség javul, a teljesítményvesztés is vészesen közel kerül a natív 4K renderinghez.

    Pontosan tudom, hogy a DLSS hogy működik, de az összehasonlítás szempontjából ez lényegtelen - erre mondtam, hogy leragadsz a low-level részleteknél.
    Lényegét tekintve a DLSS egy NVidia-only AA metódus, tehát ha úgy nézed, hogy:
    - 75% render + DLSS + Freestyle image sharpening
    - 75% render + AA + RIS
    mindjárt teljesen almát az almával összehasonlítás lesz.

    És mielőtt a dedikált HW(Tensor) támogatással jönnél, megjegyzem, hogy az AMD is HW-ből támogatja az AA-t, csak ez a hardver nem fixfunkciós, hanem a normál shader magok.
    Az kétségtelen, hogy a Tensor magok másra is jók, csak épp nem játékos kontextusban.

    A DLSS2 minden szempontból jobb lesz, ráadásul nem lesz 4K-hoz kötve. Ahogy a TechSpot is írja, a DLSS2 tudja azt, amit a DLSS-nél ígértek.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #44 üzenetére

    Kihagynád az élsimítást? A DLSS(Deep Learning Super Sampling) az egy élsimítási metódus :W

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #46 üzenetére

    OK, adom, ez igaz.
    A trükk az, hogy egy leskálázott kép megjelenítésekor a monitorba épített interpolációs algoritmust használod a megjelenítéshez, ami a használt algoritmustól függően effektíve jelent egy AA-hoz hasonló elmosó hatást(ugye ezért jelent meg az Integer scaling minden gyártónál, hogy natív felbontásban küldjék ki a képet a monitorra az egész számú skálázást lehetővé tevő esetekben).
    Tehát a megspórolt teljesítményt gyakorlatilag átterheled a monitorra... érdekes lenne tudni, nem növeli-e meg ez az input lagot... illetve hogy az egyes monitortípusok között van-e jelentős képminőségbeli eltérés, vagy mind ugyanazt az algoritmust használja.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Új hozzászólás Aktív témák