Hirdetés
- Épített vízhűtés (nem kompakt) topic
- Internet Rádió építése (hardver), és programozása
- Canon EOS DSLR topic
- Melyik tápegységet vegyem?
- Shield TV-t csinált a Shieldből az NVIDIA
- Epson nyomtatók
- Gaming notebook topik
- Házimozi haladó szinten
- Jön a DirectX Raytracing 1.2, de nem sok újítást hoz
- HDMI topic
Új hozzászólás Aktív témák
-
petimbo
tag
Sziasztok!
Mi a különbség a DLSS, SMAA2x, SMAA4x között? -
ricsip
addikt
sub
-
Komplikato
veterán
Van itt egy érdekes ellemző videó a DLSS2.0-ról, nyilván főleg a Controll játékot alapúl véve. Szerintem érdemes megnézni, ellemzi a javulásokat is, de meg van említve pár artifact amit az új megoldás hoz. Viszont ami lényeges és érdekes, hogy 540p DLLS2.0 full RT rendering 1080p-re skálázva jobban néz ki, mint a natív 1080p DLLS nélkűl.
(Nyilván a HD2060 tulajdonsok miatt, de van összehasonlítás 720p vs 1440 meg 1080p vs 4K viszonylatban is.)
Control vs DLSS 2.0: Can 540p Match 1080p Image Quality? Full Ray Tracing On RTX 2060? -
laposonly11
senior tag
Tensor magok, akkor ha konkukrencia nem jelenik meg hasonló adalék magokkal és nem kezdi utánozni az nvidiát, akkor ez is a fiziksz és herwörksz sorsára jut. Ugye physix esetén, is kiderült hogy a játékok a cpu val számoltatták a fizikát és az nvidia csak jól átverte a vásárlókat. Ma nagyszerű fizikai motorok vannak minimális cpu igénnyel és senkinek sem kellett hozzá az nvidia ajtajánál állni, hogy ehhez külön hardvert biztosítson. A raytracinget is kezdik sokan megoldani. Szóval eddig soha sem sikerült az nvidiának, de z AMD nek sem, rávenni az egész piacot, hogy kizárólag az ő hardverére támaszkodjon, így felesleges erőlködésnek tűnik, főleg hogy mindkét konzolban, megint AMD kártya lesz.
-
Kansas
addikt
válasz
laposonly11 #51 üzenetére
Nem az RTX magokat használja, hanem a másik überspéci találmány Tensor magokat, amik elvileg a központban tanított mintákat alkalmazzák, ezért nyerhető sebesség, no meg azért, mert csak a felbontás 75%-án számolja azokat a frame-eket.
Részletesebb leírás az eredeti metódusról. -
laposonly11
senior tag
Ahogy korábban írták, herwörks, fiziksz nvidia only volt, 2-3 játék használta csak, így ment is a technológia a süllyesztőbe. Pedig azért azok hááát, legalább viszonylag látványos újítások voltak. Azonban "Nvidia only" élsimítás, ez viccnek is röhejes! E miatt senki sem fog drága porszívó RTX-et venni!
A réjtrészing na az már valami, de kérem szépen sima élsimítáááás?
Ezt a sebességnövekedés sem tiszta nekem, a sima élsimítások hagyományos gpu eljárások, ez meg ugye úgy gyorsít a játékon hogy a déeleseshez az RTX magokat használja, csak hogy ne legyenek tétlenek?
-
con_di_B
tag
Eleve ott kezdődik ez a téma, hogy 1) állóképes super resolution mindig okádék lesz mozgóképen 2) mozgó részen nem látsz 4K-t. Ilyesmikből is lehetne szépeket spórolni, pl. statikus részen időben változó sampling pozíció, minden másra ott a motion blur.
(Disclaimer: DLSS 2.0 papert még nem olvastam.) -
con_di_B
tag
Én azt nem értem csak, hogy egy ilyen jellegű sztorit miért kell gyártói szinten tolni? Egy valamilyen image super-resolutiont összerakni annyira nem nehéz (az emberek többségének a bicubic+sharpenignek valami mozgásérzékebyebb változata tök elég lehetne), abszolút lehet nyerni rengeteget a játékba történt mélyebb integrációval (pl. HUD mehetne natívban, textúra felbontás lehetne más, screen space cuccokhoz is lehet hozzáférés) ha meg annyira fontos, hogy Tensor magokon fusson, akkor legrosszabb esetben is CUDA-ból megoldható simán, valamilyen interop meg csak van. Miért foglalkozik bárki is ilyen black box cuccokkal? Ha önmagában kevésbé kotorék a 2.0 mint az 1.0 volt, attól ez még mindig indokolatlan bloatware. (Az alapötlet jó, csak ilyenekkel foglalkozzanak azok, akik motorokat írnak, ez még menjen ki open source a GPU Gemsbe.)
-
Kansas
addikt
OK, adom, ez igaz.
A trükk az, hogy egy leskálázott kép megjelenítésekor a monitorba épített interpolációs algoritmust használod a megjelenítéshez, ami a használt algoritmustól függően effektíve jelent egy AA-hoz hasonló elmosó hatást(ugye ezért jelent meg az Integer scaling minden gyártónál, hogy natív felbontásban küldjék ki a képet a monitorra az egész számú skálázást lehetővé tevő esetekben).
Tehát a megspórolt teljesítményt gyakorlatilag átterheled a monitorra... érdekes lenne tudni, nem növeli-e meg ez az input lagot... illetve hogy az egyes monitortípusok között van-e jelentős képminőségbeli eltérés, vagy mind ugyanazt az algoritmust használja. -
A sebességet csak úgy tudod összevetni, ha a RIS és 75 % rendernél nem alkalmazol plusz élsimítási eljárást mert a DLSS esetében ezt a neuronhálón számoltatják ki.
Egyébként a neve csalóka, a neuronhálós tanításnál használnak 64x SSAA-t és az AI ebből próbál meg előállítani egy ahhoz hasonló képet,de a GPU itt nem számolja ki ezt a részletet. -
na igen de a tesztben nem így volt ez a gondom vele és vissza értünk ahhoz miért mondtam amit...a DLSS mellé alkalmazhatod az Image shapreninget ezért nem ugyan az.
A RIS és az Image sharpening hasonló elven működik, míg a 75 % render nem ugyan az Mint a DLSS képbutítása. Az egyik egy fix 75 %( vagy az általad beállított) lebutított renderrel dolgozik, míg a DLSS egy neuronhálós szakaszos képminőségi eljárást alkalmaz azaz nem általánosan ront a felbontás minőségen.
Tehát a teszt úgy lenne fair,hogy 75 % render + RIS és DLSS + Image sharpening vagy 75 % render és simán DLSS képjavítók nélkül.... nem csak úgy simán a DLSS mert az úgy soha nem lesz ugyan az, mint egy textúra szűrő/ javító eljárással támogatnám a képet a butítás mellett... a DLSS 2.0 meg főleg jobb lesz sharpeninggel megtámogatva.
Az élsimítást kihagynám mindkét esetben a dologból, ha összemérném a két eljárást.
A 2.0 nak ez a lényege hogy te szabályozhatod még ezt a minőségi romlást is amit amúgy is csak a neuronháló bizonyos részleteknél alkalmaz, nem mindenhol, itt ebből adódóan az image sharpenig a kép bizonyos szakaszain a natív felbontásra dolgozik rá.
Egyébként javít a képminőségen natív felbontáson is a RIS is és az Image sharpening is szerintem, bár ez szubjektív. -
Kansas
addikt
"75 % render + RIS nem ugyan az mint a DLSS ." - nem, valóban nem ugyanaz, a végeredményt tekintve több fps-veszteségért rosszabb képminőséget nyújt a DLSS, és ez tovább romlik, ha még image sharpeninggel is nyakon öntöd, mert bár a képminőség javul, a teljesítményvesztés is vészesen közel kerül a natív 4K renderinghez.
Pontosan tudom, hogy a DLSS hogy működik, de az összehasonlítás szempontjából ez lényegtelen - erre mondtam, hogy leragadsz a low-level részleteknél.
Lényegét tekintve a DLSS egy NVidia-only AA metódus, tehát ha úgy nézed, hogy:
- 75% render + DLSS + Freestyle image sharpening
- 75% render + AA + RIS
mindjárt teljesen almát az almával összehasonlítás lesz.És mielőtt a dedikált HW(Tensor) támogatással jönnél, megjegyzem, hogy az AMD is HW-ből támogatja az AA-t, csak ez a hardver nem fixfunkciós, hanem a normál shader magok.
Az kétségtelen, hogy a Tensor magok másra is jók, csak épp nem játékos kontextusban.A DLSS2 minden szempontból jobb lesz, ráadásul nem lesz 4K-hoz kötve. Ahogy a TechSpot is írja, a DLSS2 tudja azt, amit a DLSS-nél ígértek.
-
-
Kansas
addikt
Az továbbra sem világos, hogy jelen állapotában a Turing RTX támogatja-e a DXR 1.1-et, vagy csak támogatni fogja.
EA=open beta, innentől szvsz nem kvalifikált. Még a WoWs sincs EA-ban, pedig még messze nem érte el a v1.0-t...Szerk.: de, már tiszta a DXR 1.1 támogatottság:
"NVIDIA will be ready on the day of Windows 10 20H1 release with full driver support for all the new and updated DirectX 12 Ultimate capabilities." -
abéla
senior tag
válasz
gainwardgs #25 üzenetére
Láthatod a korábbi hsz-emben "szerk: nyilván ezek nem 1080Ti váltókártyák"... mármint a 2060-70-80, tehát igen, nem gondolom, hogy ma 1080Ti-ről érdemes ezekre váltani, de ezt venni sem helyettük.
Egyébként együttérzek a 1080ti tulajokkal, az én 980Ti-m jelenleg kb ér 50-60-at, annyiért el sem adom,
megy a csöndesgépbe, óccóvizzel alulfeszelve; hogy buktam-e rajta? Fene tudja, ~4.5 évig kb heti 35 órát biztos nyüstöltem(~8200óra), buktam kb 200-at (ugye 220(nyú vga)+30(víz) - maradványérték), az játékóránként 24ft... ennyiért egy órát jó régen csócsóztam -
Kansas
addikt
OK, akkor megfejtem a talányodat: a RIS és a DLSS is használható arra, hogy alacsonyabb(és utána felskálázott) felbontás esetén javítsa a képminőséget.
Ráadásul mindkettőnek köze van az antialiasing-hoz: a DLSS egy antialiasing metódus, a RIS pedig korrigálja a túl elmosott AA negatív hatását, ami tipikus a kisebb teljesítmény-igényű AA metódusok esetében(igaz, a túlzásba vitt SSAA-nál is, pedig az eszi a vasat).
Végső soron mindkettő arról szól, hogyan hehet minél több képminőséget megőrizni miközben teljesítményt spórolunk. Jó minőségű képre a sharpeninget ráengedve csak ronthatunk a dolgon, ezt az esetet ezért nem veszem figyelembe.Így már világosabb a kapcsolat?
Egyébként nem személyeskedtem, az ugyanis a személyes tulajdonságaidra alapozva támadta volna az érveid érvényességét, én azonban az érveid minőségét direktben támadtam, és abból vontam le minimális mennyiségű konzekvenciát a személyes kognitív képességeidre nézve(ezt hívják empirikus megfigyelésnek)... amit egyébként azóta sem cáfoltál meg, láthatólag továbbra sem érted, miről van szó. Vagy csak látszólag?
-
gV
őstag
DX12U: DXR 1.0-ról volt tudott 1 hete még, hogy támogatja a Turing, azt, hogy 1.1-est is nem és nem is volt kézenfekvő. GTX vs RTX Turing különbségek miatt pláne aggályos, hogy mellőzi a cikk a megemlítésüket.
DLSS: ha már cikket írnak valamiről akkor illene utánajárni miben van, nekem az nem érv, hogy EA. -
Miért minősítene engem? Minek személyeskedsz olyan dolgon amit nagyon egyszerű megérteni és józan paraszti ésszel felfogható?
A DLSS nem RIS elvén és céljából működik, az az image sharpening... A RIS és az Image sharpenig nem növeli az FPS-t és nem nyúl a felbontáshoz. Teljesen másra való két eljárás
Nem nehéz megérteni, hogy a RIS-re válaszul Nvidia az image sharpeninget hozta-,ami a fenti cikk megjelenésekor még nem volt,- ami egy képjavító eljárás a DLSS pedig egy sebesség növelő eljárás mamire a Direct ML van válaszul... az egyik egy textúra szűrő a másik pedig egy felbontás felskálázó eljárás.
Vonatkoztass el egy kicsit az AMD vs Nvidia részétől és próbáld józan paraszti ésszel végig gondolnia két eljárást ,rájössz hogy a DLSS mire való és az Image sharpening mire való és hogy működik, és melyiknek megfelelően működik a RIS, amivel a cikk összeveti hibásan.A Dx 12 U minden újítását egyenlőre csak az Nvidia RTX széria támogatja PC-n..
Ezzel kapcsolatban korrekt cikk az azért valami ilyesmi [link] ebből a szempontból, mert úgy néz ki az alapjait nagyon erősen az Nvidával is és AMD vel is együtt dolgozták ki a mostani frissítésnek és igen támogatja teljesen,de egyedüliként az RTX széria majd év végén az RDNA 2 AMD is. [linkgV: +1
-
Kansas
addikt
Mi a fenének említenék meg külön, hogy a Turing támogatja? Azzal, hogy a DXR-t említik, nyilvánvalónak kell legyen, hogy egyedüli RT HW-ként más per pillanat nem támogathatja, de Turingból is csak a 2xxx-széria, a 16xx széria nem...
Az sem tiszta egyébként, hogy a Turing már most támogatja, vagy csak támogatni fogja egy későbbi driverben...A Bright Memory meg early access-ben van, talán nem hallottak róla... abban egyetértünk, hogy túl sokat foglalkoznak a Controllal, főleg azután, hogy az elején említik, hogy nem is a fullos implementációja van benne a DLSS2-nek.
Ezért mondom, hogy bár nagyon ígéretes, én megvárnám, míg egy normális játékban láthatjuk a fullos implementációt. -
gV
őstag
ha rám hallgatsz a Techspoton nem húzod fel magad, nem ér annyit: csak nézd meg a DX12U-s cikküket, meg sem említik, hogy a Turing támogatja [link] az új DLSS cikkükben is feleslegesen sokat írnak a Controlról, ahelyett, hogy megnéznék a Bright Memoryt is, na vicc amit művelnek
-
már eleve a cikk is hülyeség ahol a DLSS-t hasonlította egy RIS hez amikor teljesen más a két eljárás lényege és másra való. Már akkor is kibuktam ezen.
A RIS és az image sharpening ugyan arra szolgáló a két eljárás és a DLSS és a Direct ML hasonlítható össze. Ennyire bugyuta cikket rég nem láttam.
A tensor magokra épül nagyon sok eljárás a Dx12 Ultimate most bevezetésre kerülő eljárásaiból az RTx kátyákon, gyorsítja őket.amivel pontosan a kártya élettartalma hosszabbodik meg. -
Kansas
addikt
Én ezért megyek általában a bang-for-buck sweet spot-ra(ami az esetek 90%-ában közép- vagy felső közép kategóriában található az adott generáción belül) - bár mostanság nem foglalkozok sokat azzal hogy mennyiért lehet később eladni, mert az esetek nagy részében családon belül vagy a baráti körben adom tovább a levetett HW-eimet, nyilván a feltétlen szükségesnél nagyobb bukóval.
-
pont ezek miatt ilyen értékelhetetlen a pécés helyzet
korábban fizix, aztán gameworks, most dlss... (a másik oldali mantle és hbcc simán kiröhöghető volt, szerencsére, piaci részesedésből adódóan)
és most majd lesz majd nyilván inteles patkánykodás is
gsync-freesync-vrr
(és a piaci rész miatt nv masszivan "sikerre" is vitte a saját megoldásait)
emellé a steam, epicstore, blizzardstore szegregáció már csak a hab a tortán
-
Kansas
addikt
Aki rossz áron vett, az meg nem tud, mert nem tudja annyiért eladni, hogy megérje neki a váltás...
@(#24) b.: nekem egyre inkább úgy tűnik, hogy azért kell csak DLSS, hogy legyen mit csinálni a Tensor magokkal, mert másra(consumer/gamer szempontból) nem jók, de a marketing épített rájuk(is). Nem rég még az volt a hír, hogy a DLSS halott, és az NVidia elindult egy, a RIS-hez hasonló irányba helyette... aztán alighanem rájöttek, hogy úgy nem lehet eladni, mennyire kúlak a Tensor magok, amik a HW támogatás ellenére is több fps-t buknak az eljáráson, pedig az eredmény gyakran így sem valami fényes...
A DLSS2 valamivel jobbnak tűnik, de én azért megvárnám, míg 3rd party teszterek élesben(in-game) is ki tudják próbálni és írnak róla. Igaz, engem utána se fog érinteni, mert egyik videokártyám se támogatja(RX5700XT, GTX1650). -
ribizly
veterán
válasz
gainwardgs #25 üzenetére
Az tuti. De én még egy RTX2080-ra sem látom értelmét onnan.
Aki jó áron vett (vagy vesz, mert van aprón nem kevés) GTX1080Ti-t, az nem fog egyhamar cserélni. -
Na igen csak itt a a DLSS egy hardverelem segítségével működik, a tensor magokkal megfelelő sebességgel. Ha ilyen nincs akkor kell egy másik megoldás amire megszületett a Direct ML de ez sem egy általános megoldás mert pl Vulkan vagy Linux alatt nem működik, míg pl a DLSS igen. AMD nél ilyen volt a HBCC ami csak bizonyos hardvereken működik.
persze jó lenne ha minden nyitott lenne és minden ugyan olyan és nem próbálná előtérbe helyezni a saját hardvereket , hogy azt vedd, de ez a piacgazdaságban nehezen kivitelezhető. -
aginor
veterán
Az igaz, hogy nyitott, de az is, hogy nem eléggé, bár a kevés is több, mint a semmi. Ezek az "effektek" akkor tudnak jól terjedni, ha van szabvány hozzájuk és ennek megfelelő az implementáció. Mire gondolok? Arra, hogy ha egy effekt megvalósításához gyártóspecifikus megoldás kell, akkor az lesz leprogramozva, miért fizetnek, viszont ez lassítja a technológia terjedését. Az RT-nél ez alapvetően rendben van, de a DLSS megvalósítása -vagy ezzel egyenértékű megoldásé- is ilyennek kellene, hogy legyen. Láttuk mi lett a Hairworkssel, vagy a Physx-el (a másik oldalon szintén a hajas móka pl.). Alig használják, mert kötött megoldás, csak bizonyos hardvereken működik, azokon is csak a gyártótól kapott változatban. A piacnak -nekünk- az a jó, ha az ilyenek minden hardveren futnak -jól- és mihamarabb vagy általánossá tid válni, vagy a játékmechanika szerves részét tudja képezni.
-
abéla
senior tag
válasz
gainwardgs #15 üzenetére
Igazándiból lassan senki nem mond már semmit az 1080 Ti-kről... jó volt, szép volt még akár igaz is volt
Jelenleg viszont egy vadiúj, 3-4 év garis "alap" 2070s vagy akár egy OC 2060s is jobb alternatíva.
szerk: nyilván ezek nem 1080Ti váltókártyák
(pandémia előtt ugye inkább 3050-3060, ami viszont jelen állapot szerint, ki tudja mikorra tolódik)... persze ha az öntudatos Ti tulajok a nagyrabecsült használt cuccaikért nem 130-140e-et kérnének, felülvizsgálnám az álláspontom
-
persze ilyen szempontból ez igaz, ennek idő és rengeteg pénz kell.
Ugye az az igazi ha egy játékba már az alapoktól beleépítik, a meg 2-3 év , lásd Control..Az igazán nagy áttörés most fog jönni az új Dx 12 bevezetésével,de ezzel az RTX kártyák életciklusa szépen kitolódik, hisz az egyetlen hardver a piacon jelenleg ami teljesen támogatja az érkező új Dx 12 szolgáltatásait. Ha ezt megfűszerezed a DLSS 2.0 val marketing ide vagy oda azért egyre jobb vételnek tűnik némelyik RTX kártya. ( persze nem mind) -
ribizly
veterán
válasz
gainwardgs #15 üzenetére
Nem is cseréltem le és még mindig elegendő 1440p@144Hz-es monitor alá. Terveim szerint az új széria megjelenésekor le lesz váltva egy RTX2080Ti-ra és akkor kb. a monitorom cseréjéig nem kell nagyon VGA-val foglalkozni már.
-
ribizly
veterán
Nem is állítom, hogy rossz dolog ennek a bevezetése. Csak oda kellett volna figyelni a marketing-nél, hogy ezt hogyan adagolják.
Ha mondjuk akkor elárulták volna, hogy 1-1 játékban valós árnyékok (Metro Exodus), vagy valós tükröződés (BFV) lesz csupán ettől és mellette az RTX2080Ti megjelenésekor kikerült volna a full RT támogatott Quake II RTX meg a még mindig magára várató RT-s Minecraft a Control mellett, akkor mindenki tudná miről is van itt szó. De nem így volt.
Szóval elbagatelizálták a legnagyobb ütőkártyájukat, mert nem volt semmi, amivel használni lehetett volna, mostanra meg már a laikusok "leírták". -
a Direct ML és a DLSS 2.0 nem zárja ki egymást. Ugye szabványos hasonló megoldásnak ott a Direct ML ez meg az Nvidia felhasználóknak készül, tensor magokat használva , ilyen mag/ hardverelem jelenleg nincs más hardverben ezért nem is tudná szerintem támogatni.
Az RT ben is egy teljesen szabványos eljárást használnak és mint láttad az az új Dx 12 . Ultimate [link] nagyon sok szempontból közösen építkezik az Nvidia megoldásaival( vagy fordítva). Azért mostanában elég szépen nyitott az Nvidia az előző évekhez képest. -
aginor
veterán
Azért nem mindenki csodálkozik ezen. Viszont az RT őrületből jól látható, hogy nem tudott hova fejleszteni az Nvidia ezért nyúlhattak ehhez az eszközhöz. Bízom benne, hogy a másik gyártó is mihamarabb belép a klubba, ami a tartalomkészítők hathatós támogatásával akár még érhet is valamit még a mi életünkben.
Szarkazmus off.
Ugyanakkor annak nem örülök, hogy megint a saját zárt szabványukat erőltetik, ahelyett, hogy beállnának egy nyílt és mindenki számára használható megoldás mögé, ami jelentősen gyorsítaná a technológia terjedését és elfogadottságát. -
yorgashx
tag
Szerintem ez még rátesz egy évet arra, hogy meddig tudjuk wqhd fullon hajtani a 2080S és társait.
A promó meggyőző, most már lehet, hogy ki is próbálom. -
Azért egy 450-750mm2 terjedő GPu-t , aminek drága a gyártása,nehéz nem marketing célra felhasználni,hisz ezért is lett ilyen hatalmas és brutális, mert a felépítését ennek szentelték és 3 éve lassan kizárólag náluk elérhető gaming célra a technológia .hülyék lettek volna nem erre építeni, hisz elég merész húzás. Nem igazán dolgoztok vagy értitek hogy működnek az ilyen jellegű cégek . ha nem lehetett volna erre építeni az egészet akkor nem lenne a mai napig raytracing képes hardver a piacon. Én más területen, de ebben dolgozok 10 éve.
-
mpioca
tag
Egyébként le a kalappal, ez már tényleg innováció! Ezt a kis bemutatót megtekintve engem teljesen meggyőzött a technológia. Amellett, hogy képminőségben a DLSS által felskálázott kép megegyezik az eredetivel (bizonyos esetben gyengébb, máshol jobb is, mint a natív kép), még a temporális mintavételezési hibákat is csökkenti. Zseniális.
-
ribizly
veterán
De ezért nem szabad leszólni. A Ray-tracing mindennek az alapja. Azt elérni a nemes cél. Persze az Nvidia-nál kicsit elb@szták ennek a jelentését sajnos, mert ezt soha nem szabadott volna marketing célokra felhasználni. Dedikált lineup-hoz kötni meg aztán főleg nem.
Ez egy rettenetesen erőforrásigényes dolog. Ha valaki tanult számítógépes grafikát (Helló Dr. Szirmay-Kalos László és minden kedves volt BME-s sorstársam) vagy foglalkozott 3D engine-ekkel, akkor találkozhatott vele és tudja, hogy ezt tulajdonképpen nem arra találták ki, hogy ezt (kis túlzással élve) a mi életünkben realtime alkalmazzák. Már az is nagyon dícséretes, hogy egyáltalán gondoltak rá. De ennek a kiváltására annyira jó közelítő algoritmusok születtek már, hogy kár volt ennyire előreszaladni vele. Amit meg a közelítő megoldások nem tudnak ma rendesen, azokat is meg lehet ennek implementációja nélkül oldalni (pl. tükröződés az éppen nem látható dolgokra, lásd RDR2, No One Lives Forever, DOOM3, DN3D...). Csak erre senki sem veszi általában a fáradtságot.
Mindenki kiakadt, hogy egy olyan világban, amikor az összes engine arra megy rá, hogy a lehető legkevesebb dolgot kelljen kiszámolnia (éppen takarásban vagy FOV limitáció okán nem látható objektumok, fényforrások, stb.) akkor behúzunk egy olyan technológiát, ahol ezek közül mindent, állandóan figyelembe kell(ene) venni és az alapján 100+ fps-el renderelni.Melyikhez mennyit kell számolni mondjuk egy PUBG esetében?
a. Amit nem látni azt nem számoljuk (egymást takaró objektumok, a FOV-on kívüleső dolgok), minden fényforrás statikus, vagy előre leprogramozott és csak néhány fényforrás (fényszórás nélkül, tehát az első "útjába eső" objektumot még megvilágítja és csá) van ami dinamikus (mondjuk mozgó plafonról lógó lámpatest, mint DOOM3, Far Cry) vannak jelen. Az árnyékokat objektumonjént előre lenyomjuk, max a karakterek saját árnyékát és a saját lámpánk által vetett árnyékokat kell odapattintani.
b. Mindennek dinamikus fénye van. Tehát a teljes játékteret folyamatosan számolni kell, mivel előfordulhat az, hogy valami előttünk csak azért lesz látható, mert egy mögöttünk álló (akár másik objektum mögött lévő) fényforrás fénye valahonnan odaverődik/szóródik. Ahány objektum és fényforrás van a "pályán", akkor azokat 100kép/mp kellene kiszámolni (különben nem lesz meg a 100fps).Na befejeztem, mert már így is túl sokat írtam, de a b. megoldás a sokkal jobb, élethűbb, stb, ám az a.-val tudunk létezni még (szerintem legalább) évtizedekig.
-
mpioca
tag
"Nem arról van szó hogy fognak két képet egy 4Ksat meg egy full HDset és ráengednek egy AI algoritmust hogy mossa össze és akkor így ugrál a minőség csak a szemünkkel nem vesszük észre?"
Azt akarod mondani, hogy ha bekapcsoljuk a DLSS-t egy játékban, akkor a PC lerendereli ugyanazt a képkockát 1080p-ben és 4K-ban is, majd összemossa a kettőt, és így kapjuk meg a monitorra kivetített képet? Nagyon jó kérdés, de április elseje még kicsit odébb van!
-
#82819712
törölt tag
Ez valóban jobban néz ki.
Jöhet a kémény a sodrott acéldrót és a sátor problémája amiben múltkor elvérzett. (F.F.)
Ezt a tréningelnek egy neuronhálót isten bizony nem értem, szerintem kamu az egész
Nem arról van szó hogy fognak két képet egy 4Ksat meg egy full HDset és ráengednek egy AI algoritmust hogy mossa össze és akkor így ugrál a minőség csak a szemünkkel nem vesszük észre?
Lehet pont mindig a 4k-sat veszik kiUgyanitt neuronhólóból szőtt pulóver eladó, a zöld feláras.
-
ribizly
veterán
Aki leszólta a RT-et az simán nem érti miről van szó. Amit le lehetett szólni az az részleges implementáció, meg a performance.
A DLSS viszont már más tészta. Az összes támogatott játékban anomáliák voltak. Ha sikerült tényleg hozni az eddig ígért sebességet hozni anomáliák nélkül, akkor az frankó. Ráadásul pl. DOOM Ethernal-ban már az RTX2080 ~20%-al tud többet a GTX1080Ti-tól, ami azt is jelenti, hogy egyre többet hoznak ki ezekből az RTX kártyákból az új engine-ek. -
nkmedve
őstag
A Hardware Unboxed/Techspot már teszteltegette: video: [link] , cikk: [link]
A Wolfenstein Young Blood-ban már állítólag ez dolgozik, valamint a Control-ban is valami hasonló eljárás van, de ott még DLSS 1.9-nek hívták.Azok után, hogy az első generációs DLSS-t nagyon leszólták (és úgy általában minden RTX-el kapcsolatos dolgot), most elég jó véleményük van róla, úgyhogy talán ez már tényleg használható lesz.
Remélem az elkövetkező 1-2 évben annyira kiforr a dolog, hogy az akkor már korosodó 2080 használhatóságát kitolja még 1-2 évvel QHD-ben. -
ribizly
veterán
Na ez már rendkívül szimpatikusan néz ki.
Ha majd lesz RTX kártyám élvezhetem is.
Addig meg nyalja meg NVidia...
Új hozzászólás Aktív témák
Hirdetés
ph A vállalat számost előnyt ígér az első verzióhoz képest, de szakítottak a korábbi megközelítésükkel.
- LG 65" C1 OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready!
- Magyarország piacvezető szoftver webáruháza
- Vivo Y76 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
- Bomba ár! Lenovo ThinkPad X280 - i5-G8 I 8GB I 512GB SSD I 12,5" FHD I HDMI I Cam I W10 I Gari!
- TELJES KÖRŰ IT BESZERZÉS: Vállalati hardvermegoldások és nagykereskedelmi lehetőségek
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest