Hirdetés
- Beleremegett Hollywood Brad Pitt és Tom Cruise AI harcába
- Prezentálta sokadik AI útitervét az Intel
- Bírsággal karöltve kötelezi az Intelt a garancia betartására India
- Szabadalmi vita után bukta a német piacot az ASUS és az Acer
- Elképesztő sebességre képesek a Micron közelgő, PCI Express 6.0-os SSD-i
- Fejhallgató erősítő és DAC topik
- OLED TV topic
- HiFi műszaki szemmel - sztereó hangrendszerek
- 5.1, 7.1 és gamer fejhallgatók
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Azonnali informatikai kérdések órája
- Intel Core i7-5xxx "Haswell-E/EP" és i7-6xxx "Broadwell-E/EP" (LGA2011-v3)
- Milyen belső merevlemezt vegyek?
- Kormányok / autós szimulátorok topikja
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
T.Peter
őstag
válasz
huskydog17
#52915
üzenetére
Lehet celszerubb lenne gdc es siggraph papirokat olvasni a temaban, esetleg denoiser-en dolgozo fejlesztok velemenye utan kutatni ahelyett, hogy egy video alapjan probalod hozzaertes nelkul megszakerteni, hogy mit is akarsz latni.
-
PuMbA
titán
válasz
huskydog17
#52927
üzenetére
"Egy még fejlesztés alatt álló játék kódját portolták vissza?"
Szerinted melyik másik Rockstar játékban van RT? A megfejtés, hogy a GTA 6-on kívül semelyikben
Ha szoftverfejlesztő vagy te is, akkor ismered a Proof of Concept fogalmát, amikor egy technológiát "kipróbálnak", esetleg még be is rakják egy létező termékbe, hogy hogy szuperál / hozza-e az elvártat. A GTA 5 erre tökéletes játszótér volt. A GTA 6 RT részét már biztos nem fejlesztik a játék kiadása előtt pár hónappal. Ezt a félidőig a játékmotor fejlesztésénél le kell boxolni. -
PuMbA
titán
válasz
huskydog17
#52927
üzenetére
"Rövidre zárva a témát: ahogy írtam, amíg nincs erről független teszt, addig nincs értelme erről beszélni. A te szubjektív "meg tudom állapítani" véleményed az égvilágon semmit nem jelent. "
És a "független" tesztet nem emberek csinálják?
Megemlíteném, hogy nekik is szubjektív a véleményük, hiszen csak a játék fejlesztők tudják, hogy hogy kellene kinéznie pontosan, mert ők tudják úgy paraméterezni fejlesztéskor a motort, hogy millió sugárral számolva kapjanak egy ground truth-ot bizonyos jelentekben és ezen eredmények alapján finomhangolják a denoisert. Szóval mielőtt egyes teszteket te objektív tényként veszel, ezeket jó észbe tartani, hogy mások sem okosabbak nálunk. A legtöbb dolog szubjektív. -
PuMbA
titán
válasz
huskydog17
#52918
üzenetére
Attól, hogy a motor új, a denoiser még lehet régi
Lásd az élsimítást, azaz TAA-t mennyivel rosszabb minőségű tud lenni, mint a DLAA / FSR Native AA.GTA V-tel kapcsolatban, amit beszúrtál fórumtémát már rég nem érvényes, hiszen a megjelenés óta már több javítás jött. A megjelenéskor negyed felbontáson számolták a tükröződéseket, de később lett opció a teljes felbontás bekapcsolására a grafikai beállítások között. Ez alapján mondtam azt, amit
A játék lehet régi, de a ray tracing-et a GTA 6-ból portolták vissza.Attól, hogy nem láttam DLSS RR-t, csak videóban még meg tudom állapítani, hogy mennyire éles egy tükröződés.
-
Busterftw
nagyúr
válasz
huskydog17
#52915
üzenetére
Epp most neztem meg en is, ebbol kiindulva:
DLSS Ray Reconstruction might be living on borrowed time, DLSS 4.5 can reconstruct ray-traced reflections almost perfectly without any denoisers"Digital Foundry discovered that both DLSS 4.5 Presets M and L are capable of reconstructing ray-traced reflections almost perfectly (depending on the game), as long as in-game denoisers are turned off."
A Techspot tesztje is csak megerositi, hogy 4.5-el nyilt az ollo az FSR es a DLSS kozott. -
PuMbA
titán
válasz
huskydog17
#52915
üzenetére
Ezek a régi alap eljárások már sajnos elérték a korukat. A TAA és ezen denoiserek minősége is hagy maga után kívánni valót 2026-ban. Egyébként egy játék van, ahol ezt tökéletesen megcsinálták, az pedig a GTA V Enhanced
Részletes és stabil képminőség az alap denoiserrel is és gyors. Ez a Rockstar, végtelen pénzzel és idővel. Innen látszik, hogy sajnos nincs elég erőforrás, illetve az UE5 esetén van, de ott is nagy mértékben el vannak maradva a Rockstar szinttől. -
válasz
huskydog17
#52774
üzenetére
Jó hír
-
FLATRONW
őstag
válasz
huskydog17
#52774
üzenetére
Ez fantasztikus hír, imádom a PhysX-et.
-
válasz
huskydog17
#52521
üzenetére
Resident Evil Requiem- PT+ DLSS4
Ez miatt rakok össze most új gépet végre
-
Drizzt
nagyúr
válasz
huskydog17
#52475
üzenetére
Na, ennek nagyon orulok. Kivancsi vagyok BG3 varosi jeleneteken javitani fog-e.
-
_drk
addikt
válasz
huskydog17
#52464
üzenetére
Mire fel a teljes erőbedobás?
Olvasni pletykákat, hogy annyira nem mennek jól az eladások, valós lenne? -
hokuszpk
nagyúr
válasz
huskydog17
#52450
üzenetére
van benne valami, ezt már láttuk a gyártásnál, ahol a mérnökök átmentek a TSMChez, és ott ezzel bizony kezdetét vette az "aranykor". Már mindenki GAAFET ( Samu, Intel ), mert az a jövő ; a TSMC meg röhögve alázza őket 3nm FinFet alapon.
-
szarnyasdino
tag
válasz
huskydog17
#52424
üzenetére
Bárcsak a B580 úgy teljesítene minden játékban mint a Ghost of Tsushima-ban

Ebben a tesztben is nagyon látszik az intel még nagyon, de nagyon nincs a driveres helyzet magaslatán.A jó kártyáját a driverek gáncsolják el
-
FLATRONW
őstag
válasz
huskydog17
#52348
üzenetére
Én sosem értettem, hogy "elismert" tesztoldalak csak a raszter teljesítmény alapján határozzák meg az ar/értéket. Ez még akkor sem volt teljesen helyénvaló, amikor nem volt RT, de ott még úgy ahogy elfogadható volt.
Most már van RT, felskálázás, és még jó néhány dolog (ahogy írod is), amik jelentősen befolyásolják az ár/értéket.
Remélem, felnőnek ehhez a megváltozott helyzethez a tesztelők is. -
hahakocka
őstag
válasz
huskydog17
#52348
üzenetére
ja 10-15% hatalmas előny egy kis vagy a közepes kategóriájú kártyánál menni 8-10 fps? főleg RT vel De 30-40e ft al drágább is. Akkor lehet csak én nem ájultam el ettől. Bár ahogy látom elég sokan szidják a mostani RTX 5000 és részben az RX 9000 es szériát is hisz nagyon sok újdonságot nem adtak max megnövekedett árakat sokáig. MFG 60-80 fps natívtól jó igazán, a DLSS4 hez felért az FSR4 de az meg nem elég játékban van még. Nem is baj hogy végül várok még egy generációt s addig legalább lesz egy MINI PC vagy laptop még mindig filózok ezen melyik legyen.
De régen a hardver meg az ár érték volt a lényeg s az AMD szinte mindig jobb ár értékkel rendelkezett s akkor se vitték. Az Nvidia jelenleg a top 1 cég kb lassan
volt is valami hír hogy ott van a top3 cég között nemrég. Eddig is milliárdok álltak rendelkezésére így persze hogy könnyű technikai előnyt felépíteni sok pénz, sok szakember. Azon nem csodálkozok ha egy rég monopolhelyzetben lévő cég tud először valami új technikát bevezetni. (DLSS, RT) Az lett volna a csoda ha a lejtmenetben lévő Intel 1. generációs rendes GPU i hozzák ezt elsőként.wjbhbdux:
Van máshol is ez a gép, nemcsak Amazonon, ahol kisebb vagy akár ingyenes (,már ha bemeri a kínait pl vállalni valaki
) a szállítási költség. Főleg EUs raktárról.
Itthon viszont hiába fogod keresni mint mondottam nem lehet találni s sokszor rendelni se lehet itthonra kb... Így nehéz is versenyt kialakítani. -
Abu85
HÁZIGAZDA
válasz
huskydog17
#50984
üzenetére
Oké, akkor segítek.
Tehát vannak játékok, amelyekben nem megy a GPU-s PhysX a GeForce RTX 50-es sorozaton. De fontos megérteni, hogy nem a játék baszódott el, hanem a 32 bites CUDA támogatása nincs meg. Konkrétan hiányzik a runtime, ami a játékba épített kódot futtatni tudja.
A megnyitott kód sem kompatibilis azzal, amit a játékok tartalmaznak, mert a szóban forgó címek még valamelyik PhysX 2 verziót használták, és az 5.6.0 lett megnyitva. Tehát jelentős eltérés van a korábban szállított és a most megnyitott kódok között.
De nem ez a gond, hanem az, hogy akkor sem érnénk el semmit, ha az adott játékban szállított PhysX 2 GPU-s kódját nyitná meg az NVIDIA, mert az alapprobléma nem ez a kód, ez le van szállítva valamilyen köztes nyelvre lefordítva, de a futtatási környezet már nem létezik a hardver felé. Tehát ahhoz, hogy ez működjön a jövőben, egy másik futtatási környezetre van szükség. Hiába cseréled a kódokat a játékban valahogyan, attól még futtatási környezeted nem lesz.
Ennek több megoldása van egyébként:
- Az egyik, hogy átírják kódokat compute shaderre, de az nagy meló, viszont ehhez csak DirectCompute futtatási környezet kell, az meg ugye ott van még mindig az összes meghajtóban.
- A másik, hogy használod a HIP-et. A kódra ráereszted a Hipify-t, de ez sem túl előnyös, mert maga a HIP kód is igényli a CUDA futtatási környezetet. Tehát ezzel a módszerrel csak azt oldanád meg, hogy AMD-n működjön a GPU-s PhysX, de GeForce RTX 50-en továbbra sem fog. Akkor működne csak, ha az NVIDIA írna direkt támogatást a HIP-hez.
- A harmadik megoldás a játék visszafejtése, és a 32 bites bináris átfordítása 64 bitessé. De annyi buktatója van ennek, hogy szinte lehetetlen megcsinálni, anélkül, hogy meglenne a közösségnek az eredeti játék teljes forráskódja. És itt tényleg csak az a gond, hogy 32 bitből nehéz forráskód nélkül 64 bites programot csinálni. Ezt nem oldja meg a nyílt PhysX, mert ettől pont az a tényező hiányzik még, amire szükség lenne: a játék forráskódja. Azzal nem nyers semmit, hogy kicseréled mondjuk a PhysX-re vonatkozó dll-t, mert vagy a 32 bites CUDA runtime, vagy a 64 bites futtatási állomány fog hiányozni.
A ZLUDA azért reális alternatíva, mert az a gyökerénél kapja el a problémát. Nem foglalkozik azzal, hogy átírja a játékot, mert eleve nem az a gond. A runtime hiányzik, és mivel a ZLUDA nem igényel 32 bites CUDA runtime-ot, a CUDA kód futtatásához, ezért pont megkerüli azt a problémát, ami hiányzik a GeForce RTX 50-es sorozatnál. Ezzel a módszerrel nem kell átírni a játékot, nem szükséges visszafejteni azt, nem szükséges a játék forráskódja, mert a 32 bites CUDA runtime-ot cseréli egy olyanra, ami képes gépi kódot generálni a GPU-kra. Azokra is, amelyeknél az NVIDIA nem akarja, hogy kapjanak emészthető kódot, például a GeForce RTX 50-es sorozat.
Egyébként nem muszáj a ZLUDA, más hasonló kezdeményezés is jó, de muszáj azt a tényezőt célozni, ami hiányzik, és az a 32 bites CUDA runtime. Mert hiába cseréled a GPU-s kódokat a PhysX-ben, ettől még runtime-ot nem ad az NVIDIA neked a meghajtóban, ami lefordítja a kicserélt kódot a Blackwell GPU-kra. Tehát nekünk nem a játékot kell babrálni, hanem másik runtime-ot kell írni, ami az NVIDIA hozzájárulása nélkül is kódot generál a GPU-kra.
---
Ami történik a PhysX-szel az nem a régi játékok futtathatóságát szolgálja. Az NVIDIA projekteket indít, fejleszt és zár le. Nagyon tipikus policy ennél a cégnél, hogy ha egy projektet már nem akarnak fejleszteni, akkor megnyitják. És ezért nyitották meg a mostani kódokat, mert a jövőben már nem akarnak ehhez hozzátenni. Ugyanígy tettek a GameWorks bizonyos effektjeivel, stb. Az a célja ennek, hogy a jövőben egy ponton túl nem lesz support. Ott a forráskód és mindenki megoldhatja maga a problémáját, az NV ebből kiszállt, mert nem látják már a hasznot a projektben. A GameWorks után most a PhysX jutott el erre a szintre. Az NVIDIA mindig így csinálja. Ha lelőnek belsőleg egy projektet, akkor megnyitják, hogy vihesse mindenki.
Egyébként más cég is így csinálja. Ha volt egy zárt projekt, amire már nem akarnak figyelni, akkor azt meg szokták nyitni. Ez a jelzés, hogy a projekt már nem fókusz, de aki akarja használhatja tovább, ha karbantartja a saját kódját.
-
S_x96x_S
addikt
válasz
huskydog17
#50984
üzenetére
> Amúgy a ZLUDA pont nem a PhysX-et veszi célba,
szerepel a Roadmap -en.
https://vosen.github.io/ZLUDA/blog/zluda-update-q1-2025/""
Roadmap update -> PhysX
As you might have read here, here and on multiple other sites, NVIDIA dropped support for 32-bit PhysX in their latest generation of GPUs, leaving a number of older games stranded.
This reignited the debate about ZLUDA’s PhysX support. After reading through it several times, it’s clear to me that there is a path in ZLUDA to rescuing those games and getting them to run on both AMD and NVIDIA GPUs.
I broke down the implementation into tasks here. If you can program Rust and want to make a lot of people happy, I encourage you to contribute. I won't be able to work on it myself because I'll be busy with PyTorch support, but I'll help in any way I can.
"""
> Ha bárki bármilyen okból szeretné megtudni, hogy hogyan működnek a GPU-s PhysX,
> Flex és Flow effektek, annak most már ott a forráskód, nincs szükség reverse
> engineering-re.az is érdekes probléma,
de a ZLUDA nem igazán a PhysX forráskód átírására fókuszál,
hanem a 32 bites PTX -ek 64 bites környezetbe való forditására és implementálására.
Vagyis a PhysX belső működése helyett a régi binárisok kompatibilitása a cél.
----
https://github.com/vosen/ZLUDA/milestone/6
32bit PhysX support on NVIDIA and AMD:
We can verify that PhysX FluidMark works on NV RTX 5XXX GPUs and AMD GPUs.
This should also automatically make games work, but we will rely on the community to verify it more closely
#355 Add a compiler pass to convert 32 bit PTX to 64 bit PTX
#354 Create 32bit CUDA -> 64 bit CUDA RPC server
#353 Implement missing PTX instruction in ZLUDA for 32 bit PhysX
#352 Collect CUDA logs from FluidMark -
Abu85
HÁZIGAZDA
válasz
huskydog17
#50959
üzenetére
Ezzel a nem működő játékokat nem lehet helyrerakni. Nem a PhysX a gond, hanem a CUDA 32 bites futtatási környezetének hiánya. Azt egy nyílt PhysX nem oldja meg, mert egyrészt attól még nem tudod kicserélni a játékban a kódot, másrészt nem tudod a 32 bites binárist átalakítani 64 bitessé.
Ezt a problémát a ZLUDA kezdeményezése tudja megoldani, ami lehetővé tenné a meglévő kód futtatását a 32 bites CUDA futtatási környezet nélkül is.
-
-=RelakS=-
veterán
válasz
huskydog17
#50726
üzenetére
Gratulálok, 5090-el 4K-ban 27FPS.
És tartom, hogy ez nem az 5090 hibája, hanem hogy rosszul mérték fel, hogy mekkora számítási kapacitást használhat fel a játék. -
X2N
őstag
válasz
huskydog17
#50726
üzenetére
Meglepő hogy most már a sub-surface scattering-et is bemerik vállalni. Ennyi fölös RT teljesítmény lenne?
-
Ribi
nagyúr
válasz
huskydog17
#50698
üzenetére
Nem mondom hogy nem igaz, csak a hőmérséklet skála ha lineáris, akkor az egész táp és minden mellette is kb 120+ fokos. Ami nem lehetséges. Ugyan így a vga is. Der8auer videójában kb a kábel volt nagyon forró és minden más mellette már rögtön kék. Itt meg pirosan virít az egész kép.

-
KRoy19
őstag
válasz
huskydog17
#50698
üzenetére
Biztos nem dugta be rendesen.
-
omfgk
veterán
válasz
huskydog17
#50466
üzenetére
Az lesz a hab a tortán, ha ebből is lesz ROP problémás darab...
-
válasz
huskydog17
#50466
üzenetére
AMD-nek ez most nagy win = nincs stock, azaz nincs ellenfél sem kb az árszintjén. Még potenciális 5080 tulajokat is bevonzhat.
-
4264adam
nagyúr
válasz
huskydog17
#50460
üzenetére
Tele van az 572 driver banch bugokkal, idővel majd az 5070-et felhozzák a 4070 Super szint felé.
-
válasz
huskydog17
#50460
üzenetére
A rakrárkészlet az tényleg a valaha legrosszabb.
-
tipuka
addikt
válasz
huskydog17
#49932
üzenetére
Nekem is a zajszíntmérés fontos lenne, mert nem mindegy, hogy 32 vagy 40dB-el zúg mellettem valami.

-
Att1la.
őstag
válasz
huskydog17
#49932
üzenetére
-
Busterftw
nagyúr
válasz
huskydog17
#49912
üzenetére
Nem tudom mit csinalt ebben a genben az MSI, de kb 10:1 aranyban MSI keszlet van kb mindenhol. Ennyivel tobb kapacitassal rendelkeznek?
-
warcat
veterán
válasz
huskydog17
#49912
üzenetére
Alternate vígan scalpeli a kártyákat, MSI Liquid 5090 legutóbb csekélyke 4999€-ért volt kirakva
Meglátjuk az árakat -
gainwardgs
veterán
válasz
huskydog17
#49268
üzenetére
Sokkal rosszabb
[link] -
Raymond
titán
válasz
huskydog17
#49107
üzenetére
A fix cost az NTC-nel itt 0.48ms ami termeszetesen durvan nez ki a demoban mert 1000-2000-3000 FPS-ekkel fut. Viszont 120FPS-nel ez 120->113 csokkenest jelent csak (8.33 -> 8.81 frametime).
-
KRoy19
őstag
válasz
huskydog17
#49035
üzenetére
Ezzel játszik valaki?
-
D55
senior tag
válasz
huskydog17
#48705
üzenetére
"Érkezett egy új Blackwell-exkluzív feature SmoothMotion néven"
Nem, jön majd Ada-ra is:
https://www.dsogaming.com/news/smooth-motion-is-nvidias-answer-to-amds-fluid-motion-frames/Ezen kívül az FG is jöhet majd régebbi kártyákra mostmár, azt beszélik...
#48836: "Nem 10-20 fps ről csinál majd 300 fps t"
Persze, annak úgy semmi értelme. Tapasztalataim szerint (sima 2x-eshez) olyan 50-60 igazi képkocka kell legalább másodpercenként, hogy emészthető eredményt adjon. Az alatt egyszerűen érződik már a magas frametime. -
adr0001
aktív tag
válasz
huskydog17
#48728
üzenetére
Amikor azt mondod hogy két képkocka közötti mozgásinterpoláció technikailag nem ugyanaz, csak mert az egyik esetben a két képkockát egy játék engine-je f*ssa ki magából, a másik esedben meg egy video decoder, akkor arra gondolok hogy a közösségi hozzászólásaid számát szaporítod, nem pedig a szakmait.
Ha fogalmad sincs arról hogy a DR milyen hardvert támogat és milyet nem, akkor minek nyilatkozol róla? (Ada- n is megy, változtatás nélkül, na vajon miért?)
Látszólag arról sincs fogalmad hogy akár csak Ampere és Ada viszonylatában milyen hardverelemek állnak rendelkezésre az eljárás gyorsításához.
Ha edukálni szeretnéd magadat, akkor saját kezűleg is csinálhatsz avisynth scriptet valós idejű framerate konverzióra, talán akkor lesz egy kis fogalmad arról hogy a zárt forráskódú nvgnx_dlssg.dll mit is csinál a motorháztető alatt. Az nV OFA SDK doksiját olvasgatva esetleg következtethetsz arra is hogy arcon köpi-e az nV korábbi vásárlóit, akik pénzéből a várát építette.
Simán mehetne, sőt, a minimális quality tradeoff pont hogy VALID ok lenne upgrade-re, a nem lehet kamuja helyett. (Spoiler alert: a végeredmény képminőségben valahol a DLSS3 FG és az FSR FG között lenne félúton. HW gyorsítva.)Betűzve írom, hogy megértsd, ha már a fentieket lehet hogy nem fogod:
P
A
Y
W
A
L
LAnnyira paywall, hogy a konkurens cég opensource megoldása hw gyorsítás nélkül - async compute - határozottan plusz fps-t produkálva, lazán működik.....
BTW. A driveres smooth motion hamarosan érkezik Ada-ra is. Ámen. Egy szöget most kihúztam az nV voodoobabából.
-
Yutani
nagyúr
válasz
huskydog17
#48718
üzenetére
Biztos gyenge az Ampere a jó minőségű FG-hez, de én köszönöm, jól elvagyok Stalker 2 alatt az AMD-féle FG-vel 3060Ti kártyán. Lehet, hogy pixel szinten nem 100% perfekt, de én nem látok megjelenítési hibákat.
Ugyanakkor nem vitatom, hogy az újabb termékekben lehetnek olyan új fícsörök, amik kihasználásához való szoftver nem kompatibilis, vagy rosszul fut a régebbi hardvereken.
-
adr0001
aktív tag
válasz
huskydog17
#48718
üzenetére
Lehet hogy nem voltam egyértelmű és csak a negatívság maradt meg. Ütős a szoftveres extra, tényleg le a kalappal, a vonazkozó topikban is feldícsértem.
+b.
Az említett Dmitri render hiába video filter, nem bitstream-et dolgoz fel, hanem optikai analízis alapján csinálja azt amit.Nehéz elfogadni hogy hazudtak, hazudnak, és még fognak is? Nekem ezzel van bajom, nem kifejezetten A termékkel.
Ezentúl offba teszem az ilyesfajta vergődése(i)m. Mert az.
-
adr0001
aktív tag
válasz
huskydog17
#48705
üzenetére
A BW launch tehát szerintem nem hardveres, hanem szoftveres területen rendkívül erős.
Sajnálatos módon az MFG az egy paywall mögé tett szoftveres fejlesztés.
Mint ahogyan az ADA FG-je is az volt.
AZ Ampere-ben is megtalálható minden hardverelem a FG-höz.
Dmitrirender, bármilyen framerate-ről bármilyen framerate-re elvégzi az interpolációt. Hardveresen, ezt Turinggal is tudja. Meg a Pascallal is.
Most az a kamu duma hogy a frame pacing-hez kell a Blackwell flip metering hardvere... Ez a hardver nem kell a MFG móka megvalósításához. Az csak egy hardverkulcs.Szóval jah, a szoftveres tuning tényleg pöpec, Transformer model rulez!, de azért az nV ismét nem hagyta ki azt a ziccert hogy tipikusan nVidiaként viselkedhessen.
-
válasz
huskydog17
#48705
üzenetére
[RTX Video Super Resolution Game Ready Driver Out Now; Testing Shows Significantly Sharper Results]
A Super resolution is kapott egy új verziót.By the way, there are improvements to RTX Video Super Resolution as well, thanks to a more efficient AI model that NVIDIA says uses up to 30% fewer GPU resources at its highest quality setting. RTX Video Super Resolution now also upscales HDR videos, so when viewing HDR videos below your display's resolution in the browser, they will be automatically upscaled to your native display resolution.
-
Raymond
titán
válasz
huskydog17
#48705
üzenetére
A SmoothMotion szerintem inkabb az ami az AMD-nel a FMF.
-
válasz
huskydog17
#48474
üzenetére
na igen láttam hogy youtubon milyen szép nálam meg nem ugyan az -
válasz
huskydog17
#48470
üzenetére
és ezt az új modelt alan wake-nél hogy lehet beállítani? vagy a patch-el megkaptuk?
-
KRoy19
őstag
válasz
huskydog17
#48258
üzenetére
Elvitte a marketing a pénzt és a jó mérnöki munkára, már nem maradt.
-
S_x96x_S
addikt
válasz
huskydog17
#48177
üzenetére
( 1% low fps )
> Illetve TPU-ról a releváns eredmény:
köszi a tippet ;
ránéztem a TPU tesztekre és tényleg nem egyedi az eset.
Ezekben az érdekes (Min FPS) esetekben,
az RTX 5090 eredményei a vártnál rosszabbak.
[ RTX 4090 > RTX 4080 Super > RTX 4080 ] > RTX 5090És az RTX 4090 még ezekben az esetekben is mindig jól teljesít.
Remélem csak ideiglenes driver probléma ...
Mert ha nem csak ... akkor szívás a köbön
.itt találhatóak az általam "cseresznényezett" eredmények,
https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/39.html
a lap alján az "Individual Benchmark Scores - Show Per-game Results" -ra
még rá kell kattintani. -
S_x96x_S
addikt
válasz
huskydog17
#48177
üzenetére
> az 5090 ebben a játékban is jobb, mint a 4090,
> csak megfelelően kell értelmezni a teszteket.Számomra éppen az az érdekes,
hogy nem jobb az RTX 5090 "1% Low " -ja . ( 170 < 176 )- RTX 5090 ( 1% Low ) = 170 fps
- RTX 4090 ( 1% Low ) = 176 fpsJelenleg az én legvalószínűbb teóriám,
hogy az RTX 5090 -es driverek nincsenek még teljesen optimalizálva
és itt egy extrém negativ esetet látunk.Persze lehet más oka is.
De mivel a Linux-os RTX 5090 -es driverek még szarabb állapotban vannak,
a driveres dolgok elég gyanúsak.Remélem, hogy az nVidia hamar kiad valami optimalizáltabb drivert
és az újabb tesztekben ez már nem érzékelhető ennyire.
> hogy cherry picking alapján általánosítasz.
csak annyi általánosítgatásom van, hogy <valószínüleg> nincsenek
még <rendesen> optimalizálva az RTX 5090 -es driverek.
( az RTX 4090 -hez képest )
És a HW architekturális tervezési problémának sokkal kisebb az esélye; -
válasz
huskydog17
#48127
üzenetére
már le is jött:
-
FLATRONW
őstag
válasz
huskydog17
#48100
üzenetére
Kösz, legalább már holnap lesz mit böngészni.
-
válasz
huskydog17
#47811
üzenetére
5080 - 4080 super pláne vicces így: 10-12% különbség, annyival magasabb fogyasztás és megjelenéskor másfélszeres árkülönbség
-
huskydog17
addikt
válasz
huskydog17
#47732
üzenetére
Érkezett frissítés:
Az RTX 5080-as MSRP kártyák tesztjei 01.29-én jelennek meg.Ezzel az 5080-ért sorban állók is megkapják a teszteket időben.

A nem MSRP (OC vagy prémium, kinek hogy tetszik) custom design-ok tesztjei továbbra is 01.30-ra vannak belőve.
-
hokuszpk
nagyúr
válasz
huskydog17
#47739
üzenetére
"Ez csak annak gond, aki 01.30-án hajnalban sorba akar majd állni,"
pár nappal előtte már ott fognak táborozni az üzletek előtt.
mint rendesen![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Busterftw
nagyúr
válasz
huskydog17
#47739
üzenetére
Talan warcat irta, hogy kb delutan 2-3 kozott szokott launch lenni boltoknal, de nem tudom az CET idore ertette-e

Igazabol a 5080 FE lesz kb az, hogy talan 1-2 napig birja az elso keszlet.
4080-nel emlekszem volt stock par napig.Azert lenne jo tobb ido, tobb modellrol legyen teszt.
-
Busterftw
nagyúr
válasz
huskydog17
#47732
üzenetére
Annyira nem buli, hogy 5080 teszt es launch egy napon lesz, nincs ido mindent atnezni

-
fatal`
titán
válasz
huskydog17
#47443
üzenetére
Nem a platformról volt szó, hanem a kártyák encoderéről és annak a fejlesztéséről, aminek a YT esetén kizárólag live streamkor van közvetlenül szerepe. Ami viszont pont ugyanannyira rétegigény (és nem platform) egy GPU vásárlásakor, mint a VR és én erről beszéltem.
Nem hiába. Magas bitrátás, azaz nagyon jó minőségű forrásból a YT is sokkal jobb végeredményt fog adni, mint egy középszerű vagy szar forrásból.
Nyilván jobb minőséget fog adni, ezt nem is vitatom, a hiábával kicsit túloztam. Ettől még mikor utoljára néztem, jóval sötétebb lett a videó, mint, amit feltöltöttem. Mondom, lehet, hogy ezt azóta javították, ritkán töltök fel videót. -
fatal`
titán
válasz
huskydog17
#47418
üzenetére
A YouTubera való live streaming GPU-val rétegigény, semmiféle többmilliárd felhasználó nincs, aki live streamelne.
A feltöltés nem on the fly encoding, a videók nézése meg mégcsak nem is encoding.
Hiába töltesz fel sokszoros bitrátával, azt lekonvertálja. Bár lehet, hogy mostanra már javították, hogy egy sötét szar lett belőle.
-
M@trixfan
addikt
válasz
huskydog17
#47418
üzenetére
Én ProRes anyagot töltöttem fel, ott aztán hadd kódoljon a YouTube!
Amúgy mindig újrakódol minden esetben? -
fatal`
titán
válasz
huskydog17
#47412
üzenetére
Szerintem a streaming pont ugyanolyan rétegigény.
A YouTubeon van HEVC, de minek, borzasztó hulladékot kódol belőle. Inkább bitratet kéne emelni, meg 60 fps-nél nagyobb videók támogatása se lenne rossz.
Én csak azt mondom, hogy szerintem nem baj, ha még fejlesztenek az AVC encoderen, van létjogosultsága.
-
gejala
őstag
válasz
huskydog17
#47406
üzenetére
"viszont engem nagyon meglepett, hogy még mindig ölnek erőforrást a borzalmasan elavult AVC kodekbe"
Egyedül az AVC-nek van gyakorlatilag 100% kompatibilitása szerkesztés és lejátszás tekintetében is. HEVC-nek elég jó már manapság, de azért közel se AVC szint. AV1 kompatibilitása gyakorlatilag nulla, csak akkor van értelme használni, ha garantáltan nem akarod szerkeszteni. -
huskydog17
addikt
válasz
huskydog17
#47250
üzenetére
Kiegészítés:
Meglett a válasz a multimédia motor frissítésre. Szóval aki érdekel, hogy pontosan milyen fejlesztéseket kapott az NVDEC és NVENC:
"Decoding 4:2:2 video can be challenging due to the increased file sizes. GeForce RTX 50 Series GPUs include 4:2:2 hardware support that can decode up to eight times the 4K 60 frames per second (fps) video sources per decoder, enabling smooth multi-camera video editing.
The GeForce RTX 5090 GPU is equipped with three encoders and two decoders, the GeForce RTX 5080 GPU includes two encoders and two decoders, the 5070 Ti GPUs has two encoders with a single decoder, and the GeForce RTX 5070 GPU includes a single encoder and decoder. These multi-encoder and decoder setups, paired with faster GPUs, enable the GeForce RTX 5090 to export video 60% faster than the GeForce RTX 4090 and at 4x speed compared with the GeForce RTX 3090.
GeForce RTX 50 Series GPUs also feature the ninth-generation NVIDIA video encoder, NVENC, that offers a 5% improvement in video quality on HEVC and AV1 encoding (BD-BR), as well as a new AV1 Ultra Quality mode that achieves 5% more compression at the same quality. They also include the sixth-generation NVIDIA decoder, with 2x the decode speed for H.264 video.
NVIDIA is collaborating with Adobe Premiere Pro, Blackmagic Design’s DaVinci Resolve, Capcut and Wondershare Filmora to integrate these technologies, starting in February.
3D video is starting to catch on thanks to the growth of VR, AR and mixed reality headsets. The new RTX 50 Series GPUs also come with support for MV-HEVC codecs to unlock such formats in the near future."Tehát a dekóder (NVDEC) 4:2:2 színformátum támogatást kapott és egy darab dekóder blokk 8 darab 4K60 fps streamet képes dekódolni. Az 5090-ben és 5080-ban kettő ilyen dekóder van, azaz 16 db 4K60fps streamet képesek egyszerre dekódolni (a két 70-es kártyában 1 darab blokk van). Ezen felül MV-HEVC támogatás jön 3D videókhoz (VR&AR). Továbbá az ősöreg AVC (H.264) kodekkel történő dekódolás tempóját megduplázták.
NVENC motor esetén javult a képminőség HEVC és AV1 kodek esetén, illetve AV1 Ultra Quality-nél a tömörítés hatékonysága. Ezen felül itt is érvényes a MV-HEVC támogatás.
Az 5090-ben három NVENC blokk van, az 5080-ban és 5070Ti-ban kettő, míg a sima 5070-ben egy darab.Hát, a tippem nem jött be (VVC), viszont engem nagyon meglepett, hogy még mindig ölnek erőforrást a borzalmasan elavult AVC kodekbe. Reméltem, hogy mihamarabb kihal, de ezzel csak késleltetik a kihalását.
-
X2N
őstag
válasz
huskydog17
#47320
üzenetére
RIP normális memória/CPU hőmérséklet

-
válasz
huskydog17
#47250
üzenetére
Gondban is vagyok amúgy azzal, hogy hogyan értékeljem ezt a szériát. Eddig alapvetően a raszteres teljesítményt néztem az árhoz, és ott vártam 30-40% javulást, de most már én is ott kezdek tartani, hogy a sok feture mellett nem lehet legyintve elmenni. Mondjuk nekem ez a 3x framegen nagyon fura, az 1x verzió tetszik, mert mondjuk 40 helyett 70 az értelmes, de a 40 helyett 140 kevésbé tűnik reális use case-nek, a 70 helyett 240 meg pláne, miközben a késleltetés marad.
Remélem, lesznek olyan tesztek, ahol natív, DLSS és FG mérések lesznek külön külön. -
S_x96x_S
addikt
válasz
huskydog17
#47250
üzenetére
> így ezek a megmondó emberek már most elkezdték temetni az 50-e szériát,
Jensen kifejezetten a 40-es szériát temeti!
"Nvidia's new RTX 5070 will deliver 'RTX 4090 performance" at $549
ráadásul
- 12GB-al ( vs. 24GB )
- és 1/3 áron! -
hahakocka
őstag
válasz
huskydog17
#47250
üzenetére
A techteszterekkel S Azorèkkal kèszült 9070 es interjút olvastad? Elèg magabiztosak voltak pedig S ez közvetlen Nvidia show előtt volt tuti ismertèk kb màr addigra őket. Belső információkat előbb szoktàd tudni egymàsról. 5090 2000 dolcsi valós majd 2400 kb. 4090 1600 dollár msrp melyik dràgàbb? 20-25% gyenge RT S gameben amivel sokan következtettek a raszterre nem is volt raszterről egy dia se. Vajon mièrt? Lehet ezèrt csökkentettek èpp. Valós erő lehet elmarad? FSR 4 driverrel lesz Rdna 2-3 ral , erről is beszèltek az interjún. Eddig is FSR T nem egy genen hasznâltäk
-
Quadgame94
őstag
válasz
huskydog17
#47250
üzenetére
Mondjuk azt te is elfelejted, hogy az AMD sehol nem jelezte, hogy itt GPU-kat mutatnának majd be

Ezek után talán most már még jobban, tökéletesen érthető Jack remegése a színpadon.
Mik után? Semmilyen egetrengető dolgot nem jelentettek be. Az 5090 egy mérnöki csoda? Nos 744 mm2 lapkára épül... A GB203 meg egy AD103 refresh. Mindenképpen egy választás az AMD részéről, hogy nem akarnak ilyen irányba menni. Hogy miért jó kérdés. Azt gondolom, hogy most is tudtak volna egy RTX 4090 +10%-os kártyát kiadni. De ez valószínűleg nem éri meg nekik, főleg nem RDNA4 alapon. UDNA már más kérdés lesz.
-
válasz
huskydog17
#47049
üzenetére
Redditen azt írja egy tag hogy update formájában mehetne rá, mert a DP 2.1 mellé a vezérlő tudni fogja a HDMi 2.2 sávszélt is biztosítani. Fene tudja meglátjuk.
Busterftw: Szerintem majd 2027 körül

DE nem tudom hogy fizikailag frissíthető e a 2.1b. -
válasz
huskydog17
#47043
üzenetére
[HDMI Forum Announces Version 2.2 of the HDMI Specification with 96 Gbps of Bandwidth]
Állítólag az új kártyák már lehetséges, hogy támogatják,de nem hivatalosan még. -
válasz
huskydog17
#47043
üzenetére
Csak legyen is 3 méteres kábel hozzá emberi áron.
-
GeryFlash
veterán
válasz
huskydog17
#46975
üzenetére
FIatal motor? Konkretan majusban lesz 5 eves.
-
T.Peter
őstag
válasz
huskydog17
#46975
üzenetére
A stutter csak kozvetett performance problema, az nem optimalizacio kerdese. Ha a studio ugy dont hogy elozetes shader forditas van, akkor nem lenne on the fly shader forditas miatti akadas. Ez dontes kerdese, semmi koze hozza az engine-nek. Rossz donteseket hoznak a fejlesztok. A betoltes miatti akadas mar reszben engine problema, de ott is vannak dontesek, amiket nem hoznak meg vagy rosszul dontenek es igy nem lesz orvosolva a betoltes miatti akadas.
A verziok kozotti upgrade-ek meg segitenenek alapbol annyit, hogy ne kelljen bizonyos dolgok felett annyit ulni.
Ha a nanite rendesen van hasznalva akkor nincs pop-in. Ha hasznalnak distance cull-t vagy hlod-ot akkor mar lesz pop-in.
Nem vitatom az ubi motorjainak sikeret/bravurjat (csomo jo dolog van ott is, a northlight-ban is a remedy altal es meg lehetne sorolni, szoval van elet az ue-n tul is), de az sem normalis, hogy olyanokert hibaztatunk mas motorokat, amik elsosorban a fejlesztok hibaja. Raadasul az ue-nek teljesen mas dolgoknak kell megfelelnie, mivel azt nem arra terveztek, hogy 1 studio hasznalja csak. Lehet, hogy itt a jatekosoknak nem tetszik a vegeredmeny, de mint mar irtam, nem veletlen, hogy nagy szazaleka a studioknak atall, mivel nincs a piacon masik motor, ami azt tudna, amit az ue, legalabbis ebben a formaban. -
Komplikato
veterán
válasz
huskydog17
#46975
üzenetére
Mondjuk LOD popping érdekes lenne, ha konkrétan nem használnak LOD-ot azaz full nanite a játék. Ha viszont nem az, akkor minek ide UE5? Miért nem használnak UE4-et vagy Unity-t?
A verziószám meg igen is fontos, mert rohadt sokat gyorsult a Lumen GI, meg lehet a Wukongban sem villognának az árnyékok, stb. Volt olyan játék amiben a stutert nem balfaszul megoldott on-the-sly shader fordítás okozta?
Jelenlegi problémás játékok multiplatformos, régi bugos verzióval futnak és/vagy UE4 alól rántották át őket a kötelező favágó meló kihagyásával.
Az Embark csinált egy Finals multi játékokat, de szerintem még a closed bétás Arc Raiders sem fut olyan szarul, mint ezek. Jó, persze az ott dolgozók egy része fejlesztette a Frostbite Engine-t anno, de ők valamiért ezzel is tudnak dolgozni.
Az is ide tartozik, hogy egyik magyar nyelvű videóban egy hazai fejlesztő is azt állította egy valamire való UE5 játékhoz az alap (nem high meg ultra!) grafikához a minimumnak 16GB vram kellene. -
T.Peter
őstag
válasz
huskydog17
#46967
üzenetére
Tegyuk mar hozza, hogy a legtobb ue jatek 5.1-gyel jott ki, alig volt 5.2-vel es 5.3-mal. 5.4 - 5.5 meg meg sehol sincs. A botranyosan szarul teljesit allitas meg elegge tulzas, van olyan jatek ami jol fut, csak tobb energiat kellett bele rakni.
Az avatarnal olyan lod pop-ok vannak, amiket ue-vel nem latsz. Szoval valamit valamiert. Fortnite-ban van pop-in a cull distance es az hlod-ok miatt sajnos. -
válasz
huskydog17
#46895
üzenetére
Én anno ezeket mind az Anandtech összefoglalóból néztem, és kb sosem élőben, mert alapvetően nem túl érdekesek számomra. Az előadás után meg már Anandtechen ott volt kb. az összes infó sorban.
Anandtech most már nincs...
-
hahakocka
őstag
válasz
huskydog17
#46886
üzenetére
Mármint akkor kedd hajnal már az időeltolódás miatt ?
AMD s Intel mikor lesz?
-
válasz
huskydog17
#46886
üzenetére
Reggel felkelsz és megnézed jutúbról, nem vesztesz semmit

-
Jacek
veterán
válasz
huskydog17
#46046
üzenetére
Tehát te ezt a két teszted hozod a TPU-s teszt mellé ami egyébként frissített 2024 juliusi, csak az alap játékkal.
Az egyik tesztben
"Az Alan Wake 2: Night Springs nem rendelkezik túl bonyolult textúrákkal, és a VRAM éhsége ennek megfelelően visszafogott." Tehát a kieget tesztelték ahol lebuutzitották a texturákat
Másik teszt
"Annak érdekében, hogy megakadályozzuk a grafikus kártyák összeomlását a sugárterhelés alatt, aktiváljuk az upsampling funkciót a megfelelő minőségi módban."
Kiemelném :megakadályozzuk a grafikus kártyák összeomlását"Ez nálad mit jelent? a 12Gb kártyákat amiről szó van
Tényleg perdöntő hogy modosították a tesztet hogy ne szarják össze megukat 
-
Jacek
veterán
válasz
huskydog17
#46034
üzenetére
Annyit tennék hozzá hogy ezek nem ugyan azt tesztelik am, hanem kieget meg DLC. az sem tiszta hogy van beépitwett bench vagy mindenki mást tesztel

"Az Alan Wake 2: Night Springs nem rendelkezik túl bonyolult textúrákkal, és a VRAM éhsége ennek megfelelően visszafogott."
Magyarul igy van kialakítva.?Másik: teszt azt meg lol
"Annak érdekében, hogy megakadályozzuk a grafikus kártyák összeomlását a sugárterhelés alatt, aktiváljuk az upsampling funkciót a megfelelő minőségi módban."
Kiemelném :megakadályozzuk a grafikus kártyák összeomlásátMint itt megjegyezte valaki DLSS és társai kevesebb memo fogyasztást okoznak...
Tehát nativban bereccsen, DLSS/FSR segit rajta
De ez a két teszt khhhmm nem meggyőző -
Jacek
veterán
válasz
huskydog17
#46034
üzenetére
Itt valóban látszik hogy anomália vagy később javítottak valamit!
Engem ez az AMD így úgy nem érdekel... -
Devid_81
félisten
válasz
huskydog17
#45569
üzenetére
Az ugy nez ki mint egy videokartya ott

Kb ennyit tudtunk meg rola elso korben.
Ezenkivul akkora mint 2 tegla es tenyleg csak 1 tapcsatija van, szoval meg siman akarmennyit is fogyaszthat ~600Wattig -
gainwardgs
veterán
válasz
huskydog17
#45569
üzenetére
But can it run Crysis?

-
bitblueduck
senior tag
válasz
huskydog17
#45553
üzenetére
nemtudom kinek hol van a tűréshatára, nekem olyan videokártya nem szimpatikus aminek alaplapi PCIE + 600W-os csati nem elég. azelőtt soha nem volt bajom a hőtermeléssel, de a mostani 300W-os kártyám miatt számítógépházat kéne cserlénem, mert ha nem veszem le az oldalát akkor 105+ fok a hotspot, nyitva meg 95. azért ha valaki megdobna egy 4090-el duzzogva elfogadnám, és valahogy megoldanám
. nektek mi férne bele egy 5090-nél, van valami határ? -
gaben22
őstag
válasz
huskydog17
#45553
üzenetére
"Kimigyerek" is pár hete már egyet mondott, előtte volt egy pletyka (lehet az is tőle?), hogy kettő is lehet akár. Amúgy ha emlékeztek a Galax 4090 HoF-on is kettő volt szóval nem lenne újdonság.
-
válasz
huskydog17
#45553
üzenetére
"Kettő? Naivak vagytok b***meg - 3 lesz rajta!"
Bocs, nem bírtam kihagyni
-
M@trixfan
addikt
válasz
huskydog17
#45472
üzenetére
Értem, köszi, bár abszolút nem tartom logikusnak. Ha megvan a neurális háló tréning akkor nem látom mi akadálya van annak, hogy egy natív felbontásra downsampling történjen, vagy subpixel szinten legyen “felskálázás”.
-
válasz
huskydog17
#45256
üzenetére
A Blackwell-re a kereslet mind az NV mind a Foxconn szerint őrülten nagy.
... és ez btw. lényegesen nagyobb probléma lehet a játékosok számára, mint az, hogy az 5080-nak hurka az SM-konfigurációja.
-
válasz
huskydog17
#45252
üzenetére
"A new generative AI workflow has been shown to deliver an additional 2x speedup on top of the accelerated processes enabled through cuLitho."
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#44764
üzenetére
Akkor pontokba szedve:
A lista azért fontos, mert te azt hiszed, hogy minden PhysX játék GPU-val gyorsít. Nem, ahhoz külön kód kell, és a listában szereplő játékok támogatják azt a kódot. Tehát ott van az a pár cím, amiben működik ez, minden más címben hasztalan a GPU-d PhysX-re, mert a CPU-n fut a kód mindenképpen.
Az NV-től régen kérdeztem, hogy egy ideje már nincs GPU-s PhysX, és hogy ez halott-e vagy valami. Nekem azt írták, hogy most az RTX-re megy a pénz, a GPU-s PhysX-et a 4-es verziótól kezdve átalakították professzionális szintre. Ez abban nyilvánul meg az NV szerint, hogy maga a szimuláció sokkal pontosabb, így ipari szintű modellezéshez is használható, viszont a pontosságnak az az ára, hogy 10-20x nagyobb az erőforrásigény. Tehát a PhysX 4-5 már nem optimális játékra, mert valójában a játékokban nincs szükség arra, hogy hihetetlenül pontos legyen a fizika modellezése. Kismértékű változást jelentene csak a kinézetet tekintve, miközben a számítások oldalán 3-4 VGA-ra van szükség hozzá. Nos, röviden ezért nincs GPU-s PhysX játék manapság.
A 3.4-es verzió megmaradt a régi, pontatlanabb fizikánál, azt begyorsították.
A Unity gyárilag négy fizikai motort támogat: PhysX, Havok, Unity Physics és Box2D. A PhysX verziója gyári szintű támogatás mellett valóban 4.1, de nem engedélyez GPU-s gyorsítást, pont amiatt, amiért az NV nem erőlteti ezt manapság. A 4.1-re azért tértek át, mert kedvezőbb a CPU-s kód sebessége az AVX optimalizációknak hála. A PhysX 5-öt viszont már nem is implementálták még kísérleti szinten sem, mert ott már a CPU-s kód is nagyon más, sokkal-sokkal több magot igényel a pontosság miatt. Ez ipari szinten, ahova fejlesztették oké, mert oda nem nehéz 64-magos Threadrippereket venni, de a gémereknek erre nincs pénzük. És az is számíthat, hogy a Unity inkább a Unity Physics fejlesztésére koncentrál, hiszen az gyári megoldás, és ez azért lényeges számukra, mert nem lesznek szopatva az olyan jellegű piacváltástól, amit a PhysX-szel csinált az NV. Ugyanígy az Unreal Engine is ezért fejleszti a saját megoldását, mert a PhysX irányával gaming szinten nem tudnak mit kezdeni.
GPU-s PhysX-re a 3.4 az utolsó, ami játékra is alkalmas, mert az még nem ipari szintű pontosságra van kialakítva. CPU-ból még elmegy a 4-es. Az 5-ös semmiképpen, mert az minden szempontból robotika szimulációra van írva. Az nagyon jó ipari szinten 4-8 GPU-s Threadripper rendszereken, de a gaming nem tud vele mit kezdeni, mert nincs meg a pontosság által megkövetelt teljesítmény egyetlen GPU-ban. Úgy meg pláne nincs, hogy a GPU közben egy rakás más dolgot csinál.
Azokat a részfeladatokat, amiket lehet gyorsítani GPU-val már rég alkalmazzák a játékok compute shaderben. Tehát különösebb haszna ezért sincs a GPU-s PhysX-nek már, mert az adott effektre írnak egy compute shadert és kész, fut mindenen.
Igen, a binárisokat odaadják ingyen, és ennek pont az a hátránya, hogy ha nem működik, és az esetek többségében nem fog, mert nem tud az NV minden egyes specifikus tényezőhöz alkalmazkodni, akkor mehetsz a supporthoz, hogy írják át neked a kódot, és fordítsanak neked olyan binárist, ami működik. Ezt megcsinálják, de erre licencszerződést kell kötni, mert az NV support nem fogja neked ingyen működővé tenni a kódot. Hülyék lennének, ha pénzt is adnak ezért az emberek.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#44745
üzenetére
Ezek a játékok használnak GPU-val gyorsított PhysX-et:
Active Worlds / Alice: Madness Returns / Assassin's Creed IV: Black Flag / Batman: Arkham Asylum / Batman: Arkham City / Batman: Arkham Origins / Batman: Arkham Knight / Borderlands: The Pre-Sequel / Borderlands 2 / Bureau: XCOM Declassified / Call of Duty: Ghosts / Crazy Machines II / Cryostasis / Dark Void / Darkest of Days / Daylight / Fallout 4 / Hawken / Hot Dance Party / Hot Dance Party II / Killing Floor 2 / Lords of the Fallen / Mafia 2 / Metro 2033 / Metro 2033 Redux / Metro: Last Light / Metro: Last Light Redux / Mirror's Edge / Passion Leads Army / Rise of the Triad / Sacred 2: Fallen Angel / Sacred 2: Ice & Blood / Star Trek: D-A-C / Tom Clancy's Ghost Recon Advanced Warfighter 2 / Unreal Tournament 3 / Warface / Warmonger - Operation: Downtown Destruction
Még használt eredetileg a Warframe és a Planetside 2 is. A Warframe lecserélte egy sajátra, míg a Planetside 2 esetében licencproblémák voltak, és a Sony inkább kivette, hogy ne kelljen az NV-nek fizetnie.
Leginkább azért nem használnak ma már GPU-s PhysX-et, mert valójában sosem fizikáról volt szó, hanem grafikáról, és a compute shader kiváltotta ezt. Persze az sem segít, hogy az NV a rendszert nem fejleszti már a játékok szemszögéből. A 3.4-es volt az utolsó verzió, ami játékhoz készült. A 4-5 már nem igazán. A PhysX játékokhoz tervezett verziója 2018 óta gyakorlatilag vegetál. Nem tudni, hogy az NVIDIA valaha is újraindítja-e. Abból kiindulva, hogy már arra is figyelmeztették a fejlesztőket, hogy a PhysX runtime kikerülhet a GeForce driverből, így a GPU-s PhysX effektek a játékokban elszürkülnek majd, arra lehet következtetni, hogy nem jön vissza ez az irány. A karbantartási költségektől pedig 6-7 év vegetálás után valószínűleg megszabadulna a cég.
Valós fizika gyorsításra dedikált hardverből nehéz, mert sok a round trip. Ezért használnak erre a célra csak CPU-t. Azért sem túl célszerű már a dedikált hardver, mert annyi mag van a CPU-kban, mint a dinnyében, szóval skálázni elég jól lehet már.
-
yarsley
aktív tag
válasz
huskydog17
#44633
üzenetére
Rekordbevételeket értek el, erre zuhant a részvény árfolyam vagy 8%-ot

De azért félelmetes hogy 9x bevételük volt data center eladásokból gaminghez képest, ami tavaly ilyenkor még csak 4x volt...
-
Jacek
veterán
válasz
huskydog17
#44571
üzenetére
Es Q3Arena ala kellett a maximalizalt 125 fps mert a mozgashoz kellett kulonben szivtal
-
D55
senior tag
válasz
huskydog17
#44569
üzenetére
Jogos, valahogy a mondatod első része felett elsiklottam
-
-=RelakS=-
veterán
válasz
huskydog17
#44569
üzenetére
Voodoo 1 + Unreal és Sin, 512x384-re vissza kellett venni, mert nem bírta a gép
Igaz, ez kb 98-99 volt. -
D55
senior tag
válasz
huskydog17
#44562
üzenetére
"a Frame Gen parasztvakítás"
Annyira azért nem az, mondom úgy, hogy nekem a 60Hz/fps-től világ életemben kifolyt a szemem... Eleinte csak az FSR megoldás volt számomra elérhető még az előző 3060 Ti kártyámmal és az még valóban darabosnak érződött sokszor, viszont a natív DLSS FG meglepett, hogy ehhez képest mennyire dob tényleg érezhetően a "fluiditáson".
Persze egy multiplayer játékban semmiképp sem használnám az input lag miatt, de egy kevésbé reflex+aim orientált singleplayer esetén azért az sem olyan vészes szerintem, hogy zavaró volna ott.
-
-=RelakS=-
veterán
válasz
huskydog17
#44562
üzenetére
Azt is hozzátehetted volna, hogy nem 1080p-ről beszélsz, hanem 800x600, 1024x768, ha meg volt pénz hardverre, akkor még 1280x1024 is szóba jöhetett

-
gainwardgs
veterán
válasz
huskydog17
#44554
üzenetére
Szép új világ...
1080p 73 fps egy Rtx 4090-el...
Parasztvakítás frame gen-t már mindenbe bele kell erőltetni, az meg hogy nélküle nincs elfogadható fps, hát gyönyörű
Csak így tovább
-
gejala
őstag
válasz
huskydog17
#44507
üzenetére
Legalább így minden is moddolható lesz megjelenés percétől kezdve. Csak annyi lesz a kérdés, hogy melyik játékra gerjednek be a modderek.
-
válasz
huskydog17
#44505
üzenetére

Nagyon bízok benne, hogy nem váltanak Unreal 5 re ezek után az érkező játékaikban. Most már ez a motor mindent is tud, remekül skálázható még a következő genenrációkra is a csúcsig és akár egy 5 éves kártyán is elketyeg.
-
válasz
huskydog17
#44495
üzenetére
Akkor fognak eltunni, amikor a vasarloik tobbsege nem ezt fogja varni. Vagyis kb. soha. Sajnos.
-
KRoy19
őstag
válasz
huskydog17
#44495
üzenetére
Nincs a filmes efektekkel baj, ha kikapcsolhatóvá teszik őket. De amikor nem lehet kikapcsolni azt a sok filmes fost, az bizony nekem is fel tudja nyomni a pumpát. Dof, chromatic aberration, botion blur és a többi szar.......
-
Teasüti
nagyúr
válasz
huskydog17
#44490
üzenetére
Mondjuk az, hogy külön kiemelik egy PC portnál, hogy lesz lehetőség 16:9-es képaránnyal játszani, hát ez azért elég gáz, ez kb. olyan, mint azt reklámoznák, hogy hé lehet majd felbontást állítani benne.

Előzetes alapján itt inkább csak arról van szó, hogy a mozis élményre tervezték a játékot.
Természetesen a többség úgyis 16:9-es megjelenítőn fog játszani, viszont gondolom a fekete csíkokkal lenne hű az alkotói szándékhoz, mint a moziban. -
válasz
huskydog17
#44490
üzenetére
Alakul, bár az űrcsatás részek még a Nintendo 64 re hajaznak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Gamer PC-Számítógép! Csere-Beszámítás! R5 3600 / RX 5700 8GB / 16GB DDR4 / 256SSD + 2TB HDD
- LG 65M4 - 65" Wireless OLED evo - 4K 144Hz - MLA Plus - 3000 Nits - NVIDIA G-Sync - FreeSync
- BESZÁMÍTÁS! Gigabyte B650M R5 7600 16GB DDR5 512GB SSD RX 9070 XT 16GB NZXT H7 Flow fehér 750W
- Samsung Galaxy S23 Ultra 5G 256GB, Kártyafüggetlen, 1 Év Garanciával
- Eredeti DELL 240W töltők (LA240PM160)
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest
Ha szoftverfejlesztő vagy te is, akkor ismered a Proof of Concept fogalmát, amikor egy technológiát "kipróbálnak", esetleg még be is rakják egy létező termékbe, hogy hogy szuperál / hozza-e az elvártat. A GTA 5 erre tökéletes játszótér volt. A GTA 6 RT részét már biztos nem fejlesztik a játék kiadása előtt pár hónappal. Ezt a félidőig a játékmotor fejlesztésénél le kell boxolni.


volt is valami hír hogy ott van a top3 cég között nemrég. Eddig is milliárdok álltak rendelkezésére így persze hogy könnyű technikai előnyt felépíteni sok pénz, sok szakember. Azon nem csodálkozok ha egy rég monopolhelyzetben lévő cég tud először valami új technikát bevezetni. (DLSS, RT) Az lett volna a csoda ha a lejtmenetben lévő Intel 1. generációs rendes GPU i hozzák ezt elsőként.

na igen láttam hogy youtubon milyen szép nálam meg nem ugyan az



