Hirdetés
- Hogy is néznek ki a gépeink?
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- Milyen billentyűzetet vegyek?
- MWC 2025: A ThinkPad notebookokról sem feledkezett meg Lenovo
- OLED TV topic
- Házimozi belépő szinten
- TCL LCD és LED TV-k
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- VR topik (Oculus Rift, stb.)
- Fejhallgató erősítő és DAC topik
Új hozzászólás Aktív témák
-
A válasz direkt volt, mert az adott illető kérdőjelezte meg a kevés videókártyát, és random fórumhozzászólásnak nevezte az erről szóló előzetes híreket. Most már vannak konkrétumok is, amik az előzetes híreket erősítik, és nem az ő kötözködő véleményét. Ezért reagáltam direkt neki, és direkt azt, amit. Sőt, most már újabb hírek is vannak hasonlóan villámgyorsan eltűnő készletekről, de már ezt nem akarom feldobni az illetőnek. Szerintem azoknak sem hinne...
-
-
Reggie0
félisten
válasz
Héraklész #133 üzenetére
Pont hogy a logika erositi meg, hogy eladhattak volna. Az ertelme az, hogy a piacnak semmi sem eleg es mindenert hajlando meg tobbet fizetni. A GPU-kat ugy felszippantja a piac, mintha nem lenne holnap. Raadasul a gyorsabb fejlodes a konkurencianal tovabb erositi a piaci poziciot, tehat celszeru. Harmadreszt az AI lufi is csak azt erositi meg, hogy most kell eladni, mert ki tudja mi lesz holnap amikor kipukkanhat.
Ebbol is latszik, hogy nem egy szimpla skalazasrol van szo, hanem muszaki problemakat kell folyamatosan megoldani, azaz fejleszteni, kulonben mar reg boltban lett volna. Mindossze az az illuzio, hogy a gamereknek fejlesztik es a gaming teljesitmenyben akarnak nagyot guritani. Valojaban az AI-s kepessegekre gyurnak, a gaming pedig egy mellektermek, amivel ossze lehet kapargatni az apropenzt is.
-
Héraklész
tag
A 20 evre elore tervezes nagyjabol olyan mese, mint a mikulas.
Persze, mert te azt mondod. :-D A logika cáfolja meg az utolsó mondatod. Ha a 4090-nel letarolják a piacot, kenterbeverik a konkurenst, nulla értelme van még fölé lőni. A szokásos generációváltáskor kényelmesen előszedik a minimális fejlesztést és kiadják újabb hatalmas pénzt bezsebelve, miközben fejleszthetik már régen a következő lépcsőt. -
Reggie0
félisten
-
-
1. Csak ez számít. Minden más csak artifactos "humbug" - jó, hogy van, de nagyon rossz irány, hogy lassan megkerülhetetlen lesz alapból a felskálázás. Ennek egy segédtechnológiának kéne lennie, amikor 2-3 év múlva már kezd nagyon izzadni egy kártya az újabb játékok alatt.
2. RT nincs minden játékban, upscaling nincs minden játékban, és mindkettőnek megvannak a maga hátulütői. Szerintem mindkét technológia a cégeknek jó, nem nekünk felhasználóknak - RT mindenből tükröt csinál és nem igazán elérhető a játékosok nagy részének a hardverigény és az MSRP-k miatt, DLSS/FSR meg kis költői túlzással majdnem olyan rossz mint egy motion blur.
3. UV-val az előző 2 NV generáció is a gyárinál sokkal jobb teljesítmény-fogyasztás mutatót hoz, minimális teljesítményvesztés mellett. Csak a gyári beállításokat érdemes összehasonlítani, az UV/OC már nagyon nem azonos körülményeket jelent, még generáción belüli összehasonlításnál is. Pl. van egy RTX 3080-am, arról is lazán le lehetett csípni olyan 60-80W-ot kb. 5% teljesítményért cserébe - rögtön sokkal jobb a perf/W. -
DarkByte
addikt
válasz
Szatyor123 #121 üzenetére
Sajnos nem, a legközelebbi Németország talán, ismerősön keresztül.
-
aginor
veterán
Igen, van egy olyan réteg is, de látszatra jóval kisebb és kevésbé határozott mint az első.
Engem sosem zavart, ha mondjuk egy 500Hz-es monitor megjelenik. Elfér a piacon, akinek meg nem tetszik, majd jól nem veszi meg.
Kétségtelen tény, hogy az a jobbik felállás, ha a technika jobb mint te, mert akkor te nyugodtan kifuthatod magad. Ellenben károsnak tartom, ha a technikának túl nagy jelentőséget tulajdonítunk, pláne, ha megtesszük bűnbaknak a saját bénaságunkért. -
BiP
nagyúr
1. Ez csak a raszter teljesítmény ugrás, ami szerintem jó.
2. Minden másban nagyobb ugrás van.
3. Korábban írták, hogy azonos fogyasztás mellett 17%, tehát jóval hatékonyabb.
A gobd akkor van, ha eleresztjük a fogyasztást, mert a maradék +17%-ot nagyon rossz hatékonysággal tudja hozni. -
hapakj
őstag
Tudom-tudom, itt a PH-n mindenki profi CS játékos, emiatt szüksége van minimum 300fps-re
- a másik véglet meg amikor megjelenik egy hír egy 500Hz-es monitorról, akkor jön ez meg minek, teljesen felesleges, az ember úgy sem lát 60Hz-nél többet. Sőt igazából FullHD-n 30Fps az igazi -
aginor
veterán
válasz
Héraklész #108 üzenetére
Óriási lagod nem lesz tőle. Nagyjából így néz ki a dolog: a lag megmarad a kiindulási nyers fps környékén, miközben maga az fps megugrik, amivel folyamatosabb játékérzetet kapsz (ahogy gbors is írta).
A fentiek miatt kompetitív versenyjátéknál nem olyan nagy az előnye, de egyjátékos címeknél, vagy bárminél, ami nem reakció alapú elég szépen muzsikál és jól is használható.
Tudom-tudom, itt a PH-n mindenki profi CS játékos, emiatt szüksége van minimum 300fps-re, 0 laggal és egy OLED monitor 0.003ms-es késleltetésére, természetesen 2000Hz-es egér mellett, mert különben nem tud teljesíteni, és emiatt kerül az eredménytábla végére.. -
-
hapakj
őstag
válasz
DarkByte #119 üzenetére
"ami képes köztes motion vector infókat adni hogy mi történt két fizikailag render-elt frame között,"
- arra gondolsz hogy egy teljes raszter után, 3 framig csak motion vektorokat ad az engine a DLSS-nek? Nem rossz elképzelés. Nem lennék meglepve ha DLSS4 ne támogatná ezt vagy ne kerülne bele később. -
DarkByte
addikt
Igazából nem is értem a DLSS FG miért nem eleve így lett megálmodva, valami API illesztés a játék motor felé, ami képes köztes motion vector infókat adni hogy mi történt két fizikailag render-elt frame között, hiszen a játék motor futhat nagyobb sampling rate-el, az nem olyan költséges mint maga a render (bár, CPU bottleneck biztos ilyenkor is van) és akkor már az MPEG motion vektorok szintjén vagyunk.
(egyébként érdekes módon a Reflex pont ezt csinálja, a jelen frame render végére ha a játék motor azt mondja a user közben mozdított az egéren, akkor utólagosan warp-olja azt a frame-et mintha időben később készült volna, és generatív AI-val kitölti a légüres részt a szélen; ez amúgy megint nem új cucc, a VR headset-ek a jitter redukálására régóta kihasználják hogy az optika miatt van egy "halott" terület a kijelző szélén amit sose látsz és lehet valamennyit pan-elni a képet a giroszkóp alapján büntetlenül, folyamatosabb mozgás érzetét keltve; ez ugyanaz, csak itt ki kell tölteni a kieső részt)
Innen meg már csak még egy lépés lenne hogy MPEG P/B frame szerűen a kártya pár teljes frame (I) kívül csak részleges képeket render-eljen, ahol tényleg történt valami változás, és a tech összeférceli a frame-eket.
De amúgy elhallgatva az interjút amit a DF csinált a napokban, szerintem pont erre tartunk. Egyre jobban redukálni a brute force raszterizációt, mert nem fogjuk bírni, főleg ha az RT-t sokkal jobban komolyabban vesszük.
Plusz az egyéb szintetikus dolgok, mint a neural metarials is errefelé mutatnak hogy egyre több asset lesz futásidőben előállítva és csak parametrizálást szállítják a játékkal.
Alapvetően szerintem tök jó hogy innoválnak, csak mint minden tranzíciós időszak nehéz, meg akit nem érdekel a tech az nyilván csak az árnyékos oldalát látja.
-
hapakj
őstag
Olyan szempontból értettem dedikált hw-nek hogy a raszterizációs feladatokba nem tud besegíteni.
Egyelőre mondjuk, mert ugye érkezik a "Neural Rendering". Mondjuk nem tudom mennyire lesz elterjedt, ha csak nVidia fogja tudni. Egyébként a Neural Texture Compression elég ígéretesnek tűnik.
-
Nem is azt írtam, hogy ugyanaz a kettő. Nagyon sok a hasonlóság, ezért ha az egyiket hókuszpókusznak nevezzük, akkor a másik is az. Alapvetően az a fő gondom, hogy egy informatikai fórumon vagyunk, ehhez képest úgy kezelik egyesek az innovációt, mintha egy középkori mocsármenti faluban éldegélnének. és az újdonságok képében az ördög kopogna rájuk. Nyilván vannak a framegennek problémái, vannak kompromisszumok, ha használja az ember, de ez az "eleve szar, mer' szar" hozzáállás nem éppen érett gondolkodásra utal...
A többien meg egyetértünk.
#116 hapakj: nem dedikált hardver dolgozik a DLSS-feature-ökön, a tensor core-ok is általános célú egységek, de valóban nem volt szerencsés szoftveresnek nevezni az upscalinget és a framegent. Legyen alternatív képgenerálás, úgy talán egyértelmű.
Anno a Turingnál szórakoztam a die shotokkal, és arra jutottam, hogy az RT és a tensor core-ok kb. 30%-át viszik el a chipnek. Viszont olvastam olyan verziót is, hogy csak 10%, ott megnézték a tensor-RT arányt is, kb. a 2/3-a volt a tensor. Szóval mondjuk 5-20% között lehetne növelni a végrehajtók számát a tensorok nélkül - nem 0, nem is világmegváltó.
-
hapakj
őstag
Mondjuk se az FG-t se az upscalinget nem tekinteném szoftveres extráknak, mert ezek konkrétan dedikált hw egységeket használnak az nvidia GPU-kban.
Igazából az lenne a kérdés, hogy mit tudna a HW ha az erre költött tranzisztorszámot raszterre meg Raytrace-re költenék.Bár pl a Ray Reconstruction is eléggé alapoz ezekre a hw egységekre és nagyon megdobja a Raytrace teljesítőképességét
-
BiP
nagyúr
MPEG más tészta. Ott rekonstruálsz valamit, amit előtte modelleztél az eredeti forrásból.
Itt meg megpróbálja kitalálni a köztes állapotot, ami vagy sikerül vagy nem. Bizonyos körülmények között (pl.magas fps, kevés generált frame, lassú mozgás, stb) jobban, ellenkező esetben kevésbé jól, esetleg már zavaró hatást elérve."Szerintem a FG esetében elsősorban az eredményt kellene nézni - ha jó a játékélmény, akkor miért fáj annyira, hogy nem minden egyes frame-et számol ki nulláról a GPU?"
Egyetértek. Ez is egy lehetőség (mint a DLSS skálázás), aztán mindenki el tudja dönteni az ingerküszöbe alapján, hogy ez neki még belefér-e vagy már nem."hogy a tesztekben el kell különíteni ezeket az eseteket, és akkor lesz egy kép arról, hogy mit tud a HW nyers erőben, és mit tud a szoftveres extrákkal. Ez jelen pillanatban meg is van".
Helyes. -
Csupingo
veterán
válasz
Sidorovich #111 üzenetére
Lehet, már a vga gyártásnál is kezdik elérni a falat. Már nem tudnak olyan mértékben fejleszteni, meg legtöbbször nem is akarnak. Ezek a fogyasztások is már kezdenek izzadságszagúak lenni, de ez mindig is jellemző volt a csúcskártyákra. Ilyen teljesítményt jelenleg nem lehet 100W környékén produkálni.
-
hapakj
őstag
Jah, csak itt az emberek 200% gyorsulást várnak el minden generációnál minden téren
S tényleg annak ellenére, hogy manapság az nVidia fő profilja az AI képesek 3D grafikában is eredményeket / fejlesztéseket elérni
Míg a többi gyártó ami VGA-val elvileg csak a 3D grafikai piacot akarja lefedni eredmények helyett inkább átpozicionálja a termékeit középkategóriába, s előadják hogy mindig is így tervezték
-
Sidorovich
senior tag
"Most akkor javult vagy nem?"
A tesztek szerint javult. A hatékonyság és az elérhető max teljesítmény is javult. Csak a kettő egyszerre nem jön ki belőle. Gyári TDP-n ugyanolyan hatékony, mint a 4090: pont annyival erősebb, mint amennyivel jobban fogyaszt és fűt. Panaszkodnak is a tesztekben az FE hűtés hangjára pl.
Ha viszont visszaveszed a gyári 575W TDP-ről 450-re mondjuk, akkor a tesztek szerint jobban kijön a hatékonyság. Csak minimálisan romlik a teljesítmény, miközben sokat csökken a fogyasztás. Így a 4090-nél érdemben hatékonyabb tud lenni azonos (450W) TDP szinten is: 17%-al erősebb az 5090. -
válasz
Héraklész #108 üzenetére
Világos. Tehát szar, de ha valaki megmagyarázza, hogy miért nem szar, akkor neked tökmindegy, de akkor is szar, mert "írták"
Mégis mi a kórságtól lenne "óriási" lagod? A CB tesztben pl. a Cyberpunk esetében:
4K natív: 29.1 FPS, 65ms lag
4K DLSS: 56.7 FPS, 40ms lag
4K MFGx1: 103.5 FPS, 46ms lag
4K MFGx3: 190.9 FPS, 51ms lagEzek közül melyik lag az óriási? (súgok: egyik sem. még a 65ms sem.)
-
BiP
nagyúr
válasz
Sidorovich #105 üzenetére
lényeg ezen is ugyanaz, hatékonyságban az 5090 nem lépett előre semmit,
+ ha a 4090 TDP értékére (450W) korlátozzák az 5090-et, akkor van 17% előnye.
Most akkor javult vagy nem?Ahogy Ti is írtátok közben, azért mégis hatékonyabb lett, még ha nem is fejlesztettek a gyártástechnológián. Ez is egyfajta fejlesztés.
És sajnos szerintem is inkább az AI-ra , DLSS-re gyúrtak inkább, mint a hagyományos raszteren meg az rtx-en.
Most az AI a buzzword, ezt "kell" nyomatni. Marketingebn is meg fejlesztésben is. -
Sidorovich
senior tag
Szerintem sem. Gyártástechnológiai előrelépés nélkül, pusztán az architektúra változtatásaival szerintem teljesen korrekt.
Igazából csak az zavar, hogy a nagy NVIDIA előadáson mutatott ábrák köszönőviszonyban sincsenek ezzel a lényeggel. Megy a bullshit a részvényeseknek. Meg a sima teszteknél is ha valaki csak az FPS ábrákat nézi, abból se derül ki, hogy az extra FPS nagy része az extra fogyasztásból jön. -
hapakj
őstag
válasz
Sidorovich #105 üzenetére
Azért őszintén szólva a 17% sebesség előny sem rossz ugyanolyan fogyasztás mellett. Bár ez is leginkább annak tudható be, hogy nagyobb a chip és több végrehajtó egység van benne.
Nekem úgy tűnik, hogy Raster / CUDA oldalról ez még az Ampere architektúra. Valszeg utóbbi időben AI / RT-re koncentráltak. Jókérdés előbbi oldalról mekkorát lehet még javítani.
-
Sidorovich
senior tag
válasz
hokuszla #100 üzenetére
Lehet velem van a gond, de nem értem, hogy a szöveg nélküli emoji halmaz mit szeretne közölni.
Pont ezt az ábrát pár hozzászólással korábban már bevágtam ide. A lényeg ezen is ugyanaz, hatékonyságban az 5090 nem lépett előre semmit, legalábbis a gyári TDP értékek mellett. Ugyanazt a gyártástechnológiát használják, tranzisztorsűrűség is kb. ugyanaz, csak nagyobb és többet fogyasztó lett a GPU.
A német teszt kimutatta, hogy ha a 4090 TDP értékére (450W) korlátozzák az 5090-et, akkor van 17% előnye. Ez már valami kézzelfogható, de gondolom ez az előrelépés nem lett volna olyan látványos az ábrákon a CEO mögött, így el kellett engedni majdnem 600W-ig, meg bedobni még több generált framet.
Azt külön nem is értem, hogy jutottunk el alig 2 generáció alatt a <300W TDP (Titan RTX) csúcskártyáktól a közel 600W-ig. Ez lenne a fejlődés? -
válasz
Héraklész #102 üzenetére
De miért lenne hókuszpókusz? Vagy az MPEG is hókuszpókusz, ahol egy rakás (jóval több, mint 1 vagy 3) képkockát az előző képből és mozgásvektorokból rekonstruálsz? Vagy mondjuk azt, hogy a filmkiadók nem elég tökösek, és miért nem 1TB egy 2 órás 4K film?
Szerintem a FG esetében elsősorban az eredményt kellene nézni - ha jó a játékélmény, akkor miért fáj annyira, hogy nem minden egyes frame-et számol ki nulláról a GPU?A másik oldala a dolognak nyilván az, hogy a tesztekben el kell különíteni ezeket az eseteket, és akkor lesz egy kép arról, hogy mit tud a HW nyers erőben, és mit tud a szoftveres extrákkal. Ez jelen pillanatban meg is van.
Új hozzászólás Aktív témák
Hirdetés
ph Ez azonban csak ideiglenes helyzet, tavasszal normalizálódni fog az árazás.
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest