Hirdetés
- Szénszál és réz találkozik az Inno3D egyslotos RTX VGA-in
- Vezetékmentes és kompakt gaming klaviatúra a Cherry Xtrfy védjegyével
- Cserélhető filtereket biztosít az Elgato legfrissebb, 4K-s webkamerája
- A YouTube-ot is betiltják a gyereknél az ausztrálok
- Gyilkosságban és öncsonkításban akart segíteni a ChatGPT
- Milyen processzort vegyek?
- HiFi műszaki szemmel - sztereó hangrendszerek
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Multimédiás / PC-s hangfalszettek (2.0, 2.1, 5.1)
- Milyen széket vegyek?
- AMD Radeon™ RX 470 / 480 és RX 570 / 580 / 590
- Milyen TV-t vegyek?
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Vezetékes FEJhallgatók
- Milyen videókártyát?
Hirdetés
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
carl18
addikt
válasz
Alogonomus #29297 üzenetére
+1 Szerintem is jelenleg a Ray Tracing hátránya hogy a bekapcsolása túl sok teljesitményt vesz fel. Mert ha csak 100 fps-ből csinálna 80-at még az elmegy kategória, de sajnos sokkal drasztikusabban csökken a képkocka szám.
A youtubon néztem pár összehasonlitás videót, persze realisztikusab az RT megoldás.
De ha a két képet egymás mellé rakod csak ha nagyon figyelsz a részletekre akkor tünik fel hogy ja ott "Ray Tracingolja" azt a rész.
A DLSS elég jó volna ha minden játék alatt müködne, de sajnos még mindig gyerek cipőben jár.(48 óra múlva indul a banzáj)
-
Abu85
HÁZIGAZDA
Ezért kellett volna nyílt forrásúvá tenni az egészet, nem csak kis részeit.
Véleményem szerint csak egy reális iránya van az újítások állandó bevezetésének. Eleinte mehet ez gyártói hátszéllel, de úgy sem tudod mögé rakni a világ pénzét, tehát amint elfogy az újdonság varázsa, a pénzt is kiveszed belőle, és onnan jön a lejtmenet.
Már az elején az kell, hogy nyílt forráskód legyen az egész, és ugyan az újdonság varázsa itt is eltűnik, de a megírt eljárásokat felhasználják, írnak saját implementációt a stúdiók, így maga a technológia fennmarad, sőt, sokszínű lesz.(#29298) huskydog17: A PhysX létezik 13 éve, míg az explicit API-k 6 éve. És nagy különbség, hogy a GPU-s PhsyX esetében már nincs fejlesztés alatt álló cím, míg az explicit API-kra több tucat.
A 4-es verzió pont a problémák forrása. Az NVIDIA elvitte a fejlesztését a professzionális felhasználás felé, és egy csomó olyan döntést hoztak benne, amelyek durván károsak a játékfejlesztőknek. Egy játékba többet között nem kell professzionális fizika, mert sokkal többet ér a sebesség, minthogy egy kő ugyan tényleg valósághűen esik le, de százszor lassabban számolja a hardver. Ezért lépeget az Epic Games saját rendszerek felé, Niagara a részecskeszimulációra, Chaos a rombolhatóságra, Finite Element Method FX a végeselem-módszerrel történő deformálhatóságra, stb. Sokkal egyszerűbb lenne egyszerűen integrálni a PhysX 5.0-t, csak annyira elment professzionális irányba, hogy sokszorosára nőtt a gépigénye, és nyilván a játékosok körében nem fognak 10-20 GPU-t venni szimulációra, az Unreal Engine-nek olyan módszerek kellenek, amelyek egy GPU-val is megoldják a problémákat. Lehet, hogy nem abszolút valósághűen, de összhatásban jó lesz.
A robotika persze rajongani fog a PhysX 5.0-ért, nekik megéri a beruházás, de ha megnézed az NVIDIA a PhysX-szel már marketing szinten sem foglalkozik. Eltűnt a kártyák dobozáról, stb. A gaming driverben a runtime is ezer éve frissült utoljára. Egyszerűen nincs értelme pénzt rakni a runtime modernizálásába, ha gaming szinten senki sem használja. -
huskydog17
addikt
Hardveres PhsyX kb. annyira terjedt el játékokban, mint a low level API támogatás a mai napig (77 vs 95). Azaz ha szerinted a PhysX nem terjedt el, akkor az explicit API-ok sem terjedtek el.
Egyrészt eléggé gáz, hogy így látod, amikor több tucat játékba került bele (77 db), másrészt ugye nem csak hardveres része van. A CPU alapú PhysX több szász játékba került bele és több tucat grafikus motorba.
A 4.1-es verzióval ráadásul újabb feature kapott hardveres gyorsítást, miközben az egész SDK már nyílt forráskódú és ingyenes. -
Alogonomus
őstag
"Miután a hardcore vásárlók többsége továbbra is sokkal inkább a 4k@120Hz-re veri, mint a valósághűbb képminőségre, eddig nem is nagyon volt miért gyorsítani ezen a folyamaton."
Amíg a raytraycing bekapcsolása harmadolja a képkockasebességet a minimálisan valósághűbb képminőségért cserébe, addig az emberek sokkal inkább stabil 144+ fps mellett fogják 1080/1440p-ben játszani órákon keresztül a játékokat, mint ugyanazt jó esetben szűk 60 fps mellett. Jelenleg a raytracing nagyjából ugyanazzal a problémával küzd, mint az SSAA. Szebb képet ad mindkettő, de nagyon nagy áron. Igazán csak az egyszemélyes, kényelmes tempójú kalandjátékokban érdemes bekapcsolni, mert azokban a játékokban a képminőséget van idő kiélvezni, míg egy pörgős ütemű játékban a kép szépségénél sokkal fontosabb, hogy hamarabb tudj reagálni az eseményekre. Ezért is annyira kevés a raytracing játék. Egyszerűen az emberek úgyis kikapcsolnák a sugárkövetést a multiplayer játékokban a normális szintű fps értékek érdekében. A DLSS 2 megoldhatta volna ezt a problémát, de a betanítási fázisa vállalhatatlanul hosszú és valószínűleg költséges is az Nvidia számára. Majd talán a DLSS 3 javíthat ezen, bár eléggé vad vállalásnak tűnik az Nvidia részéről, hogy minden egyes TAA-képes játékban automatikusan bekapcsolható lesz és komoly gyorsulást hoz majd.Valószínűbb, hogy az eleve DXR 1.1-hez írt játékmotorok és játékcímek hozhatják csak majd el talán azt a "világot", amikor már vállalható áron be lehet kapcsolni a sugárkövetést egy játékban. Ezek a játékok viszont 1-2 éven belül még nem igazán jelennek meg, mert csak mostanában kezdhetik fejleszteni őket, ahogy az első DXR 1.1-es fogyasztói termékek megjelennek.
-
A PhysX-szel az volt a gond, hogy a 2000-es évek közepének megfelelő volt a megvalósítás műszaki színvonala, és ezzel az NVIDIA nem kezdett semmit. A CPU-rész egy szálon futott, a GPU-s rész ki tudja, mennyire volt párhuzamosítható. Erre még rá is játszottak olyanokkal, hogy pl. a Mafia 2-ben a cloth csak akkor ment GPU-n, ha volt dedikált PhysX-kártya. Ebből következően a PhysX csak akkor volt értékelhető, ha vettél +1 kártyát Jensentől, vagy ha maga a játék nem volt túlzottan HW-igényes. A Borderlands 2-ben pl. brutálisan jó volt, teljesen más feeling volt egy sokrésztvevős harc, mint nélküle.
-
arn
félisten
nem nalam csipodott be
de a rt az egy sok potenciallal rendelkezo vmi, semmit se lattal eddig belole, mert keves hozza a hw. a mostani rt, az kb annyi, mint a rasterizacional ez:
https://www.youtube.com/watch?v=gtBFM5_hLPo
majd 5-10 ev tavlatabol megerted.
-
2xar
tag
válasz
proci985 #29270 üzenetére
Igen, de mire pl. a Physx "elterjedt" (vagy akárcsak a hozzá hasonló többi fizikai motor), ahhoz sok év és az kellett, hogy mindenféle hardveren és mindenféle szoftveren jogdíj- és minden egyéb korlátozástól mentesen elérhetővé váljon/váljanak.
Tehát mire elterjedt, azok a hardverek, amikkel először megjelent és amiknél úttörő, kiemelkedő újításként és selling point-ként bereklámozták, nem csak hogy elvesztették az egyediségüket abban hogy támogatták ezt az új feature-t, de teljesítményben is elavultak lettek.
És ez hasonlóan alakult más "úttörő", gyártóspecifikus technológiáknál is, sőt sok végül egyáltalán el sem terjedt.
Magyarul: akik ezek miatt az új feature-ök (Physx, RT, DLSS, Vulcan, HSA, Gsync, HBM, Tesselation) miatt választottak egy-egy adott úttörő képességű hardvert, azok soha nem kapták meg azt amit az adott termék ígért.
-
Jacek
veterán
Nalad becsipodott ez az rt? Kutyat nem erdekli jelen pillanatban, kb annyira hasznos mint egy fa.. izu nyaloka. Elore lepes is az 1.1-es rt-bol lesz nem a hihetetlen hardverbol... A tobbi resze meg helybetopi..
Remelem tol valamit a kozelbe az AMD lassan ott tartok inkabb az, vagy konzol a gep melle az is AMD... Kezd intelre hasonlitani az nv... remelem oda is jut.. -
válasz
carl18 #29276 üzenetére
Senkinek a torkán nem lett lenyomva. Pont akkora volt a generációs ugrás, hogy egy 1080Ti-vel egész jól el lehet lenni azóta is. Ha ennek ellenére megveszik a vásárlók a feláras cuccot, az nem az NVIDIA "bűne".
A hardveres RT, mint minden új feature, lassan fog gyökeret verni. Miután a hardcore vásárlók többsége továbbra is sokkal inkább a 4k@120Hz-re veri, mint a valósághűbb képminőségre, eddig nem is nagyon volt miért gyorsítani ezen a folyamaton. Hogy a konzolok hoznak-e ebben jelentős változást, abban szkeptikus vagyok, de lehetséges.
-
torma1981
veterán
válasz
yagami01 #29286 üzenetére
Hát tuti a 3080 olcsóbb lesz jóval mint a 2080Ti. És még gyorsabb is lesz nála. Nem 450k-ért fogják adni hanem kb 300k. De lehet olcsóbb is lesz. Nem véletlen adják el a 2080 Ti-ket ameddig lehet. Bár nem tudom ilyenkor ki veszi. Én tuti nem venném amíg nincsen itt az új generáció. Nekem 2080S volt. Régen eladtam már. Várom az újat.
-
yagami01
aktív tag
válasz
egyedülülő #29282 üzenetére
Nem tudom mennyire lesz alap, de a VR-t is támogatják a konzolok, lásd PS VR.
torma: Hát igen, ha olcsóbb nyilván még jobban megéri venni az újat. Csak hát inkább drágultak a dolgok az előző generációval. (Persze a 3090 ha csak a VRAM-ot is nézzük jóval olcsóbb lesz, mint az előző Titan)
-
egyedülülő
őstag
Akik még azt mondják, hogy az rt nem az út, mert a physix, vr, meg stb. azt elfelejtik, hogy az idén karácsonykor elindul egy konzolgeneráció ami támogatja ezt a ficsőrt és alap lesz a játékokban a sugárkövetés. Amikor millió és millió fixhardveres konzol támogat valamit, az el fog terjedni. Ezért is fekszik rá jobban nvidia is a témára.
-
yagami01
aktív tag
válasz
egyedülülő #29277 üzenetére
Az is épphogy. De én is azt írtam, hogy a 2k kivételével (2 ezres szériát értettem alatta).
(" korábban az új széria 70-e hozta az előző 80Ti szintet a 2K kivételével ") -
carl18
addikt
Hát akkár hogy nézzem, az RTX 2000 is le lett nyomva a vásárlók torkán. És mivel nem volt más ezért meg is vették az emberek. Azért kiváncsi lettem volna hogy ha az RTX helyet jön egy GTX 2000 széria és 60-70% sebbeség ugrás produkál akkor melyiket vették volna jobban az emberek.
Olyan ez mint a G-sync anno, azt is az Nvidia jokora felárral kinálta. Jött a FreeSync és most már az alap monitorok is támogatják mind két szabvályt. Sok mindenre mondták évekkel korábban hogy az a jövő. Még a 3D tévék, monitorok is szenzációk voltak pár éve. Most meg a kutya se foglalkozik vele, kikoptak a piacról.
Talán a Hardveres RT-nek akkor volna értelme, mikor már a játékok már alapból azzal dobnák piacra és nem is lehetne kikapcsolni. Talán még a DLSS lehet még érdekes, de azt se támogatja túl sok játék. Igy hogy gyakorlatban semmi se müködik vele nem igazán lehet vele számolni.
Szerintem az elmúlt években is megmutatkozott hogy jöhet itt Ray Tracing/Physx/ meg ki tudja milyen forradalmi eljárás. A Szimpla teljesitmény a legfontosabb, mert később egy 50 terraflopos GTX 4080 erőből megoldhatja a Ray Tracing problémát.
Főleg ha készül hozzá egy szoftveres leképző ami hatákonyan müködik. -
b.
félisten
Ami érdekes hogy videocardz 7 nm gyártásra írja a GA102-t, megerősítették a 20 GB verziót a 3080 ból custom ,de egyelőre ismeretlen dátummal és azt is írják hogy 2x8 PIN lesz a 3090 Custom kártyákon alapból, nem 2x 8 plusz az új csati.
A GDDR6 x nek 18 GBps sebességnél Jobb a fogyasztás/ teljesítménye mint a a hagyományos GDDR6 nek szerintük. -
válasz
carl18 #29267 üzenetére
A Turing inkább 40% volt, függően attól, melyik kártyát nézed. A 70-es valóban csak 30, de az volt a szélsőség.
A Ray Tracing-jövő egy igen érdekes kérdés. A Turing-launch idején előadottakból nekem úgy tűnt, hogy az NVIDIA őszintén azt hitte, hogy éppen most szállították le a Szent Grált, és kissé leforrázta őket a reakció. Nem tudom, hogy leforrázta-e őket annyira, hogy a jövőbeli fejlesztési irányokon változtassanak - mindenesetre ha igen, azt az Ampere esetében még nem fogjuk látni, mert 2018-ban már drámai változtatásokat nem lehetett tenni egy 2020-ban kereskedelmi forgalomba szánt GPU-n. Úgyhogy most mennek tovább az RT-féle ösvényen, aztán a következő generációnál kiderül, mozdulnak-e visszafelé a non-RT sebesség irányába.
(#29272) hokuszpk: ja OK. Meglepne. Esetleg valami szélsőségesen memória-zabáló cucc esetében lehet közel annyi.
(#29271) Pipó: a Turing esetében lehetett előre tudni a leakekből, hogy megduplázták az SM-ek számát azonos ALU mellett.
A körülmények fokozott szorítása pedig rá is kényszerítette őket arra, hogy botrányos fogyasztású kártyákat kínáljanak, ha igazak a pletykák. Pont ez az, amit ilyen távon lehet csinálni, "IPC"-növelésre kicsit (3-4 évvel) korábban kellett volna gondolni. -
-
yagami01
aktív tag
Így van, én is gondoltam erre a jelenségre. Sok mindenre mondják ami új és lehet benne potenciál, hogy az a jövő. Aztán simán lehet, hogy eltűnik ezért vagy azért. Szóval ezeket majd az idő eldönteni, hogy tényleg "jövő"-e.
-
2xar
tag
-
carl18
addikt
válasz
yagami01 #29264 üzenetére
Hát reméljük valóban lesz 50% előrelépés, és nem lesz az mint a Touringnál hogy generácionként 30% lép előre az Nvidia. Mert igy 4 év alatt jön 50-60% sebbeség növekedés az meg nem valami sok.
Arra meg fölösleges kitérni mert van hardveres Ray Tracing de nem sok minden profitál belőle. Még sok sok év mire alapvető lesz a játékokban, vagy arra épül egy játék. A Jövő a Ray tracing, de jelenleg nem eget rengető az egész.Ott a Régi Nvidia Physyx arról is mindenki azt hitte az a jövő, sőt még dedikált kártya is készült azon müveletek elvégzésére. Alig pár játék támogatta, a Mafia 2-re emlékszek. Most a Ray Tracing is elég kevés játék alatt van müködésre birva...
-
yagami01
aktív tag
Jacek: +1 Én is kizártnak tartom, hogy a táblázatban 3090 szerepel, mármint az a 30% karcsú. Főleg úgy, hogy mint írtad, korábban az új széria 70-e hozta az előző 80Ti szintet a 2K kivételével. Arról nem is beszélve, hogyha most azt mondjátok, hogy 2080Ti + 30% a 3090 és 2080Ti + 10-15% a 3080 (bár lehet még ez is jobb, mint a 2080 és 1080Ti esete volt...), akkor... hova jön a 3080Ti? Vagy a Super vagy mindkettő? Mert ugye mindkettőről láttunk már infót, de hogy valami jön a 3080 és 90 közé (20 gigásakat se feledjük) az szerintem biztos. Ezen a pár százalékon osztoznának? Lehet volt már ilyen, nem tudom, csak furinak tűnik. Meg egyébként is tuti eljutott az NV-hez a hír, hogy az emberek nagyobb előrelépést szerettek volna a 20-as szériával, azt gondolnám talán, hogy már csak ezért is odafigyelnek rá. Szóval nem tudom, én remélem azért, hogy ez egy 3080. Maximum. Valahogy a 3090 túl tekintélyt parancsoló név a 30%-hoz.
Maxxxim: Igen, de 3090-ről szól a találgatás. Ha 3080 lenne azt mondom okés.
arn: Nem csak az új fícsörökről kellene szólnia szerintem. Hanem magáról a teljesítményről is. Ok RT a jövő azt mondod és éppen ezért arra kell gyúrni. Na, de ugyan ezt mondták a VR-ra is, hogy az a jövő. Jacek pedig a VR-os teljesítményt hiányolja. Most akkor fontos a jövő vagy sem? Vagy egyik jövő fontosabb, mint a másik? -
A lineáris számtan csak akkor működik, ha van pár % IPC-növekedés - a unitszámok / kapacitások növelése nem skálázódik 100%-osan. A pár % javulás pedig az, ami általában jellemző - a Fermi és / vagy a Kepler pl. még romlott is ezen a téren. A Maxwell valóban kivételes volt - legalább két nagy és több kicsi okosság volt benne, amitől olyan 10-15% körül javult. A Turing hasonlóképpen, viszont ott egy nagy lépés volt, és az sem volt különösebben okos.
Szóval megfordítom a kérdés - mi utal arra, hogy az Ampere az "IPC" terén valami nagyot dobna? Én inkább úgy látom, hogy az órajelekkel akarnak sokat nyerni, a fogyasztás meg megy a levesbe. És persze RT, RT über alles. -
Abu85
HÁZIGAZDA
Eleve az IPC nem egy túl jó viszonyszám a TLP dizájnoknál. Rá lehet húzni ezt a GPU-kra is, de például az RDNA2 75%-kal nő az IPC-ben az RDNA-hoz viszonyítva, mégse lesz majd 75%-kal gyorsabb, mert a TLP dizájnoknál nem ez számít, hanem az, hogy a leparkolt wave-ek mellett legyen egy másik wave, amivel tud számolni a multiprocesszor. Nagyon leegyszerűsítve ez a legfontosabb egy GPU-nál.
-
Pipó
őstag
válasz
Raymond #29232 üzenetére
El tudod képzelni, hogy az Ampere "IPC"-ben nem fejlődött semmit két év alatt? Ilyen lineáris számtan, amit írsz akkor jönne ki, ha a turingot ezekkel a számokkal megnövelnénk, illetve maradnának 12 nanon. A maxwellel is mekkorát ugrottak ugyanazon a csíkszélen, itt miért elképzelhetetlen ez a 4K elterjedése, konzolok, konkurencia szorításában?
Véleményem szerint a "termék teljesítménye és hatásossága a régóta fennálló használat és a tapasztalatok alapján valószínűsíthető". -
Abu85
HÁZIGAZDA
válasz
Maxxxim #29255 üzenetére
Az egyik a Time Spy, a másik a Time Spy Extreme. Utóbbinak nagyobb a memsávszélre a terhelése, így többet érnek az új VGA-k a nagyobb sávszéllel, de a Time Spy alatt nem sok az előrelépés, mert az meg inkább ALU és ROP limites, ahol a nyersen szám szerinti előrelépés kicsi lesz.
-
Abu85
HÁZIGAZDA
Az explicit API-kon keresztüli több GPU-hoz nem kell semmilyen speckó link. Az összes multiadapter funkció a DMA-kon fut, tehát berakhattok két VGA-t a gépbe, mindegy, hogy van-e hozzá támogatás vagy sem, és ha az explicit API-n futó program támogat legalább egy WDDM-es AFR-t, akkor azok menni fognak. A WDDM-es AFR-nél több van, akkor az még jobb, mert ott akár két eltérő VGA is működhet, akár két külön gyártótól, stb. De a lényeg az, hogy az egész átkerült a program oldalára, és gyakorlatilag egy DMA motor szükséges hozzá, ami minden GPU-ban van. Alaplapon is csak két PCI Express sáv kell. Ez ma a multi GPU követelménye. DMA motorral rendelkező GPU, akármilyen alaplapban, akármilyen driverrel, nem kell hozzá semmi speckó BIOS, semmilyen driveres varázslat, de a programnak támogatnia kell.
Ezért lőtték le a gyártók a régi AFR-eket, mert ezek működését a Microsoft ellehetetlenítette az explicit API-kkal.
-
válasz
gejala #29250 üzenetére
Írtam már lejjebb is, a Turing megduplázta az ALU-k körüli infrastruktúrát, azért jelentősen gyorsabb azonos unit kapacitások mellett. Hasonlítsd össze a Pascal-t és a Maxwellt, ott csak pár % jött az infrastruktúrából - én hasonlóra számítok most non-RT téren.
(#29244) hokuszpk: igazából az majdnem tökmindegy - leszámítva azt a szűk kört, aki ilyet akar venni. A halo-kártya árazása nem feltétlen reprezentatív a termékskála többi részére. Engem sokkal inkább a 3080 érdekel ilyen szempontból.
-
proci985
MODERÁTOR
annal is van link?
en tavaly nyarig CFeztem ket 290Xel, de tavaly az egyetlen jatek ami tamogatta kb a Far Cry : New Dawn volt.
kar egyebkent, mert ket 2070S / 5700xtbol remek ar/ertek aranyu es baromi gyors rendszert lehetne epiteni. masik oldalrol meg hala egnek, mert igy hat ev multiGPU utan visszatertem egy kartyara.
-
Jacek
veterán
Leszarom a RT f9leg 3-4 címben
Majd 1-2 év múlva a konzolok miatt érdekes lesz.
Jelen pillanatban ha lofasz a gyorsulás ami kellene nekem VR-hez minek vegyek kártyát? Magyarul megint oda jutok hogy marad a mostani setup, és RT-vel bohockodni meg jó lesz egy PS5 gamékban az RT olyan lesz amx mint konzolon ebben nem fognak energiát plusz ölni 1-2 címen kivűl... Öngól de nagy.. -
arn
félisten
raytrace... nem eleg? olyan a turing alapjan megitelni a raytracet, mintha a mostani 3ds jatekok potencialjat akarnad megitelni a voodoora alapozva. rengeteg potencial van benne, valahol el kell kezdeni. az is csoda, hogy jelenleg igy megy ekkora felbontasban.
ott meg fogod kapni a nagyobb gyorsulast - nem konceltralnak tobbet a regi technologiak turbozasan.
-
carl18
addikt
válasz
Yutani #29216 üzenetére
Ha a RTX 3090 csak 30%-ot tud rádobni a 2080Ti-ra az valóban elég karcsu lesz.
Drágább, többet fogyaszt és nem sokkal gyorsabb. Hát azért reménykedek nem csak ennyivel tud majd többet az új csúcs kártya.
Ha valóban csak 30%-40% akkor ezt a Big Navi is fogja tudni hozni 2X 5700XT egy lapka alatt + 10% IPC? -
Garsza
veterán
Helló!
Az 30xx széria árazásáról lehet valamit tudni?
Egy 3070 sokkal drágább lesz mint egy 3070 super?
Ép VGA vasárláson gondolkodom. És szeretném tudni érdemes e várnom az új szériára. -
Devid_81
félisten
-
Jacek
veterán
Neked hányszor kell belinkelni mennyit gyorsultak a genek? na nem ennyit ami itt látszik ha az 90-es. Elöző is gyalázat volt kellett is a szuper de ha pl pascal mond valamit ott a 70-es közel hozta a 980Ti, most ezt a 80-as fogja? 1000 euroért?
új ficsörök? mik votak az egetrengető néküle nem tudok élni?
-
keIdor
titán
Sokkal gyorsabb nem lesz a 3090 pedig, 3080 és 3090 mindkettő GA102, körülbelül 10-15%-al lesz gyorsabb a 3090 az adatok alapján. Ahol a 10GB elfogy ott változik a helyzet, de ha kifogy a vram az 0.1% és 1% low képében érződik inkább.
Egyébként vagy RT-re vagy raszterre mennek rá, a kettő együtt nem biztos, hogy megy. RT-t fogják választani.
-
Raymond
titán
De ezt mire alapozod? A kiszivargott spec-ek alapjan a 3090 pont azzal a kb 30-32%-al gyorsabb compute/tex teljesitmenyben mint amit itt latsz, ROP +20% es a mem savszel +50%. Ezek alapjan egy +31% Time Spy GS pont ott van ahol elvarnad. A 3080 pedig kb. +9% compute/tex, ROP ugyanaz es +23% mem savszel. Annal max azt a majdnem 15K Titan RTX eredmenyt varnam el.
-
válasz
arabus #29214 üzenetére
Számoljunk egy kicsit. Ha elhisszük az 5248 ALU / 384-bit busz / 19.5Gbps felállást a 3090-hez, akkor a 2080Ti-nél 20%-kal több a számítási kapacitás, 9%-kal erősebb a backend, és a sávszélesség kapott további 40% boostot. Ha ehhez hozzágondolunk átlagos 10% core órajel emelést, akkor:
- 10%-kal gyorsabb a frontend
- 33%-kal több a számítási kapacitás
- 20%-kal több a pixel
- 52%-kal gyorsabb a memóriaEbből nekem az jön ki, hogy 30-40%-kal lehet gyorsabb a 3090, mint a 2080 Ti, ha nincs valami nagy varázslás az architektúrában. Ami várhatóan nem lesz. Úgyhogy ha ez a leak valós, akkor ez 3090-szagú.
-
arn
félisten
az elozo generacio is errol szolt... nemi gyorsulas + uj ficsor. ha csak a regi ficsorokre osszpontositanak lehetett volna tobb is, de a rt annyira felforgatja az egesz piacot, mint a 3d gyorsitas tette 96-97ben.
vmi olyasmihez ragaszkodtok, ami annak a piaci helyzetnek koszonheto, hogy kioregedo konzolok es a pck kozott hatalmas teljesitmenykulonbseg jott letre, igy kitalaltak vmit, amivel eladhatova valnak a pck.
kicsit hiba volt reszukrol a 4k x csillio fps mesterseges igeny kialakitasa (elotte evtizedekig jatszottak par tiz fpsel emberek), mert most az emberek azt varjak, hogy kapnak egy plusz ficsort es megkapjak melleje a korabban beetetett sok fpst is, mikozben a rt a legnagyobb teljesitmenytemeto, ami letezik, akarmeddig skalazhato. igy visszajott a korabbi helyzet (foleg az uj konzolokkal), valaszthatsz szep kepet vagy sok fpst es felbontast, de egyben nem fog menni. a mostani lepcso az elozo generacio teljesitmenyhianyossagait mankozza, de egy adott teruleten.
-
arn
félisten
válasz
Yutani #29224 üzenetére
csak arra tudok alapozni, amit irtak - nem olvastam semmi olyat, ami ennek ellent mondana, de olyat igen, ami azt mutatja, hogy ilyesmirol lesz szo 80/90 eseten. szvsz a 70esre mar nem kerul.
https://www.google.com/search?q=Traversal+Coprocessor+nvidia&oq=Traversal+Coprocessor+nvidia&aqs=chrome..69i57j0j69i60.6560j0j4&sourceid=chrome&ie=UTF-8 -
NightGT
senior tag
válasz
KRoy19 #29215 üzenetére
Ezeket az órajeleket nem tudom hova tenni...6000Mhz mem, ha itt is a double data rate 2x szorzója van érvényben, akkor a névleges 19Gbps helyett itt 12re van underclockolva a Vram? Mert az úgy NAGY bottleneck.
Lehet, hogy ez fake, de az biztos, hogy semmitmondó.
@arn:
CRT-n egész máshogy működött a képalkotás, analóg volt a jel, illetve a katódsugárcső gyorsaságban ma is elsőKisebb volt a kép is. Valamint (gondolom) a még sync nélküli high refresh rate monitoraink sajátossága is játszik, hisz nem szinkronban, hanem inkonzisztens időközönként frissül a monitor a gpu által küldött képpel. Vannak nagyon deep dive kifejtései mindennek, amíg olvasom/nézem addig értem, de visszamondani nem tudnám
-
arn
félisten
De mire szamitottal? A rtel egyertelmu, hogy mit akarnak erositeni, ott nagy elorelepes lesz. Pl amikor az elso gf megjelent, az is a t&l cimeknel volt igazan elorelepes. Szamos peldat lehet hozni, hogy egy adott ficsorre koncentralnak, mert az lesz a kozeljovo zeneje.
a nem rt cimeknel minden kategoria hasonlo par tiz szazalekot fog elorelepni. Ez inkabb a koproci nelkuli kartyaknal lesz erdekes (mert szvsz lesz ilyen), ott annyi lesz, hogy megkapod olcsobban a korabbi teljesitmenyszintet.
az amdnek ez amugy adhat eselyt, ha a regi cimekre koncentralnak, illetve igyisugyis mas fele raytracet akarnak hasznalni.
-
-
Raymond
titán
válasz
KRoy19 #29215 üzenetére
A kiszivargott spec-ek alapjan pedig ez varhato abben a tesztben egy 3090-tol. A kerdes meg mindig inkabb az hogy milyen lesz az arazas. Ugy lesz mint a Pascal->Turing eseteben hogy a teljesitmeny alapjan maradt az ar vagy (2070 = 1080 es 2080 = 1080Ti) vagy maradnak a kategoriak a mostani arakon es novekszik a teljesitmeny az adott kategoriaban [link]
A csucs kategoriaban nem letezo konkurenciat nezve as inkabb az logikus hogy ezeknel az RT strukturakra koncentraltak igy ott lesz jelentos elorelepes, de valami nagy (vagy barmilyen) IPC novekedest a "klasszikus" operacioknal (ami a TIme Spy-nal van) nem varnek. Biztos lesz az ami mindig is van hogy a koritesnek hala (cache/memory teljesitmeny javulasa) latni majd ilyen egyszemjegyu javulast c2c ott is, de mast nem mert nem hiszem hogy nagyon belenyultak volna az SM-ekbe.
-
Yutani
nagyúr
válasz
KRoy19 #29215 üzenetére
2080 Ti FE-hez megvan a +30%. Ez így lehet a 3090 simán. Elfogadható, csak elhomályosítja az LN-es eredmény.
Ha a 3080 lenne ez, akkor hova érkezne a 3090? Még 20-30%-ot kellene erre rádobni, ami 2080 Ti +50-60%, ami viszont már sci-fi szerintem. De tévedjek, és hozza csak ezt az NV, akkor mindenki elégedett lesz és elhitetik magukkal, hogy indokolt a $2000 ár.
-
-
NightGT
senior tag
Ilyen móka ez. Sportteljesítmény. Észre is vettem az éves elszámolásnál, pedig nálam nincs is komoly vas...aki szeret ezzel foglalkozni, annak meg.
De lehet az több is, ha ez a TDP limit nem műszaki, hanem piaci megfontolások alapján született (átlag ház szellőzése, táp, marketing, etc). Valamint Avg +10% mellett Pascalon a Min. 1% - 0.1%-nál már látok +15-20at is, és az az, ami számít. 144Hz monitoron 85FPS (sync nincs) alatt már émelyegni kezdek, de fiatalabb esportos srác mondott olyat, hogy 120 alatt rá se bír már nézni az övére. Rosszul lesz tőle. Azért olykor jól jön...
-
NightGT
senior tag
Azért húzni jó móka lesz a 3090et, szerintem az a 350W TDP egy nagyon konszolidált beállítás ahhoz képest, amit meg lehet majd etetni vele. Meg kell még várni, hogy milyen kihozatala/minősége lesz a chipeknek, bírni fogják-e az emelést, de ha igen...hasonló móka lesz, mint Intelt húzni mostanában, de ez órajelben jobbban fog menni...
Tipp: megfelelő VRM-el 450-500W valós fogyasztás, +15-20% órajel GPU-n, +5-10% GDDR6X-en, épített víz...die méret 627mm2, úgyhogy chiller talán nem kell
3080 is biztos elmegy 400W-ig... (ha lesz olyan bios konzumer kártyán, ami engedi)
-
arn
félisten
A koproci az oka valoszinuleg a tobbletfogyasztasnak, a gpu hatekonyabb lesz, de mivel kell headroom, nem lesz annyira csucsrajaratva, mint az rtx2000 gpui. Clocktoclock en nem szamitanek nagy elorelepesre, inkabb a gyartastechnologiabol adodoan skalazzak feljebb hasonlo fogyasztasnal.
-
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Milyen processzort vegyek?
- Samsung Galaxy Watch7 - kötelező kör
- PROHARDVER! feedback: bugok, problémák, ötletek
- HiFi műszaki szemmel - sztereó hangrendszerek
- Nintendo Switch 2
- iPhone 17 Pro prototípus a vadonban
- Íme a Battlefield 6 első előzetese
- Luck Dragon: Asszociációs játék. :)
- Gitáros topic
- Samsung Galaxy S24 - nos, Exynos
- További aktív témák...
- BESZÁMÍTÁS! Gigabyte Z790 i7 14700KF 32GB DDR5 1TB SSD RTX 4070S 12GB Be Quiet! Pure Base 501 750W
- BESZÁMÍTÁS! MSI B550M R7 5800X 32GB DDR4 512GB SSD RX Nitro+ 6700XT 12GB Corsair 4000D ASUS ROG 650W
- LG 55B4 - 55" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready
- Gamer PC-Számítógép! Csere-Beszámítás! I5 12400F / RTX 3070 8GB / 32GB DDR4 / 1TB SSD
- Gamer PC-Számítógép! Csere-Beszámítás! R5 5600 / RX 6700XT 12GB / 16GB DDR4 / 500GB SSD