Hirdetés
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
-
Free Play Days 2024 - 17. hét: Railway Empire, Prison Architect
gp Extraként a TramSim: Console Edition című játékot is kipróbálhatják az érdeklődők.
-
Olcsó 5G-s ajánlatot nyújt a Realme Indiának
ma Megérkezett a Realme C65 5G, az első készülék a MediaTek Dimensity 6300-zal.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
félisten
válasz GeryFlash #24607 üzenetére
gsync compatible ugye elméletileg azt jelenti, ha Nv adja áldását rá, hogy az 1 Hz kivételével mindenben tudja a Gsync követelményeit.
Heroes fan: Ezt hogy érted? A gsync comaptible monitorok csak DP vel csatlakoztathatók, hogy menjen rajtuk a gsync/ adaptive sync...
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz GeryFlash #24614 üzenetére
Az RX 570 nvidia miatt lett 130 dollár, nem azért mert AMD szeret nullára kijönni egy kártyával. Egyébként inkább 150 dollár az a 130..ettől függetlenül jelenleg ebben a kategóriában az Rx kártyák gyorsabbak és jobb vétel annak akit nem hat meg a fogyasztás,de nem mindegy milyen hűtéssel vásárolod meg azt a bizonyos RX kártyát azért.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Simid
senior tag
válasz GeryFlash #26172 üzenetére
Szerintem a tensor magoknak nem sok köze van az RTX-hez, azért az RT magok felelnek.
Amúgy szerintem is túlzóak az elvárások. A Tflops hatékonyság NV-nél nem nőt jelentősen az elmúlt években. Ha tényleg 48SM lesz a 3070 akkor csak annyival lesz gyorsabb a 2080S-nél amennyivel nagyobb az órajele. Ez meg szerintem nem fog 10%-nál jobban nőni, 7nm ide vagy oda.
-
félisten
válasz GeryFlash #26407 üzenetére
Azért várd ki a végét, még nem tudni mi igaz mi nem, ezek csak pletykák. A Samsung 10 nm-t szinte kizártnak tartom amúgy, akkor már 8 nm amire megéri váltani.. 10 nm-n egyszerűen akkora méretű GPu-t kellene gyártaniuk megint , amivel alig lépnének előre a Turinghoz képest méretben, fogyasztásban ,szinte semmiben.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26631 üzenetére
Egy túrót. A sugárkövetésnek vajmi kevés köze lesz ehhez. Tényleg azt hiszitek, hogy egy játék fejlesztési költségét az a két-három effekt dobja meg, amit majd megcsinálhatnak sugárkövetéssel. Ha így lenne, akkor eleve kivennék ezeket a szuperdrága grafikai effekteket, és aranyakor jönne.
Jól hangzik a marketinges "just works" duma, de ha ez tényleg csak just works lenne, akkor nem kellett volna több játéknál is heteket-hónapokat várni az RT patch-re.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
szmörlock007
aktív tag
válasz GeryFlash #26636 üzenetére
" (köszönjük meg az AMD-nek hogy még 2020ban se támogatja a directx raytracinget így jó sokáig velünk maradnak, természetesen ha rajtuk múlt volna akkor a dxr1.0ról való váltás nem 2020-21be jönne el hanem jóval később"
Dehogynem. Az xbox series x ugyanezt a ray-tracing technológiát használná az nvidia sürgetése nélkül is, és ugyanúgy kijönne 2020-ban, és mivel Amd hardverrel, ezért az amd is ugyanúgy támogatná a dxr1.1-et, azzal a különbséggel, hogy akkor drx1.0-nak hívnák.
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26671 üzenetére
Nem. Ez egy nagy tévedés. Bizonyos munkákat megspórol, de más munkákat megnövel, mert a geometria válik a szűk keresztmetszetté, és így jobban kell majd optimalizálni a modelleket. Nem véletlen az, hogy az RT patchek nem jönnek napokon belül. Nagyon sok munka ezt is megcsinálni, nem optimális modellek mellett még több munka is, mint raszterizációs trükköket alkalmazni. Szóval a sugárkövetés csak egy olyan módszer, amivel bizonyos trükkös megoldások kiválthatók, de nem automatikusan olcsóbb, csak máshova költöd majd a pénzt. És ugyanúgy lesz vele munka bőven, egyáltalán nem "just works" jellegű a dolog. Ha az lenne, akkor nem patchben jönnének az effektek a játékok zöméhez.
A Microsoft számára természetesen jó volt egy nulladik generációs irány. Csinálták a sajátjukat a háttérben, és azért a fejlesztők is tapasztalatot szereztek ezzel. Pár játékban azt is meg lehet mutatni, hogy mit nem szabad csinálni. Ez nulladik generáció nélkül nem lenne, és ezekbe a csapdákba most esnének majd bele a fejlesztők. Nyilván nem lenne jobb a helyzetünk.
A Crytek megoldása a processzoron fut, tehát a gyorsítóstruktúra generálása ugyanolyan gyors lesz, akármilyen VGA mellett, feltéve ha van elég gyors processzor hozzá. A host CPU-ra való kihelyezés egyébként a Vulkan API-nak is a része lesz, így tehermentesíteni lehet a GPU-kat. Persze a CryEngine az tényleg erre szabott motor, itt előnyben vannak. Ami biztos, hogy ugyanolyan processzor mellett mindegyik VGA ugyanolyan gyorsan dolgozik majd a gyorsítóstruktúrával. A többi már a shaderektől függ, amik majd a multiprocesszorokon futnak.
Az Ampere sokkal gyorsabb lesz. Korábban írtam, hogy maga a DXR 1.1 az, ami jelentős gyorsítást jelent. Ha ezt kezeli a hardver, akkor állva tud hagyni bármi korábbi generációs terméket. Mindemellett azért tudni kell azt is, hogy az új generációs GPU-k egyik fő újítása, hogy igazi cache szörnyetegek lesznek. Egységnyi ALU-ra, sokkal, de sokkal több cache fog jutni. Ez óriási segítség a komplex shadereknél, amelyek mondjuk a kevés LDS és cache miatt nem tudnak kellő mennyiségű wave-et indítani. Ég és föld lesz ilyenkor a különbség még ugyanannyi ALU mellett is.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
szmörlock007
aktív tag
válasz GeryFlash #26671 üzenetére
"a ebben a történetben minden az MS-re lett volna hagyva akkor abszolút semmi nem sarkalja őket egy 2020-as inline raytracing megoldásra, így hogy az AMD behypeolta ezt és a piacot érdekelté tette viszont igen."
Hát kétlem, hogy a 2020-as xbox series -ben ne lett volna ugyanez a megoldás a dxr 1.0 nélkül.
-
félisten
válasz GeryFlash #26677 üzenetére
valószínűleg amit felvetettél igaz lesz. Anno a Final fantasy készitői írták ezt a posztot hogy eljutunk 2 generáción belül arra szintre RT ben ,hogy elég a fényforrásokat megadni és a kezdő képkockából képes lesz kiszámolni az adott jelenetre az árnyékokat és a tükröződéseket az engine. De ez azért még arrébb van.
Eddigi pletykák alapján az Ampere 3-4 x teljesítmény javulást hoz a Turinghoz képest RT ben.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26677 üzenetére
Az inline raytracing sebességelőnye attól függ, hogy mi lesz a munkamenet. Nem lehet ezt ennyire leegyszerűsíteni, mivel teljesen más kódot igényel.
A másik dolog, amit fontos észben tartani, hogy manapság az RT effektek minőségileg extrém módon vissza vannak fogva. Nem véletlen, hogy sokan azt írják a youtube-on az egyes videókra, hogy a sebesség csökkenésén kívül nem látnak semmit. Ez nem az eljárás hibája, hanem azé, hogy nem lehet szélnek ereszteni a lehetőségeket, mert kevés a hardverek teljesítménye, és a működést biztosító rendszer sem működik hatékonyan. Tehát a következő körben egy RT effekt akár sokkal jobb is lehet a sebességnövekedés miatt, mert el fogják költeni a nagyobb teljesítményt a minőségre, hogy tényleg látni lehessen, ha bekapcsolod. És remélhetőleg el fogják felejteni a kamurobbanásokat is, amivel elrontották a BF5-öt. Ugye ott az a gondjuk, hogy egyszerűen nem számol annyira nagy távolságra a sugárral, így ha a számítási határon kívül esik egy robbanás, akkor az már nem látszik visszatükröződve a felületen. Ezért azt csinálták, hogy néha megtörténik a felületeken egy kamurobbanás, ami viszont a tényleges pályán nem létezik. Na erre oltári jó lesz az inline raytracing, mert például a Microsoft devnapján bemutatott Xbox Series X demón nagyon nagy távolságig el voltak engedve a sugarak, és a felület nem csak a távoli felületet tükrözte vissza, hanem azt is, ami a visszatükrözött felületen belül is vissza volt tükrözve. Persze szerintem ez marhára overkill, de azt ténnyleg mutatja, hogy mennyire hatalmas a fejlődés a dynamic shader raytracinghez képest, ahol kamurobbanásokat kell csinálni, hogy látszódjon a működése. Viszont ezek azért még a szoftveres fejlődéssel sem lesznek ingyen, bizony követelni fogják a hardveres hátteret, elsősorban sebességet.
Szóval a jövőben is nagy teljesítményhátrány lesz a sugárkövetés, mert egyszerűen számításigényes. Az inline raytracing egyszerűen csak megadja azokat a lehetőségeket, hogy az RT effekt minőséget is hordozzon, ne legyen jelentősen limitálva.
A memória-sávszélességre vonatkozó problémán nem tudsz hogyan segíteni. Egyszerűen a másodlagos sugarak nem koherensek. Talán egy hardveres koherenciadetektor előnyös lenne, de az sem olcsó ám a tranyóköltségek szempontjából. Itt a cache sem igazán segít, mert összeszemeteli a feladat. Ha nincs koherenciadetektor, akkor több memória-sávszélesség kell. Az inline raytracing ezen a problémán annyiban javít, hogy a sugárkövetés egy shaderből való megoldása redukálja az adatforgalmat a memória felé, esetenként komolyan, de az alapproblémát magát nem oldja meg, csak valamennyit segít a hardvernek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26691 üzenetére
A legnagyobbakon valószínű, hogy nem GDDR6 lesz. Abból nem lehet kihozni 1+ TB/s-ot.
A konzolok itt nem számítanak. Egyrészt ott vannak egyéb tényezők, például sokat kell belőlük gyártani, másrészt a Sony például trükközik, van valami extra hardverjük, amivel hatékonyabb lesz a GPU kihasználhatósága. Továbbra sem érdemes a konzolt és a PC-t hasonlítgatni ezek miatt az apróbb nyalánkságok miatt, ami konzolon működhet, PC-n viszont nem célhardverre fejlesztenek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
válasz GeryFlash #26698 üzenetére
MIkor láttál olyan utoljára hogy 60 % -t lépett előre egy generációváltásnál egy kártya? volt már rá példa de nem mostanában. A konkurenciánál meg végkép nem. Az 5700 XT a vega 64 hez képest talán 20 %.a radeon 7 hez meg visszalépés. Irreális elvárásaitok vannak. A 40 % abszolút jó főleg ha RT ben 300 % lesz a gyorsulás..
Ráadásul a 7 nm nem is biztos jelenlegi állás szerint, Samsung 8 nm is benn e van a pakliban...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
GeryFlash
veterán
válasz GeryFlash #26708 üzenetére
Egyébként még annyi, hogy ugye az RDNA1--› RDNA2 váltásnál az AMD hivatalos prezentációján 50%-os ugrást mondott:
GCN --› RDNA1-nél ez jött is igazából, a 180 wattos RX590-nél valóban 49%-kal gyorsabb a 175 wattos RX5700, az egy más kérdés hogy ez ugye nekünk bődületesen szarnak tűnt, mert így (se) hozta a Turing perf/watt szintjét miközben sokkal jobb gyártástechnológián készült. Viszont ők azt állítják hogy mégis lesz itt 50% csak architektúrából anélkül hogy gyártástechnológiában ugranának... Meglátjuk, igazából ha nem kis chipek lesznek akkor jóval jobb lehet a perf/watt, illetve mostanra már talán jobban kiismerték a 7nm-et is.
Ettől még én azért úgy gondolom hogy fognak magyarázkodni emiatt a dia miatt, persze majd akkor be lehet dobni, hogy ,,jó, de mi réjtrészinget is beleszámítva értettük az 50%-ot "Ha viszont nem, és igaz az ábra, akkor azt jelentené hogy amit ma az 300 dolláros RX5700 tud 175 wattból azt egy 115 wattos 6500XT tudná 170 dollárból. De ez már lassan AdoredTV szintű fejtetéssé kezd fajulni
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
félisten
válasz GeryFlash #26708 üzenetére
Az inline raytracing egy lehetőség, az ampere hardveresen is a régi DXR kódokat gyorsítani fogja legalább is az eddigi pletykák szerint elég megnezned mennyivel több RT core van az Ampere GPU hoz írva. KB a 3060 lesz 2080Ti szintjén hardver szintjén. Szerintem hasonló felepitest fog alkalmazni mindkét gyártó a DXR kezelesere.
Az AMD magához képest szépen lépett előre fogyasztás téren, az RDNA 2szerintem sokat fog profitálni a 7nm+.bol
Az AMD úgy került képbe hogy kettős mérce van az emberekben. Az egyik gyártó két gen alatt lép előre 40 %ot az Nvidianal meg 50-60 az elvart generacionkent ? Konkurencia nélkül ilyet nem fogsz kapni. Túl nagyok az elvarasaid.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
paprobert
senior tag
válasz GeryFlash #26713 üzenetére
A konzolok hozni fognak egy árnormalizáló folyamatot magukkal. Adott pénzért több teljesítményt fogunk kapni a középkategóriában és lefele. A felfújt áraknak itt vége.
Ha viszont abból indulunk ki, hogy a konzolok ~500 dollárért kb. RTX2080-nal felszerelt PC teljesítményt hoznak, akkor az Nvidia-nak nagyon is érdeke tepernie, hogy erős csúcskártyát dobjon piacra.
Miért? Azért, mert egy konzol+50% teljesítményű csúcskártya nem biztos hogy elég egy olyan termékskála kialakítására, olyan profittal, mint amit az Nvidia szeretne elérni.
640 KB mindenre elég. - Steve Jobs
-
cyberkind
félisten
válasz GeryFlash #26716 üzenetére
Valamit valamiért, 4K-t akar a nép, kapott valami korcsfelbontást, de szebb játékok nemigen jöhettek mondjuk az Uncharted 4 után, szerencsére most már a 4k lesz az alap a konzoloknál, bár ha elindul a 8k mizéria... Személy szerint nekem, már bőven elég ez a grafika amit ebben a genben hoztak az exkluzívok, ideje volna másra rágyúrni, de az már nem szembeötlő.
Paranormal Cocktivity
-
félisten
válasz GeryFlash #26713 üzenetére
Kizárólag az RT re írtam, az RT magok számára, hogy az lesz kB 2080 Ti szint szerintem minimum.
Nézd én nem akarlak meggyozni semmiről. Ha 60 %t vársz szerintem csalódni fogsz. A 7nm még nem biztos, mint ahogy azt sem szabad elfelejteni, hogy Nvidiánnak nem érdeke megint 500mm2 vagy afeletti GPU kat kihozni közép kategóriában met sokba kerül és bizonytalan a kihozatal.Magyarul valószínűneg a gyártástechnológiai előrelépést kihasználják arra, hogy kisebb /olcsóbb GPU - k legyenek versenyezve a konzolokkal, és a helyet RT teljesítmény novelésre szánják persze megfelelő általános számítási teljesítménnyel...nagyjából szerintem NV az RTX 3060 kártyát belövi a PS5 teljesítményéhez 300 dollár körül, tehát próbál olcsóbb lenni.
40 %nem nevezhető minimális elvárásnak, inkább reálisnak.
Figyelembe kell venned hogy ezek a cégek profitabilisak, elsődleges a bevétel. A konkurencia felett maradás, piac megtartása a lehető legkevesebb ráfordítássa. Ha elég a 40 % és 8nm ehhez, akkor nem fog 60 - t előrelépni.Az én hozzáállásom szerint inkább várj el kevesebbet és nem fogsz csalódni, maximum pozitívan.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz GeryFlash #26723 üzenetére
. Leirtam az álláspontomat, mint ahogy te is.szerintem a 40 %fölötti elorelepes optimista, nem realista, ennyi.Ha 7 nm jön a középkategória akkor látok esélyt arra amit írsz.
Ha 8 nm-jön az Ampere az egy halfnode csak, kB 20 % a mostanihoz és benne van a pakliban... Az inline RT nem egy csoda. A kapott plusz teljesítmény előnyt elkoltik értelmesebb effektekre aminek van értelme és ehhez is kell sajnos speciális hardver ami ugye Abu szerint más mint a Turingé de ez majd kiderül.. A több RT mag és nagyobb L3 pl mind hely, tehát ára van sajnos,csak máshogy.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Segal
veterán
válasz GeryFlash #26727 üzenetére
1. Sokszor láttam én már világmegváltó információt/pletykát az amd-től megjelenés előtt. Majd ha kézzelfogható termék is lesz belőle akkor elhiszem.
2. Nem azt mondom hogy nem fordult elő, de régebben minden más volt. Hatalmasakat lehetett előrelépni a csíkszélesség csökkentéssel.
Manapság már megtanulták hogy sokkal gazdaságosabb kis léptekben eladni az újdonságokat.Dyingsoul: Dobjunk neki össze egy kis pénzt egy bőrkabátra
"Ez nem változtat azon, hogy tisztességtelen dolog botokkal felvásárolni 160-180e indulóáron a 3060 Ti-t, aztán 250e-ért árulni a HA-n." Ez miért lenne tisztességtelen? Te is meg bárki lesheti botokkal a boltokat, ugyanúgy meg tudod venni a cuccot azon az áron, mint a scalper.(1 házigazda válasz...)
-
gejala
őstag
válasz GeryFlash #26730 üzenetére
Kötve hiszem, hogy a drágább hardverrel szerelt Xbox olcsóbb lesz.
A mostani gazdasági helyzetben meg tuti nem azon fognak versenyezni a cégek, hogy ki termel nagyobb veszteséget. Idén úgyse lesz nagy készlet egyikből sem, azt el lehet adni magasabb áron is. Nincs értelme olcsón veszteséget termelni, plusz mellé hiányt is. -
Dyingsoul
veterán
válasz GeryFlash #26745 üzenetére
Szerintem igaza van.
Mentsd ezt is.
Az AMD egyedül akkor tudna nagyobbat villantana, ha az NV-hez hasonló MCM dizájnnal hozna GPU-t a jelenleg monolitikus piacra.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26745 üzenetére
Pont azt írja, hogy nem használnak DXR-t. Amit én is írtam.
Szerintem amúgy pokolian leegyszerűsítitek az egész problémakört, pedig az nem csak a sugarakból áll. Még DXR-nél sem szokás 4K-ban pixelenként sugarat kilőni, mert nem tudsz mit kezdeni velük. Azzal ugyanis, hogy sok a sugár még semmit sem érsz el. A sok sugár ugyanis sok mintavételt eredményez, miközben a legnagyobb problémáját az egész sugárkövetésnek a nem koherens adatelérés jelenti. Tehát nem az számít, hogy ki tudsz-e lőni sokkal több sugarat, hanem az, hogy a hardver képes-e megfelelő időben visszatérni annyi nem koherens mintavétellel, és ez már kizárólag a memória-sávszélességtől függ. Emiatt van az, hogy ma kétféle opció van a sugárkövetésnél. Vagy négy pixelenként számolsz egy sugárral, de maga a sugár hosszabb lehet, vagy egy pixelenként számolsz vele, de rövidebb sugarakkal. A limitet a mintavétel jelenti mindkét esetben, alapvetően a pixelenkénti négy sugár is beleférne a hardveresen gyorsított megvalósításba, csak a mintavétel miatt annyira röviden kellene a sugarakkal számolni, hogy gyakorlatilag alig találnának el valamit. Mert attól, hogy van erre egy fixfunkciós hardvered, még nem biztos, hogy megvan a memória-sávszélességed a probléma megoldásához. És ez az a tényező, ami miatt a Crytek sem a DXR-t választotta, mert a mintavételek tekintetében ugyanazok maradnak a limitek, ugyanúgy gondot fog jelenteni a nem koherens adatelérés, de például sokkal jobb megoldás, ha kevesebb sugarat használsz, és azokat messzebbre lövöd ki, mert mintavételben ez relatíve kellemes, és az adatokkal amúgy is elég sokra lehet menni. Jó példa erre a SEED-féle Pica Pica tesztprojekt, ahol arra a következtetésre jutottak, hogy inkább megéri négy pixelenként sugarat küldeni, majd spatiotemporális szűréssel rekonstruálni az adatokat natív felbontásra. Nem véletlen, hogy ezt csinálja a CryEngine is. Egyszerűen kevesebb sugárból sokkal jobb lesz az eredmény, mert a kevés sugár miatt azok távolabbra mehetnek, és több hasznos információ keletkezik, miközben a hardverek engedte memória-sávszélesség korlátain belül maradsz.Tehát az önmagában igaz, hogy a hardveres gyorsítás több sugarat enged, de amíg nem raksz alá 2-3-4 TB/s-ot, hogy a hardver több sugár mellett is kellő távolságra tudja kezelni a problémát, addig a jelentős limitet a nem koherens adatelérés jelenti, nem pedig a kilőhető sugarak száma. Szóval nem az a kérdés, hogy egy fixfunkciós hardver mit enged meg a sugarak számát tekintve, hanem az, hogy mi az a pont, amikortól a memória-sávszélesség már nem tudja kiszolgálni ezt. És hamarabb jön el az utóbbi limit, mint az, hogy a több sugárnak előnye legyen. Ha nem így lenne, akkor a Crytek is DXR-t használna.
Ha mondjuk idén jönnek az új csúcshardverek 1-2 TB/s közötti sávszéllel, akkor ott már a Crytek is jobban járna a DXR-rel, pláne inline raytracing mellett, mert lenne értelme sok sugarat kilőni, a memóriaalrendszer elég erős ahhoz, hogy a nem koherens adatelérés kevésbé jelentsen limitet. De a mai hardverek azért nincsenek az 1 TB/s közelében sem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
félisten
válasz GeryFlash #26754 üzenetére
Szívesen lefordítom neked mi történt. Abu tolt egy klerülő kommentet arról, hogy a nagyobb sávszél jobb mint a kisebb, egy távolabb kilőtt sugár jobb mint 4 rövidebb. Amire reagálnia kellett volna az az hogy a Crytek vezető programozója szerint RTX kártyákon 4 x gyorsabb lenne az általuk kifejlesztett RT DXR támogatással valamint
"Broadly speaking, RTX will not allow new features in CRYENGINE, but it will enable better performance and more details."ezzel szembe Abu :
"Nem mellesleg a Cryteknek felesleges is lenne támogatni, mert gyorsabb a megoldásuk a fixfunkciós hardverek nélkül, ugyanis egy csomó DXR limitációt szoftveresen ki tudnak kerülni, ami sokat lassít ám a hardvereken, de ezt a CryEngine nem nyeli be."
software-based ray tracing időközben módosították native hardware- and API-agnostic ray tracing solution for PC ,( nem , nem a CPU ra utal) megkapta a Dx 12 és Vulkan támogatást az engine...
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
gejala
őstag
válasz GeryFlash #26756 üzenetére
A konzolok nem fognak tudni 4K@60-at next-gen grafika mellett. Trükközött 4K lesz meg 30 fps. Kizárt, hogy az 5700XT szintű PS5 tudjon natív 4K@60-t PC-s ultra grafika meg RT mellett, miközben PC-n az 5700XT az 1440p@60-al is bajban van sok mai játékban is.
Tehát a 3060 se fog tudni 4K@60-t. Az egy 1440p@60 high kártya lesz.A Microsoft hivatalosan megmondta, hogy az Xbox 2080S szintű GPU-t kap.
Te miért hiszed, hogy a konzolok jobbak lesznek a PC-s hardvereknél, amikor PC-s hardver lesz bennük? Egy 3080 Ti jobb grafikát/sebességet fog adni, mint bármelyik konzol, ez tuti.
-
válasz GeryFlash #26754 üzenetére
Bocs, hogy közbevágok, tudok adni konkrét méréseket. Elöljáróban annyit, hogy nem épp az AMD-nek kedveznek, nézzünk néhány példát.
PCGamesN mérése:ComputerBase saját és olvasóinak mérései egy táblázatba foglalva. (Túl nagy a táblázat kép beszúrásához, így csak linket dobtam ide).
Ezek alapján nagyon úgy tűnik, hogy az AMD csúcskártyája, az 5700XT még az RTX 2060S-t sem tudja megfogni, inkább a sima 2060 teljesítményét hozza.
Ezen felül az NV csúcskártyája (2080Ti) pontosan dupla akkora tempót hoz, mint az AMD csúcskártyája (5700XT).Mi lesz itt, ha elkészül a DXR port?
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
gejala
őstag
válasz GeryFlash #26763 üzenetére
Tudom mire elég egy PS4. Sajnos nem sokra. RDR2-t pl. PC-s low grafika mellett viszi 20-30 fpssel. Pedig az 1 évig exkluzív volt rengeteg fejlesztési idővel. De a gyenge hardver konzolokban is gyenge.
Én megeszem a kalapom, ha PS5 natív 4K és fix 60 fps mellett futtat majd olyan játékokat, amik látványban lealázzák mondjuk RE3/CP2077 PC-s ultra beállításokat is. És mindezt RT mellett is.
"Viszont hogy a te általad várt 3060 nem lesz a PS5/XSX szintjén ez biztos, de még a 3070 se valószínű."
Azt mondod, hogy a 3070 nem lesz a 2070 (PS5) szintjén?"De egyébként irreális is elvárni, hogy a konzolgeneráció elején a PC-s VGA-k aláárazzanak a szétoptimalizált konzoloknál."
Én azt várom, hogy a $300-350 3060 kb. 40%-t gyorsul a 2060-hoz képest (ami annyi, mint amit a Turing hozott) és ezzel 2080 szintű lesz. Ami a két konzol közé esik.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26765 üzenetére
A Crytek megoldása nem tud profitálni a fixfunkciós hardveres blokkokból. Teljesen másképp működik a rendszer.
Az adott lépcsőre vonatkozóan lehetne több sugár, és az adott lépcső egy fixfunkciós hardveren valószínű, hogy gyorsabb lenne, de máshol keletkeznek olyan limitek, amelyek a teljes képkockára levetített teljesítményt már negatívan érintik. Emiatt használ a Crytek más megoldást, és nem a DXR 1.0-t.
A DXR 1.1 egy csomó olyan limitációt kezel, ami egyébként nagyon fájó, és ezzel már jó esély van arra, hogy a Crytek saját megoldásánál is gyorsabb lehet, de ezt be kell építeni, és csak a legújabb, érkező Windows 10-en fut, jó sebességgel az év végén érkező hardvereken.(#26767) gejala: Azért nem. PS4-en még olyan játék is van, ami nem csak ilyen hibrid raszterizálás+sugárkövetést használ, hanem 100%-ban sugárkövetés az egész raszterizáció nélkül. Azért ez nem mindegy, és ez részben annak köszönhető, hogy a hardver azért jóval közvetlenebbül hozzáférhető.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26773 üzenetére
Ahogy láthatod a teszteken, mi modern játékokban tesztelünk DX12 és Vulkan API-val, ahol az AMD (főleg a driver miatt) erősebb, mint azokban a játékokban, amelyek nem túl modernek, esetleg DirectX 11-esek (itt is főleg a driver miatt alakul ki ez a különbség csak éppen az NV javára). Tehát alapvetően a hardverek közötti teljesítményt nagyban meghatározzák a játékok. Emiatt előre nem lehet tudni, hogy egy új játék hogyan teljesít. Ha mondjuk DX12 vagy Vulkan leképzőt kap a Crysis Remastered, akkor valószínűleg hasonló lesz a sorrend a mi tesztjeinkhez, ha DirectX 11-est, akkor inkább azokhoz a tesztekhez lesz hasonló a sorrend, ahol főleg DX11-es játékokkal tesztelnek még.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26780 üzenetére
Semi-customben, ahogy például a kínaiak csinálták, szerintem van. De az a processzor valójában nem lesz az övék, és pont ezért van rá esély. Az AMD letervezi, és egy gyártásra kész dizájnt leadnak a megrendelőnek. Ezt meg tudná tenni az NVIDIA is, és valószínűleg semmilyen politikai korlátba nem ütközne, ahogy például a kínaiaknak tervezett cucc.
Van nekik egy megbízott ügynökségük, ők küldik a blogra kirakott híreket.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz GeryFlash #26783 üzenetére
A Zhaoxinnak a VIA révén van licence. Tulajdonképpen a VIA az egyik résztulajdonos.
Az is megoldás az NV-nek, ha eladják magukat, de nem hiszem, hogy ez megtörténik.A reálisabb megoldás, hogy rendelnek egy custom processzort az AMD-től. Azzal, van licenc, és rakhatnak bele NVLinket, mert ugye maga a custom divízió bármit beépít.
Vagy csinálnak maguknak ARM-os processzort.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
gejala
őstag
válasz GeryFlash #26828 üzenetére
Ezt hogy számoltad ki?
3060 nyilván nem max beállításokhoz lesz, hanem highra. 3070 meg 30-40%-al lesz gyorsabb, az nem elég a 2,5x pixelmennyiség áthidalásához.
Vagy nézzük meg a Turingot. 2060S simán jó 1440p@60-hoz, de 4K-ban 2080 Ti is könnyen el tud fogyni.
1440p high és 4K max között óriási a hardverigény különbség, miközben 1080p-ről könnyen fel lehet ugrani 1440p-re. Lásd 1660S 1080p kártya, de 2060S már 1440p, kis kompromisszumokkal. Abban meg szerintem egyetérthetünk, hogy 3060 jóval gyorsabb lesz, mint 2060S.[ Szerkesztve ]
-
gejala
őstag
válasz GeryFlash #26830 üzenetére
"Nincs olyan játék ami ugyanolyan beállításnál 2060/2060S-nél 1440p-n jól megy 4k-n meg kevés lenne a 2080TI"
Monster Hunter World? VRAM meg nem fogy el 2080 Ti-n, 11 Gb simán elég 4K-ra mai játékoknál.Ugrásszerű gépigény növekedés lesz, de nem duplázódás...
Egy kategória ugrás a realisztikus. Főleg mivel az Xbox 2080S kaliberű GPU-ja lesz a legerősebb a konzolokban és ezzel mennek 4K-ra. Tehát kénytelenek lesznek úgy megírni a játékokat, hogy egy PC-s 2080S-en menjen 4K-ban, még ha nem is maxon. Aki azt várja, hogy egy konzolos 2080S szintű GPU kétszer gyorsabb lesz, mint a PC-s 2080S, csak mert ez konzol és majd jól megoptimalizálnak mindent, az nagyot fog csalódni.A másik dolog, hogy igazi nextgen játékok majd 2022 végére várhatóak. Amik csak nextgenre jönnek ki. Amíg egy játéknak PS4-en is mennie kell, addig nem lesz nagy ugrás. Márpedig menniük kell, mert különben töredék játékosbázist fognak elérni a drágán lefejlesztett játékkal.
A 2020-2021 játékok csak feljavított PS4 cuccok lesznek. Kapnak 4K textúrát, meg RT-t, meg jobb effekteket, stb. De olyat nem tudnak, hogy PS5-n van 100 NPC egy helyen meg végtelen látótávolság brutál geometria mellett, közben PS4-n meg áll ott 5 ember és az orrodig se látsz, mert különben elforrnak a Jaguar magok.Nézd meg pl. a kiszivárgott Godfall gameplayt. Alapvetően semmivel se több, mint a PS4 God of War, csak kapott jobb textúrákat, effekteket, világítást, stb. Tehát pont azt, amit könnyű butítani.
-
nagyúr
válasz GeryFlash #26830 üzenetére
jelenleg átlagosan 70-75%-os a teljesítménycsökkenés 1440p és és 2160p között, de ez nagyrészt a VRAM mennyisége miatt.
???? Semmi köze ehhez a típusú teljesítménycsökkenéshez a VRAM-nak. A 2.25x annyi pixel miatt kell sokkal több kraft a 4K-hoz.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.