Hirdetés

Keresés

Hirdetés

Új hozzászólás Aktív témák

  • kisfurko

    senior tag

    válasz b. #26513 üzenetére

    A linkelt cikk baromság. Nem a modellek (objektumok) töltődnek lassan, hanem a textúraadatok. Hiába van a világ procedurálisan generálva (ha egyáltalán), a textúrák statikusak.

  • kisfurko

    senior tag

    válasz b. #26520 üzenetére

    De a te hozzászólásodban van a link, és valahogy csak jeleznem kell, hogy mi a baromság :)

  • Raymond

    félisten

    válasz b. #26522 üzenetére

    Az egy hulyeseg volt ahogy ott a linken le van irva, neztem tegnap az eredeti hozzaszolast is es az is hulyeseg. Aztan kesobb vegigmentem a ket topic-on az ERA-n es ki is lett osztva rendesen a gyerek (nem fejleszto egyebkent). A vege az lett hogy visszatancolt este hogy nem ertettek az emberek mit ir mert o nem azt irta amit ott olvasni lehet. Szoval felejtos az a egesz.

    Privat velemeny - keretik nem megkovezni...

  • TTomax

    nagyúr

    válasz b. #26543 üzenetére

    Meg az nV panelban is. :)

    ★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"

  • gejala

    őstag

    válasz b. #26552 üzenetére

    RT-ben én háromszoros gyorsulásra számítok. Dupla magszám (ez gyakorlatilag minden pletykában közös) + 50% hatékonyság javulás. Az kb. elég, hogy ne limitálja a kártyákat a raszter sebességhez képest.

    Én összességében ilyen felállásra számítok RT ON mellett:
    3060: 1440p@60 high
    3070: 1440p@60 ultra
    3080: 4K@60 high
    3080 Ti: 4K@60 ultra

  • Abu85

    HÁZIGAZDA

    válasz b. #26552 üzenetére

    A gigarays szokás szerint semmit sem jelent önmagában. Sokkal többet fog érni egy ilyen nyers adatnál, hogy új ütemezőt kap az Ampere, amit már az inline raytracingre szabtak, de ez például nem számszerűsíthető. Ez valós gyorsulást hoz. De persze azt hozzá kell tenni, hogy a Turingot meg sosem tervezték inline raytracingre, tehát ott rengeteg tényező az ALU erejéből lesz megoldva, nem pedig célhardverrel.

    A valóságban a részegységeknél nagyságrendekkel többet fog érni az, hogy egy shaderen belül csinálhatod a sugárkövetést. Nem kell hozzá egy rakás shadert egymás után sorban indítani, meg ehhez az adatokat átadni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26556 üzenetére

    A gyorsulás döntő része magából az inline raytracingből fog jönni. Lényegesen előnyösebb a hardvernek, ha csak arra van utasítva, hogy csinálja meg a bejárást, és ha az eltalál valamit, akkor térjen vissza az eredményével, majd ugyanabban a shaderben folytatja vele a munkát. Ezzel a shader lefutásáig minden ott lesz a helyi adatmegosztásban, csak éppen ehhez olyan hardver kell, a teljes munkamenet alatt fenntartja ugyanazt a hardverállapotot, illetve az ütemező végig tudja követni az egyes sugarakat.

    A DXR 1.0 nem így működik. Ott külön shader felel magának a sugárnak az indításáért, külön shader fut hit vagy miss esetén, és ezektől függően külön shader indul a bejárás eredményére építve. Ez mind azért probléma, mert minden egyes shader csak egymás után futhat le, ugyanis egymás eredményére várnak, és meg kell oldani az adatok megosztását is, hiszen effektíve egymás eredményeivel számolnak tovább. Ez nagyon rossz hatékonysággal működteti a mai hardvereket, mert egyrészt a függőség akadályozza az optimális, adatpárhuzamos végrehajtást, másrészt, ha nincs valami trükkös módra lehetőség az adatok átadása szempontjából, akkor minden shader kiírja a memóriába, majd a következő shader beolvassa, vagyis egy rakás üresjárat lesz a hardveren, amíg az adatok beérkeznek. Ez a megoldás akkor hasznos igazán, ha nagyon komplext shadereket ír egy fejlesztő, de egyelőre a teljesítmény hiányzik a hardverekből, így ez a veszély az esetek 99%-ában nem fenyeget. Emiatt is jön az inline raytracing, ami a DXR 1.0 modelljét egy sokkal hatékonyabbra cseréli.

    Korábban ez azért nem jött, mert ennek azért hardveres követelményei is vannak. Alapvetően egy jobb ütemező, mint ami a mai hardverekben van, illetve meg kell oldani, hogy az egész munkamenet, amivel a sugárkövetés jár, egy hardverállapotból legyen elvégezhető. A legjobb egy stateless megoldás, vagyis az, ha a hardver a compute shader futtatására, illetve a bejárási feladatokra nem is igényel speciális hardverállapotot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Crytek

    veterán

    válasz b. #26559 üzenetére

    És ez most 250-ről átnevezett 350 átnevezése lesz? :DDD
    Nem mellesleg "még ki se jöttek az új amd-s gépek" már le is lettek megint alázva ár / erő értékben...

    [ Szerkesztve ]

    Next PC Upgrade: 2022

  • Abu85

    HÁZIGAZDA

    válasz b. #26558 üzenetére

    Kétlem, hogy a 3Ds max Microsoft technológiát fog implementálni a fő leképezőbe, de persze sose lehet tudni, csak az esélye kevés, szerintem. Ezek a professzionális alkalmazások inkább a platformfüggetlenség felé mennek. Plusz nekik a Vulkanba érkező ray tracing valamivel jobb, mert az támogat host oldali gyorsítóstruktúrát, ami nagyon jól jön ám a 32-64 magos processzorok korában. A Microsoftnak erre nincs hasonló megoldása még, aztán lehet, hogy lesz.

    Megírtam hírben, amit tudni az Ampere-ről. A többi adat eléggé ködös.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26564 üzenetére

    Nem.
    De mi a gondod igazából? Nem elég gyors a renderelés? Alapvetően mindenre van valami megoldás. Kivéve, amire nincs. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26566 üzenetére

    Nem kapsz meg mindent, egy rakás funkció kompatibilitási bithez van kötve. Az meg hiányzik a firmwareből. Nem olyan bénák már a gyártók, mint régen, levédik ezt rendesen.

    A renderelésen egyébként máshogy is lehet gyorsítani, van egy rakás más rendermotor. De ha nagy sebességet akarsz, akkor a Blender EEVEE egyre jobb. Vagy ha a kritikus felületekre sugárkövetést szeretnél, akkor a ProRender tud full spectrum renderinget. A kritikus felületekre sugárkövetést használ, míg a többire raszterizálást. Két ilyen hibrid opciója is van. Kvázi kevered az EEVEE és a Cycles előnyeit, miközben a sebesség több nagyságrenddel jobb, mint a teljes path tracing.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26583 üzenetére

    Nem írtam, hogy kell. Azt írtam, hogy ha akarják azt a plusz nagyjából 5%-nyi teljesítményt, amit ki lehet még hozni, akkor írhatnak ők is optimalizálást a D3D12MA-ban, ahogy az Intel teszi például. Az AMD beolvasztja a kódot, de ők maguk nem költenek erőforrást a konkurens hardverekre való optimalizálásra, a fejlesztők pedig láthatóan nem érdekeltek ebben, mert elég sok kódból áll ez az általánosra tervezett D3D12MA middleware. Nekik a copy-paste elég jó. De ha az NV is kapna optimalizálást, akkor ugyanúgy közel lenne nekik is a teljesítményük a D3D11-hez az RE3-ban.

    A Pascal hátránya akkor jön ki, ha egy játék épít a resources heap TIER_2-es szintjére. Például az RDR2 ilyen. De egy DirectX 11-et is kezelő programon belül ezt maximum támogatni lehet, de lényegesen építeni az előnyeire nem. Ehhez el kell szakadni a DirectX 11-től.

    Az RE3-ban a DX12 azért van benne, mert ugyanakkora VRAM kapacitásba több jobb minőségű textúrát tud betölteni ezzel az API-val.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Jacek

    veterán

    válasz b. #26583 üzenetére

    Vettem most egy 5700XT 112e HUF-ért helyezzük el a táblázatban :D ár teljesítményben .
    Csak vérszívás kurva olcsó volt elismerem :)

  • Dyingsoul

    veterán

    válasz b. #26589 üzenetére

    Pontosan erről beszéltem a #26586-ban. :K

    - Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul

  • Jacek

    veterán

    válasz b. #26589 üzenetére

    Cumi lesz :(
    Ja nálam semmi anomália a karival :)

    [ Szerkesztve ]

  • Jacek

    veterán

    válasz b. #26593 üzenetére

    Most ránéztem ez a 4 kártya 5-6% belül van :) az nálam egy.
    Ez amit vettem olcsó volt, nagyon kell a teljesítmény de 15-20%-ért nem fizetek 2.5x árat ..

    [ Szerkesztve ]

  • GeryFlash

    veterán

    válasz b. #26593 üzenetére

    5700XT nagy átlagot nézve pont annyira van 2070 felett mint amennyivel a 2070S alatt. A 1080TI meg kb 2070S.

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • Shkiz0

    nagyúr

    válasz b. #26597 üzenetére

    Előrendelésre (7-10 munkanap)
    Ami gyakorlatban kutya vacsorája.
    Ez olyan mint nekem egyik nagykerembe az 34GL750-B monitor január vége óta csúszik, és minden héten ígérik, hogy na most érkezik :D

    Új hardverek számlával, garanciával érd PM.

  • Jacek

    veterán

    válasz b. #26600 üzenetére

    Azert nem erted mert alapvetoen masrol beszelunk, irtam is.
    Problemam az hogy most vettem a 5700XT 112e, megneztem most itt a legolcsobb TI-t 429e öööőőő..........

  • Jacek

    veterán

    válasz b. #26602 üzenetére

    Én 2x mondtam hog ynem egyről beszélünk :)
    Ettől függetlenül én a én a plusz 320e forintnyi különbséget nem látom :D Ami majdnem mondjuk 2db PS5 ára :D :D :D

  • Dyingsoul

    veterán

    válasz b. #26600 üzenetére

    "Aki nem látja a jelentős grafikai különbségeket egy olyan játékban ami a kezdetektől beépítve támogatja az RT-t mint pl Control az vak."

    Ugyanezt lehet írna arra, hogy aki nem látja a 60 és a 144 fps között a különbséget az vak.

    Nem az a kérdés, hogy van-e különbség, mert tény, hogy van. Csak nem ér meg 1.5, 2, 3, 4-szeres árat. (alacsonyabb árszorzónál pedig még teljesítményvesztést is ami kész röhej)

    "Konkrétan nem értem az RT elleni érveket, nem ezért kerülnek ennyibe ezek a kártyák."

    Ez nem igaz. Szerinted ennek nem volt K+F költsége? Azt a költséget szerinted hol kapják vissza, ha nem az értékesített terméken? Ez akkor lenne így és akkor nem zavarná azokat akik raszter teljesítményben várnának többet, ha az RT mondjuk egy fizetős, prémium driver része lenne és nem a hardver árába építenék be. Persze azt meg lehetne hackelni és ezért sincs ilyen meg azért sem mert RT magok hardveresen vannak jelen.
    Az persze igaz, hogy nem csak az RT miatt kerülnek annyiba amennyibe. A fő ok, hogy nincs vetélytárs, ők diktálnak. AZ RT csak erre tesz rá egy lapáttal, de gondolom annak is örülnének sokan ha csak 50-100k-val lenne olcsóbb a 2080 Ti.

    Ezen felül a probléma az RT-vel az, hogy ez egy új piaci irány. Lehet benne szép nagy számokat mutogatni grafikonon. A raszter teljesítményt sokkal nehezebb tovább növelni 4K 8K felbontáson, mint bevezetni egy új feature-t amit szépen lehet tovább fejleszteni az évek során.

    Szvsz az NV az RT behozásával az eddig kanyargós Nordschleife-ből csinált egy unalmas, hosszú egyenes versenypályát. Az AMD-nek meg persze követnie kell ezen az úton, még nehezebb lesz behozniuk őket.

    [ Szerkesztve ]

    - Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul

  • Abu85

    HÁZIGAZDA

    válasz b. #26612 üzenetére

    A tensor magok nem olyan egyszerűek ám. Elég sok helyet is igényelnek.
    A hardver szintjén azért bonyolultabb az RT, mint a raszterizáció. Nem a fixfunkciós részegység teszi azzá, hanem a feladat komplexitása, illetve a koherencia részleges hiánya.
    A gyorsítóstruktúra nem akkora probléma. Látható, hogy többet megoldották fixfunkciós hardver nélkül, csak a jó működéshez igen speciálisan felépített motor kell, lásd CryEngine. A legtöbb motor nem ilyen.
    Mondjuk ezek a sugárkövetéstől sem lesznek. Más problémák limitálják a fizikai szimulációt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26614 üzenetére

    Nem tudja támogatni. Nem úgy működik. Eleve DirectX 11-et használ, ahol nincs is shader modell 6, ami a DXR alapfeltétele, illetve a processzor csinálja meg ezt a feladatot. Nem lehet csak úgy átrakni, mert azzal elveszti a legnagyobb előnyét, vagyis a hardver- és az API-függetlenséget. Nem mellesleg a Cryteknek felesleges is lenne támogatni, mert gyorsabb a megoldásuk a fixfunkciós hardverek nélkül, ugyanis egy csomó DXR limitációt szoftveresen ki tudnak kerülni, ami sokat lassít ám a hardvereken, de ezt a CryEngine nem nyeli be. Egyedül az inline raytracingnek lenne értelme a szemükben, de azt meg normális sebességgel csak az érkező hardverek fogják támogatni. A többi nem, nem úgy tervezték az ütemezőjüket, hogy egy szimpla kontextusstruktúra alapján visszatérjen egy hittel. A DXR 1.1 ezt megköveteli a hardvertől, és ehhez nagyon is át kell tervezni a dizájnokat. Ha most szimplán a DXR 1.0-ra dolgoznának, akkor csak sebességet vesztenének, miközben egy rakás kódot át kellene írni, és elvesztenék a hardver- és API-függetlenséget is.

    Azt nem tartom kizárnak egyébként, hogy az inline raytracingre rácuppannak, de nem azonnal, mert előbb meg kell várni, hogy a még nem elérhető GeForce-ok és Radeonok terjedjenek. Ezek nélkül ugyanis nem sok haszna van az inline raytracingnek.

    Persze. Mint írtam nem nagyon foglalkoznak csak egy demó kedvéért a driverrel. Hiába jobb hardver a Radeon 7, mint a Vega 64, sokat számít, hogy milyen optimalizálásokat kap a meghajtó oldaláról. De egy demó érdekében felesleges leültetni egy csapatot, hogy elkezdjék kicserélgetni a shadereket, ráadásul hardverspecifikusan.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26616 üzenetére

    És ki dönti el, hogy használ-e fixfunkciós hardvert? Mert te annak ellenére sem vagy hajlandó elfogadni, hogy a Neon Noir nem használ, hogy 1. hivatalosan bejelentették, 2. DirectX 11-ben elérhetetlenek ezek a célhardverek, 3. processzorral csinálják meg a gyorsítóstruktúrát.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Dyingsoul

    veterán

    válasz b. #26612 üzenetére

    Úgy látszik ma ilyen napod van, hogy elmész amellett amiket írnak az emberek. :) Még a végén belőled is PH cikkíró lesz. :DDD

    [ Szerkesztve ]

    - Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul

  • Abu85

    HÁZIGAZDA

    válasz b. #26618 üzenetére

    Nem érted amit írtam. Ragaszkodsz valamihez, amiről maga a fejlesztője jelentette ki, hogy nem úgy van. De ha nem hiszel a fejlesztőknek, akkor csak a saját józan eszed használd, és gondolj bele, hogy a DirectX 11-ben ugyan hogyan lehetne egy shader model 6.0-t minimum követelő modult meghívni. Maga a shader modell 6.0 nem is engedi a fordítást a D3BC IR-re, tehát, maga a DirectX 11 API használata teljesen kizárja, hogy hozzányúljon olyan hardverelemekhez, amelyek nincsenek is definiálva az API-ban. Tehát ha nem hiszel sem nekem, sem a fejlesztőknek, sem a Microsoftnak, akkor is ott a logika, amivel kikövetkeztethető, hogy ez a demó egyszerűen nem tud hozzányúlni azokhoz a fixfunkciós hardverekhez. Nem látja őket, mert nem használja a legújabb API-t, amivel ezek elérhetők.

    A másik dolog, hogy a Crytek elsődlegesen azért használ saját megoldást a problémára, mert a DXR 1.0-s opciónál tudnak gyorsabbat csinálni. Attól, hogy valamit fixfunkciós hardver csinál meg, még nem lesz gyors. A fixfunkciós hardver előnye ugyanis tart az adott feladatig, de a gyorsítóstruktúra a sugárkövetésnek egy szelete csak, és ha arra kényszerít téged az API-ban lévő futószalag, hogy külön shader feleljen magának a sugárnak az indításáért, külön shader fusson hit vagy miss esetén, és ezektől függően külön shader induljon a bejárás eredményére építve, az mond rontja a feldolgozás oroszlánrészének a hatákonyságát. Tehát sebességet nyertél a fixfunkciós hardver miatt a teljes feladat egy részében, de ezt kamatostul elveszíted a maradék munkán. És ez az, amit a Crytek el akart kerülni, mert nagyok ám a DXR 1.0 limitációi, nem véletlenül nyúlt bele olyan elképesztő mértékben a Microsoft, hogy a DXR 1.1-ben hoztak egy teljesen alternatív megoldást a sugárkövetésre. Ők is érezték, hogy szart sem ér a hardveres gyorsítás, ha a limitációk miatt kamatostul elveszíted a megnyert sebességet.
    Tehát a Crytek elméletben használhat DXR 1.0-t, de minek. A mostani megoldásuk gyorsabb, csak lelassítanák a Turingot vele. A DXR 1.1 már értékes megoldás, mert a működés tekintetében hasonlít ahhoz, amit éppen most csinálnak, és ebből már valós sebességelőnyt is tudnának szerezni, de ehhez kellenek a legújabb hardverek, amik még nem is érhetők el. Anélkül a DXR 1.1 nem igazán fog működni. És innen nincs nagy haszna gyökeresen átírni a saját megoldásukat, mert a sebessége annak is nagyon jó, és eközben még arra sem kényszeríti a felhasználókat, hogy RDNA2-t vagy Ampere-t vegyenek. Nem mellesleg teljesen kompatibilis az Xbox One és PS4 konzolokkal, illetve még a Switch-csel is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26623 üzenetére

    "To get right to the heart of it, this demo utilises DirectX 11 and requires no specific ray tracing hardware" - [link]

    Az 5.5 és az 5.7 az engine-re vonatkozik, csak lemaradt a copy-paste-tolt szövegből. A demó maga az 5.5-re készült.

    A demónak mások a követelményei. Ezek itt olvashatók: [link] - itt is DX11 van megjelölve.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26626 üzenetére

    Mint írtam, semmi különleges nem történik itt. Az NV csak a Turingra írt egy drivert, de ennyi. Az AMD is megteheti, kicserélik a shadereket, de annyi erőforrást elvisz, hogy felesleges egy demó miatt megtenni. A Pascal is sokkal gyorsabb lenne, ha az is kapott volna optimalizálást. Pont az volt a lényege az NV driverének, hogy azt hidd, hogy a Turing ennyire fasza RT-ben, és semmiképpen se lásd meg, hogy a Pascal is tudná azt a sebességet. Eléggé kivégezte volna az NV kommunikációját, mert visszakérdeznél, hogy akkor mi értelme a dedikált hardvernek. Viszont ezzel egy csomóan bekajálták, hogy biztos használja a program a fixfunkciós hardvereket, pedig nem ez az igazság, de a lényeg, hogy elhiggyék az emberek a kapitális faszságot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26629 üzenetére

    A távolabbi jövőben szerintem mindenki inline raytracinget fog használni. Az tűnik jelenleg messze a legjobbnak. A mostani dynamic shader raytracing nem elég gyors, és nem véletlen, hogy nem csak a Crytek nem akarta használni, hanem volt itt még a Wargaming, illetve a Gaijin is, amelyek szintén saját megoldást fejlesztettek. Nagyon is gyorsat úgy, hogy hozzá sem nyúltak a a fixfunkciós hardverekhez.
    Ahogy viszont fentebb írtam, az inline raytracinghez új hardverek kellenek. Tehát értem azt, hogy a Microsoft miért cserélte le a jelenlegi, abszolút nem hatékony dynamic shader raytracinget, csak ezzel ugye az erre tervezett hardvereknek is kampó.
    Sehol sem írtam, hogy a dedikált hardver hülyeség. Azt írtam, hogy az a működés hülyeség, hogy külön shaderek futnak egymás után részfeladatokkal, mert meg lehetne oldani ezt egyetlen shaderből is, és akkor sokkal gyorsabb lenne a feldolgozás. És a DXR 1.1 pont ezt hozza az inline raytracinggel. Tehát maga a Microsoft is hülyeségnek látta a korábbi modellt, ha nem lenne az, akkor nem hoztak volna rá egy sokkal gyorsabb alternatívát. Így már viszont elég sok értelme van a dedikált hardvernek, mert az inline raytracinggel nem kell benyalnod azt a sok, hardverek rossz kihasználáshoz vezető lassító tényezőt, amire a dynamic shader raytracing ma rákényszerít. Jó dolog tehát a dedikált hardver, ha nem kényszerít rá, hogy leharapjam a másik kezem. Így már valószínűleg tetszeni fog például a Cryteknek is, mert gyorsabb kódot is tudnak írni a saját megvalósításuknál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Kicsimix

    őstag

    válasz b. #26600 üzenetére

    Én pl csak az rt miatt fogok tovább upgradelni. Remélem a következő években erre fókuszálnak és mégjobb / mégtöbb remekmű lesz belőle.
    Nekem a Metro Exodus is nagyon ütött : )

    ...Kockázat nélkül nincs vereség... : ------------)

  • Abu85

    HÁZIGAZDA

    válasz b. #26635 üzenetére

    Már bejelentették az igazságot:

    Crysis Remastered will feature the original game’s single-player campaign alongside high-quality textures, an HD texture pack, improved art assets, temporal anti-aliasing, SSDO, SVOGI, state-of-the-art depth fields, new light settings, motion blur, parallax occlusion mapping, and particle effects (where applicable). Further additions like volumetric fog and shafts of light, software-based ray tracing, and screen space reflections deliver a major visual upgrade to this classic FPS experience.

    (#26636) GeryFlash: Nem pár effekt miatt drága a játékok fejlesztési költsége. Ha mondjuk az a két-három effekt, amit alkalmaznak olyan drága lenne, hogy befolyást jelentene a végső árra, akkor az történne, hogy le se fejlesztenék. De valójában ezeknek az effekteknek a valós költsége eltörpül a teljes fejlesztés anyagi követelményei mellett.
    A DXR 1.0-nak azzal vége is, hogy a DXR 1.1-ben jön az inline raytracing, tehát a mostani dynamic shader raytracing gyakorlatilag halott, az erre tervezett hardvereknek pedig kampó. Kellenek az inline raytracingre tervezett új hardverek, tehát a terjedést a nulláról újra kell kezdeni. Semmit nem nyertünk végül ezzel az időszakkal, csak csináltunk egy zsákutcát, amire a Microsoft csinált is gyorsan egy sokkal jobban működő alternatívát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26647 üzenetére

    Ha szoftveres az RT, akkor nem tud hozzányúlni a fixfunkciós hardverekhez, ezért szoftveres. :)

    A DXR 1.1 inline raytracingje nem a mai hardverekre készült. Ne várjatok csodát, mert csalódni fogtok. Ezt meg kellett lépni a Microsoftnak a jövő érdekében, mert még az elején vagyunk, és egy restart most nem jelent nagy kárt a piacnak. Nem mellesleg szoftveresen ugyanúgy írható mindenre támogatás, ahogy a DXR 1.0 esetében. Így működik a Pascalon is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26649 üzenetére

    Azért, mert a szoftver a processzoron fut, ha nem vetted volna észre a CryEngine-nek ezt a működését. :)

    Ahhoz, hogy mondjuk ebből legyen egy hardveres gyorsítás egyrészt támogatni kellene a DXR-t, amivel elvesztené a Crytek a hardver- és API-függetlenséget, másrészt ugye azért ment a Crytek a szoftveres irányba, mert a motorjukban ez a gyorsabb. Tehát nem fognak ezen lassítani csak azért, hogy hardveres megoldást használjanak. Te se kapcsolnád be csak azért, mert hardveres. A végeredményben a sebesség számít, és a Crytek gyorsabban megcsinálja a DXR 1.0-nál, tehát számukra utóbbinak nincs értelme. Pénz lenne rá, de sebességcsökkentésre nem szokás költeni.

    Alapvetően a működésről beszélünk. A Microsoft sosem mondta, hogy jó sebessége lesz a DXR 1.0 a nem erre tervezett hardvereken. A DXR 1.1 esetében is így lesz. Ott is csak az ehhez tervezett hardvereken lesz jó sebesség, de ettől függetlenül működőképes lehet bármilyen compute shadert támogató GPU-n.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26651 üzenetére

    Természetesen nehéz lesz egy hardvernek lekövetnie a teljes sugárkövetést, ha egyszerűen nem erre tervezték. Olyan ez, mint a 2000-es években a transzformáció és megvilágítás forradalma. Előbb kaptunk T&L-t, ahhoz új hardverek kellettek, majd nem sokkal később jött az alapszintű programozhatóság, megint új hardverek igényével, és így tovább. Most megint van valami újdonság, ami ráadásul fixfunkciós blokkokra épít, és amint van valami kicsit is nagyobb újítás az API-ban, rögtön kellenek hozzá az új hardverek. Egy pár év, és ugyanúgy be fog ez állni, mint anno a programozható shading, de amíg csak gyerekcipőben tipegünk, addig 2000-es évek eleje lesz megint, ahogy jön új DXR, kell majd hozzá az új hardver.
    A nagy kérdés az, hogy a játékok csak inline raytracinget fognak tartalmazni, vagy lesz egy port a dynamic shader raytracingre is. Utóbbit tudja támogatni a Turing, hiszen erre tervezték. De az inline raytracingben nincsen bekötési tábla, nem tudja a hardver végigkövetni a teljes feladatot, ki kell írni a részeredményeket, de mivel a fejlesztők nem írnak külön shadereket, így nem is írják meg a hardvernek, hogy mit hova írjon ki, és melyik shadernek mire van szüksége. Márpedig a hardverek ugyan sok dologra képesek, de kismillió memóriacímből nem tudják találomra kiválasztani, hogy melyik kell éppen, ha nem mondja meg nekik a program. Ezért kell az inline raytracinghez lényegesen combosabb ütemező, hogy ne szoruljon rá a hardver a szoftveroldali segítségre. Ha csak ezt támogatja egy új alkalmazás, akkor új hardver nélkül nem sokra mész. De ha kap még dynamic shader raytracing módot is, akkor működhetnek a Turing fixfunkciós blokkjai. Ez pedig már a fejlesztőktől függ, hogy ugyanazt az eljárást egyszer, vagy kétszer írják meg.

    (#26652) Segal: Ha csak inline raytracinget fog támogatni a program, akkor az nem jó a Turingnak. Ahhoz új hardver kell mindenképpen a jó sebességhez. A dynamic shader raytracing viszont jó a Turingnak is, csak ez lassabb, mint az inline raytracing.
    Sajnos hivatalosan a Microsoft nem mondhatja el, hogy mit támogatnak az új architektúrák, de egyértelműen utaltak rá, hogy a következő generációban mindenkinek lesz DXR 1.1-hez tervezett hardvere.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26654 üzenetére

    Az a táblázat arra vonatkozik, hogy a Turingra és az RDNA2-re létezik DXR 1.1-es implementáció. Az Xe azért van kérdőjellel, mert ahhoz még abban az időben nem készített implementációt az Intel. Egyébként mára már készített. Az implementáció viszont a támogatásra vonatkozik csak, lásd a Pascal is rendelkezik DXR 1.0-s implementációval.

    A Microsoft egészen konkrétan azt mondta, hogy az új generációs termékek hardveresen is támogatni fogják a DXR 1.1-et, külön kiemelték az inline raytracinget. De architektúraspecifikusan nem mentek a részletekbe, azt is elmondták, hogy ez nem az ő feladatuk.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26656 üzenetére

    Nem egészen, de majd meglátod, ha közelebb kerülünk az új GeForce megjelenéséhez. Ne éld bele magad, mert csalódni fogsz. Egy hardvert nem tudnak felokosítani, nem véletlenül olyan a DXR 1.0, amilyen, és nem véletlenül csak most jön az inline raytracing, ami egy elég nagy váltást képvisel. Leírtam fentebb, hogy nehéz lesz a nem felkészített hardvereknek kiválasztani találomra azt a memóriacímet, amire pont szükségük van, mert bekötési táblájuk a DXR 1.1-ben nem lesz hozzá. Egy a sokmilliárdhoz az esélye, hogy sikerülni fog.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #26658 üzenetére

    Nem akarlak elkeseríteni, de nem az ész fogja meghatározni a váltást. Amiért az inline raytracing felmerült az az, hogy még az elején járunk az egésznek, tehát az volt a kérdés, hogy megéri-e most jelentősen belenyúlni a működésbe, és felkínálni egy sokkal gyorsabb alternatívát. A legtöbben erre azt mondják, hogy megéri, mert a legtöbben úgysem váltottak új hardverre, annyira nem volt sikeres a DXR marketingje, tehát ha valamikor, akkor most még megéri a reset. Egy körrel később már sokkal nehezebb lenne, mert sokkal több hardver lenne a felhasználóknál, amiket igenis támogatni kellene.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • szmörlock007

    aktív tag

    válasz b. #26662 üzenetére

    Nem kuka, mert alapból csak a ray-tracing szempontjából beszéltetek, azon kívül továbbra is kegyetlen erős marad a kártya, és mint Abu mondta, Turing is futhat gyorsabban mint mondjuk az Rdna1, ha a dxr 1.1-et támogató játék fejlesztője külön ír egy dxr 1.0 implementációt a Turingra. Legalábbis én így értelmeztem, garanciát nem vállalok :DDD

    Abu85: Kicsit off, de a gen12-ről lehet mán tudni valamit uarch szempontból :DDD

  • szmörlock007

    aktív tag

    válasz b. #26666 üzenetére

    Lehet, mostanában kicsit kevesebbet követtem ezen híreket idő híján(amit sebtiben igyekszek is majd pótolni :D ), szóval személy szerint kíváncsian várom a történéseket.

    Abu85: Egyébként lehet tudni 2020 év végén kijövő játékról ami már kihasználja az új kártyák dxr 1.1-es képességeit? Mondjuk a Halo infinite meg a kövi forza biztos és ugye ezek jönnek pc-re is.

    [ Szerkesztve ]

  • GeryFlash

    veterán

    válasz b. #26678 üzenetére

    End of the day a végén még is csak csökkenti a fejlesztési költséget a réjtrészing ;]

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • Jacek

    veterán

    válasz b. #26700 üzenetére

    Ha letesz +40%-ot az asztalra az NV leborulok elottuk es mea culpa felkialtassal veszem a uj kartyat :)

  • gV

    őstag

    válasz b. #26700 üzenetére

    pedig 2016 annak számít lévén az ezt megelőző generációváltás volt akkor.

  • gV

    őstag

    válasz b. #26704 üzenetére

    Maxwell->Pascal volt 2016-ban 980->1080 TPU 1600x900 és 1080p-ben nem, de 2014-es $550 és 2016-os $600 kártyákról beszélünk azoknál meg nem ezek a felbontások a mérvadók

    [ Szerkesztve ]

  • GeryFlash

    veterán

    válasz b. #26700 üzenetére

    60% a plafon, én se várok annyit, de 40-nél abszolút többet. Az RT gyorsulás meg nem a ,,hardvernek köszönhető", mármint ez így nem igaz, mert nyilván annak is, csak alapvetően az inline-raytracingnek, tehát egy jóval jobb hatásfokú eljárásnak. Ergo nem arról van szó hogy hardver erőből hirtelen 3-4szer több van erre célozva, simán nem pazarolják faszságokra a shaderöket. Én azt mondom hogy a gyártástechnológiai ugrás (legyen az TSMC 7nm vagy 8nm Samu) hoz a konyhára 20-25%ot az architektúra ugprade meg szintén egy 25-30%-ot.

    Radeonról egy szót se írtam :DDD :DDD Az egy teljesen más történet, ott nincs már mihez hasonlítgatni, senki nem tudja megjósolni hogy az RDNA vs RDNA2 között mekkora ugrás lesz, mivel ugye ott gyártástechnológiában lényeges változás nem lesz... De hát az RDNA1 valami olyan bődületesen szar teljesítmény/fogyasztás szintet hozott hogy ott várhatóan architektúrában csak lesz(?) valami nagy ugrás, meg azért az is segíteni fog hogyha talán nem FIAT puntó méretű chipekből. De ott nyílván szerintem se akkor mint a Turing-Ampere között.

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • GeryFlash

    veterán

    válasz b. #26712 üzenetére

    Nem értem, ha szerinted a 3060 = 2080TI (ezt valószínűtlennek tartom, sztem inkább a a 2080+ néhány %) akkor miért kételkedsz abban hogy torma gbors vagy szerintem több lesz az előrelépés mint 40? A 2060 és a 2080TI között kereken 60% a difi :)

    ,,Az AMD úgy került képbe hogy kettős mérce van az emberekben. Az egyik gyártó két gen alatt lép előre 40 %ot az Nvidianal meg 50-60 az elvart generacionkent ? Konkurencia nélkül ilyet nem fogsz kapni. Túl nagyok az elvarasaid."


    A kettő közül a melyik lép msot nagyobbat előre gyártástechnológiában? Miért érzem most megint az Nvidia szimpátiát ebben az érvelésben? Én törekszem az abszolút objektivításra GPU és CPU fronton legalábbis, komolyan azt nem észrevenni hogy az egyik most lép le 12ről 7 míg a másiktól architektúrából / nagyobb chipből / minimális node javulásból várunk mondjuk 40%-ot, hát minimum furcsa...

    Persze most jöhet az érv hogy jó, de hát az AMD még így is le van maradva mint a borravaló, és ez igaz is, nagyon nagyon jóindulattal mondhatnánk azt hogy az RDNA1 tudja azt 7nm-en mint a Turing. Viszont ha onnan közelíted meg, hogy az AMD a GCN --› RDNA2 között 100%-ot ugrik a 14 --›7nm-re váltásnál, akkor már más a kép.

    Szerintem abszolút elvárható, hogy az Nvidia ne herdálja el az előnyét, és ha az AMD 40%-ot ugrik most akkor az Nvidia ennél mindenképp többet ugorjon új node-dal. Ha most ugyanakkroa lesz a fejlődés akkor az AMD abszolút felzárkózott, ami ennyivel kisebb budgetnél elég hülyén veszi ki magát.

    [ Szerkesztve ]

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • GeryFlash

    veterán

    válasz b. #26712 üzenetére

    Arról nem beszélve hogy marha jól néz ki ez a generációként mennyit ugrik és másik, csak hogy az AMD tele volt ilyen fél generációs ugrásokkal lásd vega vagy RDNA1. Miközben az Nvidia 2 évente kiad egy generációt. Eddig zseniálisan kontrollálta a helyzetet, de ha a rivális 2 gyors generáció kidobással hoz most 50-50%-ot akkor az eddig meglévő lead szerepük gyorsan elveszik. GTX 1xxx/RTX2xxx széria szétoktatta az AMD-t.

    Mi volt a 180wattos 1080-ra a válasza az AMD-nek? Vele egyenértékű 300 wattos Vega 64
    Mi volt a válasza a 215wattos 2080-ra? Egy nála 15%-kal gyengébb 295 wattos Radeon VII

    Erre most arról beszélünk hogy ezt az óriási lemaradást 2018 óta 2 év alatt ledolgozza az AMD? Kit érdekel hogy a GCN és a RDNA2 között volt egy plussz generáció, a lényeg az hogy óriási előnyben van/volt az Nvidia, és most már arról beszélünk hogy az új szériánál vajon mennyi marad meg ebből. Persze hogy azt várjuk, hogy többel gyorsuljon 2 év után mint az AMD 1 év után.

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • gejala

    őstag

    válasz b. #26720 üzenetére

    Én már csak azért sem hiszek ilyen 60% előrelépésben, mert ha $300-ért adnak 2080 Ti sebességet, akkor kinek fogják eladni az $500+ kártyákat? A piac alig pár százalékát érdekelné. Mert a 2080 Ti szint nextgen játékokban is 1440p ultra / 4K med-high minőségre elég lesz.
    Itt az a lényeg, hogy a középkat a konzolok szintjén legyen (ahogy te is írod), a csúcs meg pont annyival legyen gyorsabb náluk, hogy legyen értelme megvenni. A gyártástech ugrást szerintem is elsősorban méret+fogyasztás csökkentésre fordítják, meg kigyúrják az RT részt. Remélhetőleg visszatérünk a 3070=150W körüli fogyasztáshoz.

    [ Szerkesztve ]

  • Dyingsoul

    veterán

    válasz b. #26724 üzenetére

    Szerintem Jensen papa helyett neked kellene vezetni az NV prezentációkat. Kb ugyanezt fogja mondani a diák bemutatása közben. :))

    (#26725) Segal:
    "A másik hogy ha mondjuk már a 3070 is beealázná a 2080Ti-t, akkor utóbbi ára brutálisan beesne a használt piacon és ha valaki kiadott 500k+t a kártyáért és utána 1-2 év közti idősávban nézve is 200k alatt tudná csak eladni az tutira elgondolkodna azon hogy mégegyszer beválallja e a csúcskártya beszerzését..."

    Ez totál invalid érv. A használt piacot csak a felhasználó veszi számításba, még a gyártók sem, nemhogy az NV. Amikor pl a Porsche kiad egy új modellt szerinted figyelembe veszi a használtautó paicot? :U Tudom, rossz a hasonlat mert az autó gyártók között sokkal nagyobb a verseny, mint GPU fronton, de ott sem veszik figyelembe a használtautó piaci árakat.

    [ Szerkesztve ]

    - Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul

  • gejala

    őstag

    válasz b. #26724 üzenetére

    Még annyit hozzáteszek, hogy a $300 3060 szerintem profin be lesz lőve sebességben a várhatóan $500 PS5 (2070 szint) és $600 Xbox (2080S szint) közé. Ezt könnyen megtehetik, mert jó eséllyel csak jövőre jön ki. A $450-500 3070 meg kicsivel az Xbox fölé. A 3080 és a Ti meg ott lesz arra, amit a konzolok nem tudnak már elérni.

    [ Szerkesztve ]

Új hozzászólás Aktív témák

Hirdetés