Keresés

Hirdetés

Új hozzászólás Aktív témák

  • b.

    félisten

    válasz Cifu #8 üzenetére

    Nvidia szerint a Control használja a legtöbb RT effektet, összesen 6 eljárást használnak RT vel, amit egy játék sem tesz eddig.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Carlos Padre

    veterán

    válasz Cifu #22 üzenetére

    Igen, de az azt akarta megmutatni, milyen szép valósághű játékokat lehet csinálni raytrace használatával, ez meg azt, hogy mekkora brutális terhelést is elbír a kártya és az új api. Itt nem azt kell nézni, hogy szép e vagy élethű, mert gusztustalan, kezdő hobbirenderelők csinálnak ilyet, meg azok, akik keresik a hardver határait.

    Genyó vagyok, ha hülye vagy megmondom.

  • Duck663

    őstag

    válasz Cifu #22 üzenetére

    Ha megnézed ebben a demóban a tükröződések számát és ami nagyon fontos a távolságát, nos akkor rájössz, hogy az a tavalyi demó hiába néz ki jobban, valójában sehol sincsen. Kis terekkel és/vagy kis távolságokkal operál, ahol nagyobb a tér, ott drámaian lecsökken a tükröződések száma. Nagyon kevés, nagyon szelektív tükröződések vannak csak benne. Itt meg, pfff, valami eszelős.

    Az kétségtelen, hogy mint demó sokkal jobban mutatnak azok, de a RT terhelésük ehhez a demóhoz képest elenyésző. Ezt a demót tényleg nem esztétikai szemmel kell nézni, ez egy brutális erődemonstráció és annak bizony ott van. A (játék)fejlesztők pedig sokkal szebb dolgokat fognak kreálni.

    [ Szerkesztve ]

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • Duck663

    őstag

    válasz Cifu #27 üzenetére

    Nyugi, megjelenik a VGA aztán lehet is összehasonlítani, vannak már RT támogatott címek. BFV, vagy Control szerintem elég jó lesz.

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • Duck663

    őstag

    válasz Cifu #32 üzenetére

    És mivel kérdőjelezed meg? Egy régebbi, láthatóan kevesebb RT-et tartalmazó demóval? Ez elég halovány érv. Kijön a hardver és kiderül, mennyire erős RT-ben a RDNA2, sőt ha kiadják a demót (passz, volt már több demójuk amit nem adtak ki, így ezt nehéz megmondani) akkor azzal is lehet majd tesztelni, a Radeonos demók nem szoktak limitálva lenni hardver szempontjából.

    (#35) FLATRONW: Egy agyontömörített videót láttunk. Az tény, hogy nem feltétlen a leglátványosabb, de nézd meg körbe a tükröződéseket, mi merre mennyire milyen távolságban tükröződik és nézd meg a többi demót, hogy azokban mennyi ezek száma, és mekkora a távolságuk. Értem én, hogy csilivili robbanások mennyivel jobban mutatnak, de nem az volt a demó célja, hogy azokat mutassa be.

    (#36) b.: Egyéb demókban sem láttam különösebb számadatot. Nem tudom ezt miért várod el? Minecraft :D tré a példád, alig van benne valami kis tükröződés, persze szép színes, de akkor is alig tükröződik. Itt pedig minden tükröződik mint az állat. Ez pont ettől erődemonstráció, hogy nem csak tessék-lássék módon van használva a RT, és szép színes csilivili, hanem mindenhol, minden felületre. Értelmetlen és kétségtelen, hogy szarul is néz ki, nekem sem jön be ez a krómos demó, de hogy ezt így kezeli a hardver, az nem semmi.

    [ Szerkesztve ]

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • Carlos Padre

    veterán

    válasz Cifu #27 üzenetére

    Régi motoros vagy már ebben az Nvidia-AMD háborúban, tudod nagyon jól, hogy az nvidia nem hagy kétséget az erőfölénye felől, meg van az oka, hogy miért ilyen visszafogottan demózza a saját megoldását. Ugyanezért lehet ez a demó ilyen bazárian gusztustalan giccs, átlagos szemmel nézve borzalmas, de technikai szemmel hubáze. Ugyanennek a scenenek egyetlen képkockája több percig (órákig) is eltarthat mire egy átlagos gép kiszámolja, ez meg real time fut.

    Genyó vagyok, ha hülye vagy megmondom.

  • olymind1

    senior tag

    válasz Cifu #22 üzenetére

    Az AMD bemutatója olyan érzésre mintha valami garázscég készítette volna, vagy tizenévesek, hogy mi majd jól megmutatjuk csak minden csillogjon-villogjon. :U

    A project sol-ok meg mintha egy nextgen Mass Effect, Doom vagy Iron Man játékot demóztak volna.

    @(#31) Kelori
    Mass Effect Andromeda-nál is szépek voltak a helyszínek és jó hangulatot tudott teremteni a grafika, szintén Bioware és FrostBite motor. (csak ugye hiába a jó grafika, ha maga játék érzésre nem volt olyan jó mint a korábbi részek :( )

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Cifu #27 üzenetére

    Technikai értelemben itt az API-ról van szó. Most tegyük félre, hogy a végeredmény nem ízléses, de a lényege az új DXR 1.1-nek, hogy a korábbi DXR 1.0-hoz képest akár egy shadert is elég alkalmazni a sugárkövetés működéséhez. Ezzel egy csomó dolgon javítanak, például rögtön azon, hogy az összes compute fázist egybe kombinálod, így ezeknek nem kell egymás után sorban lefutniuk, hanem egyszerre, párhuzamosan megtörténik minden, és a kombinált fázisok egyszerűen felhasználhatják egymás eredményeit, amelyek ott vannak a multiprocesszor gyorsítótáraiban, nem kell minden egyes fázisnál ezeket kiírni a memóriába, majd a következő fázisnak beolvasni onnan ugyanazt. Mindezek az előnyök pedig megjósolhatóvá teszik a terhelést, mert egy csomó korábbi limitációt kezelnek, így sokkal hatékonyabban lehet megközelíteni a hardverek határait, mert korábban az egy jelentős gond volt, hogy egy bizonyos feldolgozás az esetek többségében jó volt, de egy környezeti tényező mellett jól bezuhant a teljesítménye. Na akkor a teljes feldolgozást le kellett butítani arra a szintre, hogy a worst case-hez lehessen igazodni.

    Végeredményben tehát az API-ban érkező inline raytracing tesz lehetővé olyan lehetőségeket, amikkel korábban nem lehetett élni, és ez növeli meg a sugárkövetés hatékonyságát, illetve sebességét. Ezt a demó úgy reprezentálja, hogy túltolja az egészet, ettől néz ki szarul, de nagyon sokáig futnak a sugarak. Például ebben a demóban van olyan is, hogy nem csak a felület tükrözi vissza a másik felületet, hanem az abban visszatükrözött távolabbi felület visszatükröződése is látható a visszatükröződésben. Ez marhára overkill, meg igazából tök hasztalan, nem látod meg a gyakorlatban, nem is nagyon csinálja más program, inkább erősen limitálják a sugarak távolságát. De az DXR 1.1-gyel ez is realitássá vált. Mondjuk én nem alkalmaznám, de oké, mostantól ez is valós időben futtatható.
    Mindezek mellett persze kell az erős hardver is, mert némileg áthelyeződnek a tipikus limitek. Azzal, hogy nem kell a compute fázisok között a memóriához rohangálni, kevésbé lesz limitáló a memória-sávszélesség, viszont ennek az az ára, hogy sokkal több cache kell a multiprocesszorokon belül, hiszen arra törekszik az új megoldás, hogy a munkát ezeken belül tartsa. Ergo a régi limit helyett keletkezett egy új, de úgy néz ki, hogy ez a számítási hatékonyság tekintetében jobb megoldás. Már csak azért is, mert modern, 7 nm-es node-on nagyon szépen ki lehet ám tömni a multiprocesszorokat cache-sel, lásd RDNA. Eközben arra sokkal kisebb az esély, hogy a memória-sávszélesség frontján történjenek drámai előrelépések, de ha történne is, akkor sem annyira ideális a GPU-knak az offchip adatmozgás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Komplikato

    veterán

    válasz Cifu #75 üzenetére

    Az SDR verziók az már Radeon 7000 néven futott, de szerintem a Wiki leírásban sok nem pontos dolog van, a 7000-es széria nem a 8500 UTÁN jött ki vagy rosszul emlékszem? A másik, hogy nem a GeForce elnevezés miatt volt ott a 256, hanem mert ez volt az első 256 bites kártyája az ATI-nak. De lehet erre is rosszúl emlékszem?

    "Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)

Új hozzászólás Aktív témák