Keresés

Hirdetés

Új hozzászólás Aktív témák

  • huskydog17

    addikt

    LOGOUT blog

    "Az új generációknál is ez van?"

    Mivel az AMD a GCN1-től kezdve minden VGA generációhoz ugyanazt a drivert szállítja, így feltétezem igen.

    #8 Duck663: Ezt a kis szösszenetet augusztusban írtam meg, miután megvettem a GTX 1060-at és gondoltam megosztom a váltással járó élményeimet és a mögötte húzódó okokat. Ha te ebbe többet látsz bele, az már a te problémád. Semmi beleszólásom nem volt/nincs abba, hogy mikor lesz publikálva a cikk.

    Nálad az RX580-al megy, ez jó hír, nálam azt RX470-nel nem ment. Technikailag majdnem ugyanaz a kettő, ha jól emlékszek az RX500-as szériánál valamit machináltak az UVD órajelekkel, lehet hogy pont emiatt bírja jobban.

    Vsync nálam is tökéletesen működött azokban a játékokban, ahol be lehetett kapcsolni. Ahol nem volt ilyen beállítás, vagyis ahol driveres kényszerítés kellett, ott D3D alatt nem működött, még az Enhanced Sync sem.

    UE4 alapértelmezetten a 4.23-as verzióig PhysX-et használ, csak nem GPU-gyorsítottat.
    Amúgy nekem, mint PC játékosnak mi közöm a PS5-höz? Nem értem hogy jön ide a linkelt PS5 videó.
    Amúgy UE4 esetén annyi változott, hogy több játékban a GTX 1060-al már ki tudom maxolni a grafikát azokban a címekben, ahol az RX470-nél csak Mediumon tudtam játszható sebességet kifacsarni. Nem tudom, hogy az Epic mikor nyilatkozta, hogy kizárólag AMD kártyákon fejlesztik az UE4-et, nem emlékszem ilyen nyilatkozatra tőlük, de ha ez igaz, akkor még érdekesebb, hogy az NV kártyák a legtöbb UE4 játékban jobban teljesítenek.
    Én nem rajongok az UE4-ért, de sajnos sok játék, melyek megfordulnak nálam, arra épülnek.

    #12 schwartz: Nem szívattam magam, legalábbis nem szándékosan. :D Egyszerűen - ahogy írtam is - a korábbi igényeimet kielégítették a Radeonok, az idei évben fogyott el a türelmem. Augusztusban találtam egy jó ajánlatot egy GTX 1060-ra és gondoltam, ha csak egy kis javulás lesz itt-ott, akkor megéri, ennél rosszabb úgysem lesz. Arra nem számítottam, hogy ilyen brutál nagy lesz a különbség a felhasználói élmény szempontjából.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz lev258 #4 üzenetére

    Linux fronton nem tudok nyilatkozni, én kizárólag Windows-on játszom.
    Érdemes visszanézni a 2016-os DOOM méréseket OGL fronton. Finoman fogalmazva óriási volt a különbség a két oldal között, márpedig akkor az volt a legfejlettebb OGL játék a piacon. Gyakorlatilag az NV kártyák OGL hozták azt a teljesítményt, amit az AMD csak Vulkan-nal tudott.

    #11 nexplo : Köszi, a hibát javítottam! :R

    #16 Egon : Jobb későn, mint soha! :DDD Korábban teljesen más hozzáállással és felfogással használtam egy VGA-t. Akkor kihívásnak tekintettem, hogy órákon át kellett keressek megoldást a VSync beüzemeléséhez bizonyos játékokban. Ma már nem akarok ezzel pöcsölni, csak átbillentem a driverben a Vsync opciót és működik (végre). Nem egy játéknál kellett lemondjak a videókészítésről az AMD AMF SDK miatt. Ezek folyamatosan gyűltek az évek alatt, mármint a negatív tapasztalatok és augusztusban léptem.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz Duck663 #21 üzenetére

    Chill-t egyszer próbáltam meg, az eredmény borzalmasan rossz volt, elméletben lehet, hogy jó cucc, de Vsync helyettesítésére alkalmatlan. Hiába állítottam be 60 fps-t, olyan ronda framedroppok voltak, hogy kapcsoltam is ki azonnal.

    "A videó úgy jön ide, hogy igaz, hogy a prezentáció PS5-ön történt, de a technológia PC-n is elérhető lesz! Csupán ennyi a közöd, ez a fejlődés iránya, ahhoz hogy ezt elérjük egy PC-n vagy konzolon, nem lehet black boxokkal bohóckodni."

    Meg se merem tippelni hányszor láttam ilyen és ehhez hasonló jóslatokat. Én csak azt hiszem el ami már megtörtént, a black box kifejezés pedig nem tudom honnan ered, gondolom talán valamelyik AMD által szponzorált dev említette egyszer valamikor valahol. A PS5 az összes többi konzollal egyetemben teljesen irreleváns téma a cikk témáját figyelembe véve.

    "Kicsit kutakodtam, Frontline: Fuel of War, egy nem túl sikeres Unreales játék amelyhez még az nv előtti időkből is elérhető volt (talán még fellelhető) meghajtó, érdemes megnézni azzal és az nv féle "optimalizációval" kb negyedelődik a tempó, plusz akadás mindenfelé! Ennek annyira nem kellene tapsikolni, hú de hogy teljesít, de vajon miért is?"

    Belinkelnéd légyszi a forrást? Érdekelnének a pontos teljesítmény adatok. A játékra rákeresve én csak annyit találtam, hogy néhány usernél nem akar alapból elindulni a játék, nekik csak annyi a dolguk, hogy feltelepítik a NVIDIA PhysX Legacy System Software és műxik.
    Amúgy vicces, hogy egy 2008-as címmel jössz, ami 2.x-es PhysX-et használ, azóta az SDK óriásit fejlődött és gyorsult. Tisztán CPU alapon a 3.3-ről 3.4-re történő átállás az Exor-nak 2-3× gyorsulást hozott teljesítményben, a 3.3 pedig már alapból nagyságrendekkel gyorsabb, mint a 2.x verziók. Vess egy pillantást az X-Morph játékra, itt a fizika nem csak esztétikai szempontból veszettül jól néz ki, de közvetlen kihatással van a játékmenetre, továbbá teljesen CPU alapon megy úgy, hogy egy régebbi 4 magoson is gond nélkül megy, vagyis nagyon baráti gépigénye van. Nem sok játékot ismerek, még a maiak közül se, ahol ilyen fizika van, ráadásul ami kihat a játékmenetre is. A videóban CPU PhysX látható, szerintem ez pont, hogy példaértékű alkotás fizikai szimuláció szempontjából.
    Szóval lehet nézni szélsőségesen negatív példát, de lehet a másik oldalról is, érdemes mindkét végletet figyelembe venni.

    Bár eléggé elkanyarodtunk a cikk témájától, nem is értem hogy jött be a PhysX a képbe, de ha már szóba hoztad, volt néhány játék, ahol RX470 alatt összeomlott a sebesség, amikor a GPU alapú fizikát bekapcsoltam, majd egyszer megnézem hogy megy 1060-on, ha már CUDA-ra lett írva.

    "A vsync driverből kényszerítve szintén működik (amiken próbáltam). Enhanced sync is működik, csak ne akard chillel együtt használni, mert akkor képtöréseket okoz."

    Meg tudnád mondani, hogy pontosan mely címekben próbáltad? Bár most már úgysem tudom letesztelni, mert az RX470 már nincs nálam 3 hónapja, de hátha augusztusban én is néztem azokat, ki tudja.

    #25 DraXoN : Nálam a Chill borzalmasan rosszul működött, amikor belőttem 60 fps-re, össze vissza akadt a játék. Kényszerített Vsync-el nem volt ilyen gond.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz DraXoN #27 üzenetére

    A 40-60 tartományt én azért nem akartam használni, mert én fix 60 fps-t szeretnék, nem akarom, hogy a Chill 40 fps-re lefékezze a sebességet, amikor a kártya 60-at is tudna. A fix 60 fps-hez a Chill nálam alkalmatlan volt.

    #28 GhostRider93: "A cikkhez szólva megnéztem egy 8K60 videót youtube-on(Chrome) és VLC-ben (Peru 8K HDR-a videó neve) de nem láttam hogy eldobná a fremeket és közben elvolt a kártya 15W pluszminusz 2W-ból."

    Valószínűleg akkor a CPU-d is keményen számolt a GPU mellett, ugyanis a Navi nem tud VP9-et gyorsítani 8K felbontáson.
    Az egyetlen GPU-család, ami képes 8K60fps videót dekódolni, az az Ampere, ami AV1 alatt képes erre, a többi kodek esetén 30 fps-t tud dekódolni 8K felbontáson. Navi 4K felbontásig támogatja a VP9-et és a HEVC-et, míg az AVC-t képes 8K-ban gyorsítani max 30 fps-ig.
    Amúgy attól, hogy nem láttad, könnyen lehet, hogy dobálta a frameket, ezt leellenőrizheted a Statisztikák menüpontban. Amúgy az általad említett videóban nem is érhető el 8K felbontás, 4K a legmagasabb, az pedig a Navi-nak nem probléma, legalábbis feltételezem, hogy erre a videóra gondoltál, itt 2160p60 a maximum, azaz 4K.
    Ez például egy valódi 8K videó, erre rá is néztem. Annak ellenére, hogy a GTX1060 ezt nem tudja gyorsítani (nem teljesen), a videóban nem volt eldobott frame, mivel a CPU is alaposan dolgozott, mert a GPU dekódere nem bírta egyedül. Bár a 0 eldobott frame ellenére egyértelműen látszott, hogy nem folyamatos a kameramozgás, de az is csoda egy Pascal VGA-tól, hogy nézhetően viszi a 8K videókat. :) Sajnos ebből a szempontból a YT Statisztikák menüpont nem teljesen megbízható.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz bossbob #32 üzenetére

    "Egyébként a DOOM-ot és az új Wolfenstein-t miért OpenGL-en játszottad?"

    Vulkan-nal toltam a Doom 4-et, a Wolfenstein New Colossus-ban pedig kizárólag Vulkan van.
    Amúgy igen, RX470 a Doom 4-et Ultra-n viszi Vulkan API alatt.

    #33 GhostRider93: "A "filmezős" gépen (R3 1200 4ghz, +rx570) VLC ben szépen megy a 4k HEVC film de ott gondolom csak a CPU számol."

    Nem tudom a VLC alapértelmezetten (gyári beállításokkal) bekapcsolja-e a DXVA-t, bár gondolom igen, mert értelmetlen és logikátlan lenne nem azt használni. Szóval az RX570 gond nélkül tudja gyorsítani a 4K HEVC videókat DXVA mellett, nálam se volt gond e téren az RX470 is gond nélkül gyorsította DXVA-ban a 4K AVC és HEVC videókat. A YT viszont VP9-et használ, ami a Polaris-nak már problémát jelent (de még a Vega-nak is).
    Szóval amíg DXVA mellett nézel 4K HEVC videókat, a CPU-dnak nem kell csinálnia semmit.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz bozont #38 üzenetére

    A két említett felbontásban már a CPU segített nálad is, igen. Már az 1440p-nél is 30-40%-on tekert nálam a 3470-es i5.
    Ezer köszi az infót a HEVC témában, most kipróbáltam egy rövid felvétellel és valóban elfogadta a HEVC kodekes MP4-et! Végre YT, végre! :R
    A cikkben javítottam az érintett részt.

    #42 b.: Számomra a Wolfenstein New Order az egyik legjobb FPS, leírhatatlan milyen különbség volt RX470 és GTX 1060 között. Életemben először tudtam végigjátszani a játékot max grafikán 60 fps-en, mert az RX470 még minimumon is vért izzadt a 30-40 fps-hez.
    A multimédia motor meg kb. csak 6× gyorsabb. :D
    Navi küzdött az Enemy Territory-val? Atyagatya, pedig az a játék id tech4-et használ, ahol az AMD kártyák viszonylag jól teljesítenek.
    Bár mondjuk a Polaris is utálta a Quake 2-t az XP mod-dal, felvétel mellett már az id tech2 is sok volt neki. :DDD

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz Redneck #45 üzenetére

    Nyilván ha egy olyan játékot raksz a 1060-as alá, amihez az kevés, nem fogja tudni tartani a fix 60-at. Ha viszont olyan játékot játszol rajta, ahol a minimum FPS is 60 felett van, akkor végig stabil smooth 60 fps lesz a játékban. Szerencsére én rengeteg, a pontosabban a legtöbb játékot így játszom. Ez azt is jelenti értelemszerűen, hogy nem foglalkozok a legújabb AAA címekkel, mindig több éves lemaradással követem őket.
    Mindig vannak olyan játékok is, melyek nagyon elb*szott grafikus motort használnak, aminél nem létezik olyan PC, ami bírná a 60 fps-t, ilyen elcseszett motor például az X-Ray Engine, Cryengine 2.
    Különbözőek vagyunk, én jobban elviselem, ha fix 60-nál néha beröccen, mintha 40-50 fps-el menne. Igen 60 Hz-es monitorom van, ami se Freesync-et, de G-Sync-et nem ismeri, így marad a hagyományos fix 60 fps, ami számomra tökéletes.
    A túl erős frametime ingadozás legtöbb esetben a túl gyenge CPU számlájára írható.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz Redneck #49 üzenetére

    Pont a Crew első része az egyik legelcseszettebb PC port, az egy elég szélsőséges példa, a többi Ubi játékkal nekem semmi bajom, bár a Crew 1-ben nem a szar performance volt a legnagyobb bajom, hanem a katasztrofális okos telefonos menü, na attól a falnak megyek egy PC játékban.
    A fix Vsync-es 60 fps főleg in-engine átvezetőknél baromi jó, ilyenek után egy pre-render átvezető elég fos minőségűnek tűnik. :)

    #50 b.: Még mindig fos? Azt hittem az elmúlt években kikalapálták. Nem sokan képesek jó DX12 kódot írni úgy tűnik.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz #32839680 #53 üzenetére

    Nem sajnálom, most már gond nélkül megy, a GTX 1060-nak a 4K60 sem probléma. :D
    Amúgy Firefox-ot használok.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • huskydog17

    addikt

    LOGOUT blog

    válasz Dilikutya #71 üzenetére

    Ke? :F

    RX470 új ár: 179$
    GTX1060 (6GB) új ár: 249$

    Akárhogy számolok ez meg se közelíti a duplát.
    Arról meg végképp nem tehetek, hogy az AMD kártyák sokkal gyorsabban veszítenek az értékükből a használt piacon.

    Amúgy ha elolvastad a cikket, akkor egyértelműnek kéne lennie, hogy nem a 20-30%-os különbség miatt vettem meg. OGL és multimédia fronton ég és föld a különbség. Szóval igen, nagy kaland, mert a gyorsulás sokkal nagyobb mértékű volt, mint amire számítottam (az imént említett két területen).

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

Új hozzászólás Aktív témák