Hirdetés

Hirdetés

Új hozzászólás Aktív témák

  • Pipó

    őstag

    Ez a v-sync probléma meglepett. Az új generációknál is ez van? Én is használom non-stop NV-n, így - mivel gondolkodom a fejlesztésen - eldöntheti a választást. Utolsó radeonom 1900xt volt, akkoriban ez nem tűnt fel, bár én az akkori ccc-t sosem használtam, mindig omega drájver volt fenn.

    "Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!

  • eldiablo

    addikt

    Egész sok radeon megfordult nálam mostanában és ilyet egyszer sem tapasztaltam, pedig én minden féle sync nélkül használom. Remélem nem egy olcsó fullhd-s irodába szánt monitoron játszol. (bár az én irodai Dell monitorjaim sem teareltek egyszer sem.) :DDD

  • Polllen

    nagyúr

    Én már a kérdés felvetést sem értem. Azt gondolom, hogy a tudatos vásárló mindig azt veszi, ami az igényeinek a legjobban megfelel. Történet vége.

    "Odamentem egy párhoz...négyen voltak!"

  • lev258

    veterán

    Az OpenGL-lel kapcsolatban szeretném kissé árnyalni a képet.
    Linux felhasználóként az első sorból szemlélhettem, hogy az utóbbi években milyen látványos fejlődésen ment át az AMD kártyák drivere. Sok fejlesztés és optimalizálás történt és történik jelenleg is, mind OpenGL, mind Vulkan fronton. Ezek egy része direkt módon bekerül a Windows-os driverbe is. Látni viszont azt is, hogy sok játék esetén az OpenGL szabványoktól eltérő megoldások okoznak gondokat, melyeket csak a fejlesztők kis része hajlandó javítani. Tény, hogy az Nvidia sok erőforrást öl az ilyen problémák orvoslására driver szinten, egyedi megoldásokkal megkerülve a problémákat, ezáltal gyorsulást elérve. Ezen a téren az AMD valóban le van maradva. Bár kérdés, hogy vajon kinek is a felelőssége ez. Azt viszont megértem, hogy a felhasználó szempontjából a játékélmény (és az FPS) számít, nem az, hogyan érik el az adott teljesítményt.

    Ubuntu MATE 20.04, hobbi cayenne termesztő

  • Lord Myn

    senior tag

    Én is majdnem írtam egy ilyen cikket, hogy "Búcsú az nVidiától 20(!) év után", de azután még az új Radeonok érkezése előtt, mégis sikerült beszerezni egy 3070-est... :U

    "War does not determine who is right - only who is left."

  • Cifu

    nagyúr

    Hogy most pontosan mi a helyzet az AMD driverek terén nem tudom.
    De az első Radeon óta (ATi Radeon 32MB DDR) problémája volt a Radeon kártyáknak a driver, és hogy folyton 3rd party szoftvereket kellett igénybe venni a finomhangoláshoz. Ez idegesítő volt, de akkoriban még jobban megbocsátotta az ember nekik. Főleg, hogy akkoriban elég jók is voltak a Radeon kártyák, volt 8500LE és 9700Pro is. Utóbbi időszak volt szerintem az ATi aranykora, akkor az nVidia hibát hibára halmozott (FX-széria).

    A driverek terén a bukdácsolás később is megvolt, és legutóbb tavaly volt "szerencsém" két RX5700 esetén is szívni velük. Azóta inkább kerülöm őket. Pedig nagy piros rajongó voltam...

    Meglátjuk, hogy az RX6x00 széria mennyire fog ütni valójában, bár tény, hogy amit az Ampere kapcsán most össze Benny Hill-kedik az nVidia, azon már nevetni se lehet, olyan kínos... :U

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • BaLee

    addikt

    LOGOUT blog

    Én is nagyon régóta (AGP-s idők...) Radeon vonalon mozogtam, szerettem is őket, sőt anno egy 6600 GT Nvidia kártyával megpróbáltam a másik oldalt is de nagyon nem jött be, hamar vissza is tértem. Aztán 2010 utáni kártyáknál már egyre több nyűg jött elő, a driverekkel főleg. Példákat már nem tudnék rá mondani de játékokkal is gondja volt meg alap dolgokkal (kép küldése tv-re) sem mindig birkózott meg úgy ahogy kellett volna. Szóval nagyon sok év hűséges vörös vonal után én is zöldre váltottam, szintén egy 1060 gt (6gb) személyében. Jó kis kártya, a driverben is okos és hasznos megoldások, és többnyire minden működik úgy ahogy kell.

    Nem mondom, hogy nem fogok valamikor visszatérni, de ez most így tetszik, meg már amúgy sem annyira prio a játék a PC-n, hogy ezek miatt évente új VGA-t vegyen az ember. Bár soha nem tudhatja az ember mikor jön egy új PUBG az életébe. Az előtt sem gondoltam soha, hogy én valaha még játék miatt fogok VGA-t frissíteni... :))

    Amúgy is amikor egy combosabb VGA áráért már kapni egy PS5-öt és azon ha ügyes vagy minimális befektetéssel játszhatsz (megveszed a játékot használtan, majd ha végigjátszottad eladod kb. ugyanannyiért vagy épp drágábban). Persze azért a PC-s FPS műfajt egér+bill. kombóval azért nem lehet konzolon utolérni, bár kontrollerrel is egész élvezetes FPS-t játszani csak kicsit tanulni kell. :)

  • Duck663

    őstag

    Ezt a kis szösszenetet elég vicces olvasni épp az új Radeonok megjelenése előtt! :) Azt mondanám rá, hogy gyenge kísérlet! :)

    Egy-két megjegyzés!

    RX580-am van, ami technikailag ugyanaz, mint az RX470, youtube-on a 4K 60 képkocka no problem, mindenféle röccenés nélkül mennek! 8K nem, de a 4K igen. [link] Lehet Chrome vagy firefox, tök mindegy, le is menthetem, MPC ugyanúgy lazán viszi őket.

    A V-Sync speciel tökéletesen működik. Igaz machinálnak vele, egyrészt az enhanced sync miatt, másrészt próbálják a Chill-re rákényszeríteni a felhasználókat, valószínűleg az alacsonyabb input lag miatt, de igazából csak az FRTC-t kellett volna meghagyniuk és mindenki boldog lenne. Van hogy túlgondolják a dolgokat.

    UE4 fejlesztése már vagy 2 éve Radeonokon történik. Az nv azzal volt előnyben, hogy a UE3 és 4 része volt a Physx, és emiatt "szerette" jobban a motor a VGA-ikat, de a Physx-et kidobták a motorból, és átálltak a Radeonok használatára, a lényegesen jobb fejlesztői eszköztámogatás és a konzolok miatt. Nem black boxokat akarnak beépítgetni, hanem innoválni, ahhoz pedig erre szükség van. Ennek pedig ez az eredménye: [link]

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • zolomon17

    senior tag

    Furcsa egy dolog a márkahűség...

    AMD vs Intel, Apple vs Microsoft vs Linux, ATI/AMD vs nVidia. Egy csomóan már-már vallásos hittel tartanak ki egyik vagy másik mellett. A fenti felsorolásból én az összes "csatát" végignyomtam és az évek tapasztalata nekem azt hozta, hogy soha nem lehet abszolút győztest hirdetni. Az számít, hogy

    1. mit engedhetek meg magamnak és
    2. az én egyéni felhasználói szokásaimat mi szolgálja ki a legjobban.

    Pixel 7 + Xiaomi Mi Pad 5 + ASUS ROG STRIX GL502VS

  • domos

    senior tag

    válasz Cifu #6 üzenetére

    Mi a gond az amperrel? Az én gepemben ott figyel a 3090, nem volt készlethiány :D

    If you don't do it enough, nothing's gonna really happen.

  • nexplo

    őstag

    Nagyon jó cikk. Tetszik. Én is hasonlóan volt. Annó ATI kártyáim és AMD procijaim voltak. Hozzáteszem nem is akartam brutál sok pénzt gépre ölni. Szerettem őket a nyűgükkel együtt. Tudtam kompromisszumot kötni a játékoknál, mert nem játszom sokat és nem érdekelt hogy futott e maxon a játék vagy sem :) Aztán később áttértem a másik oldalra bár a felső szegmensbe (I9 és RTX 3080-3090) és persze hogy nincs panaszom. Hozzáteszem nem vagyok egyik fan sem. Az viszont tuti hogy az ATI-nél a driverek mindig problémások voltak. Ez a másik oldalon azért sokkal jobb. 2 éve már nincs piros cuccom (VEGA 64 volt az utolsó) de pl a mai állás szerint a következő gépem már AMD proci és zöld kártya kombó lesz. A VGA még bőven elég neked de majd kiderül mit mutat az AMD csúcs fronton és mennyiért. Nem zárom ki annak lehetőségét sem hogy ott is cserélek, ez a jövő kérdése :)

    Egy megjegyzés/hiba:
    2. oldal 5.-ik bekezdés utolsó mondata: ""Relive sem képes képes azt kezelni.""
    Ezt lehetne javítani szerintem.

    Zavard össze a világot: mosolyogj hétfőn! :)

  • schwartz

    addikt

    Csak azt nem ertem miert szivattad magad 10 teljes evig? Mjad 10 evnyi szenvedes utan, logoutra kellett irni, hogy zold szirszar lesz a gepedben es majd minden varazsutesre megvaltozik...

    If he dies, he dies.

  • _kovi_

    aktív tag

    Drága barátom, én 22 évnyi VGA tulajdonlás után sem tudnám eldönteni melyik oldal a jobb...
    Néha az egyik, néha a másik, attól függően éppen melyik architechtúra hogy sikerül...

  • Tepsifüles

    tag

    válasz _kovi_ #13 üzenetére

    Tök jó a cikk, nálam viszont soha nem a márkahűség, hanem az ár/érték dominált, és ez kb 25 év távlatából mondhatom: 4-5 évente váltogatják egymást, hogy melyik a "jobb" (és ez procira is igaz, vicces, hogy procira meg AMD-re (Ryzen 3700x) váltottam 7 év Intel után (2. ill. 3. generációs i5 ről)). Jelenleg én is nvidiát használok (tavaly dec óta egy RTX 2070) de előtte kb 5 évig egy HD7970 azelőtt meg egy GTX 560 Ti -m volt, azelőtt meg egy HD 6850 azelőtt meg már nem emlékszem :D

    Sabee

  • huskydog17

    addikt

    LOGOUT blog

    "Az új generációknál is ez van?"

    Mivel az AMD a GCN1-től kezdve minden VGA generációhoz ugyanazt a drivert szállítja, így feltétezem igen.

    #8 Duck663: Ezt a kis szösszenetet augusztusban írtam meg, miután megvettem a GTX 1060-at és gondoltam megosztom a váltással járó élményeimet és a mögötte húzódó okokat. Ha te ebbe többet látsz bele, az már a te problémád. Semmi beleszólásom nem volt/nincs abba, hogy mikor lesz publikálva a cikk.

    Nálad az RX580-al megy, ez jó hír, nálam azt RX470-nel nem ment. Technikailag majdnem ugyanaz a kettő, ha jól emlékszek az RX500-as szériánál valamit machináltak az UVD órajelekkel, lehet hogy pont emiatt bírja jobban.

    Vsync nálam is tökéletesen működött azokban a játékokban, ahol be lehetett kapcsolni. Ahol nem volt ilyen beállítás, vagyis ahol driveres kényszerítés kellett, ott D3D alatt nem működött, még az Enhanced Sync sem.

    UE4 alapértelmezetten a 4.23-as verzióig PhysX-et használ, csak nem GPU-gyorsítottat.
    Amúgy nekem, mint PC játékosnak mi közöm a PS5-höz? Nem értem hogy jön ide a linkelt PS5 videó.
    Amúgy UE4 esetén annyi változott, hogy több játékban a GTX 1060-al már ki tudom maxolni a grafikát azokban a címekben, ahol az RX470-nél csak Mediumon tudtam játszható sebességet kifacsarni. Nem tudom, hogy az Epic mikor nyilatkozta, hogy kizárólag AMD kártyákon fejlesztik az UE4-et, nem emlékszem ilyen nyilatkozatra tőlük, de ha ez igaz, akkor még érdekesebb, hogy az NV kártyák a legtöbb UE4 játékban jobban teljesítenek.
    Én nem rajongok az UE4-ért, de sajnos sok játék, melyek megfordulnak nálam, arra épülnek.

    #12 schwartz: Nem szívattam magam, legalábbis nem szándékosan. :D Egyszerűen - ahogy írtam is - a korábbi igényeimet kielégítették a Radeonok, az idei évben fogyott el a türelmem. Augusztusban találtam egy jó ajánlatot egy GTX 1060-ra és gondoltam, ha csak egy kis javulás lesz itt-ott, akkor megéri, ennél rosszabb úgysem lesz. Arra nem számítottam, hogy ilyen brutál nagy lesz a különbség a felhasználói élmény szempontjából.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • Egon

    nagyúr

    10 év után? Előbb is megjöhetett volna az eszed... ;] :DDD
    Nekem elég volt cirka szűk két év a 9700 Pro-val, azóta nV (és elég nagy dolognak kellene ahhoz történnie, hogy mindez megváltozzon).

    "Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)

  • huskydog17

    addikt

    LOGOUT blog

    válasz lev258 #4 üzenetére

    Linux fronton nem tudok nyilatkozni, én kizárólag Windows-on játszom.
    Érdemes visszanézni a 2016-os DOOM méréseket OGL fronton. Finoman fogalmazva óriási volt a különbség a két oldal között, márpedig akkor az volt a legfejlettebb OGL játék a piacon. Gyakorlatilag az NV kártyák OGL hozták azt a teljesítményt, amit az AMD csak Vulkan-nal tudott.

    #11 nexplo : Köszi, a hibát javítottam! :R

    #16 Egon : Jobb későn, mint soha! :DDD Korábban teljesen más hozzáállással és felfogással használtam egy VGA-t. Akkor kihívásnak tekintettem, hogy órákon át kellett keressek megoldást a VSync beüzemeléséhez bizonyos játékokban. Ma már nem akarok ezzel pöcsölni, csak átbillentem a driverben a Vsync opciót és működik (végre). Nem egy játéknál kellett lemondjak a videókészítésről az AMD AMF SDK miatt. Ezek folyamatosan gyűltek az évek alatt, mármint a negatív tapasztalatok és augusztusban léptem.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • UnA

    Korrektor

    válasz zolomon17 #9 üzenetére

    "Furcsa egy dolog a márkahűség... AMD vs Intel, Apple vs Microsoft vs Linux, ATI/AMD vs nVidia."

    Ebből talán kilóg a Linux, mert az nem marketing alapú brand. De persze ez OFF volt :)

  • Fred23

    nagyúr

    válasz zolomon17 #9 üzenetére

    Így vagyok én is, egy márka felé se alakítok ki fanatikus rajongást, keresem a számomra éppen legjobbat -szuper ár-érték aránnyal-, a lehető legkevesebb problémával.

    Szerk.: és majd' minden főbb márkától van valami kedves emlék is. :D

    [ Szerkesztve ]

  • Én használtam mindent vegyesen, volt egyformán hardveresen szar kártyám mindkét oldalról. Szoftverből is volt szívásom szintén mindegyikkel. Nagyjából egyformán bár Atiból jellemzően több szívás volt.
    Tseng valami, nem emlékszem nem volt vele gond
    S3 trio 2mb-ra bővítve ezzel sem volt gond
    Inno voodoo2 - ezzel sosem volt semmi gondom
    Nem tudom milyen 3dfx voodoo3 3000 referencia - ezzel sem volt gond
    Inno Gforce2 Mx400 - szemetes ram, szar képminőség cserélték
    Manli Gforce2 Mx400- szar képminőség
    Abit Ti4200-8x OTES verzió, a hangját leszámítva jó volt.
    Leadtek 6800GT AGP - ram megdöglött bár oc miatt valószínű
    Leadtek 6800 ultra PCIe (vagy agp volt?) -sokáig megvolt, bacsis-nak adtam el talán?
    Inno 8800GT - nemref verzió, szar minőségű kártya, ramokra nem ért rá a borda, kapott zalman hűtőt de mégis megdöglött
    Sapphire HD4850 - szar minőségű egyslotos kártya, gyárilag throtlingolt, megdöglött
    Sapphire HD6950 - aránylag jó kártya, bár hűtést cseréltem nagyobbra úgy halk volt.
    Dell 17" precision Notebookban HD5870M (azaz annak firepro verizója) - átbaszás mert csak egy 5770-es volt nagyobb rammal, ennek ellenére el lehetett vele lenni.
    Asus Notebookban GTX960M - átbaszás mert csak egy 750ti nagyobb rammal, most ezt van a napi használatú ROG notimban, aránylag halk és hozza a szintjét azaz 750ti szintet.
    Sapphire HD7970 6gb gigahz edition - még megvan tartaléknak, jó kártya
    Sapphire R9 380 4gb nitro . szoftveresen rakás szar volt a kezdetekben, kékhalálgyár, akkor úgy éreztem hogy nem tudnak drivert írni, de maga a kártya rendben volt.
    Gigabyte 750Ti black edition - maga a kártya jó volt, csak alig ment különböző lapokban, kompatibilitás 0.
    Gigabyte 1070 sima - 3 ventis batár hűtésű, ezzel nem volt gond.
    Asus Cerberus 1070ti - jó hűtése van, halk...lenne ha nem ciceregne terhelés alatt bár ez konstrukciós hiba és javítható, most ezt használom.
    Zotac P106-90 érdekes bányászkártya (GTX1060 3gb), jó ár/teljesítmény arannyal de hála nvidiának rohadt nehéz beállítani játékra, linux alatt meg tökéletes ilyen célra is.

    Driverek terén még a 2000-es évek elején COD1, Quake3 stb korszakban egyértelműen lassabbak voltak az ATI kártyák opengl alatt. Driverekből annyi maradt meg akkoriban havernál hogy VPU recovery visszaállítás :DDD gondolom ezzel elmondtam mindent. Meg amint említettem az R9 380-asnál szarok voltak kezdetben a driverek. Nvidia terén ennyire durva dolgok nálam nem voltak viszont azt érdemes megemlíteni hogy a bányászkártyák használatát jelentősen megnehezítették játékra, nekem az negatívum valamint az SLI körüli totális káosz hogy mivel működik mivel nem. CF esetén csak berakom a gépbe a két kártyát és megy, SLI-nél meg alaplapi támogatás kell és abból sem mindegy milyen (quadro SLI nem ugyan az a támogatás mint a Geforce SLI)
    Összegezve nálam Atinál valamivel több volt a drivergond de idővel javították, hardveresen kb egyformán volt midnél ilyen olyan hiba bár sokszor az olcsóbb márkákat vettem gondolom gyengébb minőségűek is voltak közöttük.
    Mindkét gyártónál rohadt nagy fekete pont a notebookokba szánt gpu-k közötti átnevezősdi vagy inkább átverősdi. (bár asztaliba is szokás de nem ilyen módon)

    [ Szerkesztve ]

  • Duck663

    őstag

    válasz huskydog17 #15 üzenetére

    Ha valaminek a megjelenése előtt ilyen történik, akkor a szándékosság mindig felmerül.

    Nem tudom a Polaris 10 és 20 között történt-e bármiféle ilyen jellegű fejlesztés. Amit találtam tranzisztorszámra vonatkozó információkat, azok alapján a két GPU megegyező, de persze ez ettől még nem biztos, hogy így is van. Az RV770 és RV790 között is mindössze 3 millió tranzisztor volt a különbség.

    A vsync driverből kényszerítve szintén működik (amiken próbáltam). Enhanced sync is működik, csak ne akard chillel együtt használni, mert akkor képtöréseket okoz.

    A videó úgy jön ide, hogy igaz, hogy a prezentáció PS5-ön történt, de a technológia PC-n is elérhető lesz! Csupán ennyi a közöd, ez a fejlődés iránya, ahhoz hogy ezt elérjük egy PC-n vagy konzolon, nem lehet black boxokkal bohóckodni.

    A Physx problémáját pont a rettenetesen rosszul (szándékosan rosszul) megírt CPU-s rész okozza. Volt erről korábban egy cikk, ahol ezt elemezték, talán egy német oldalon, már nem emlékszem. Egyébként elég megnézni még az Ageia szoftverét és a későbbi nv szoftverét, töredékére esett a tempó a CPU fizika használatával. Kicsit kutakodtam, Frontline: Fuel of War, egy nem túl sikeres Unreales játék amelyhez még az nv előtti időkből is elérhető volt (talán még fellelhető) meghajtó, érdemes megnézni azzal és az nv féle "optimalizációval" kb negyedelődik a tempó, plusz akadás mindenfelé! Ennek annyira nem kellene tapsikolni, hú de hogy teljesít, de vajon miért is?

    Nem arról van szó, hogy kizárólag Radeonokon történik a fejlesztés, de az elsődleges fejlesztői platform Radenokokra épül. Ennek nem annyira most, hanem majd a UE5-ös játékoknál lesz komoly eredménye. A fejlesztések nem két nap alatt történnek, évek munkája.

    [ Szerkesztve ]

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • kenwood

    veterán

    válasz Duck663 #8 üzenetére

    RX 460 gond nelkul viszi a 4k 60 hz-et.
    Ha mar a 1440 is droppolt, akkor ott valami mas volt a hiba,nem az,hogy a Polaris alkalmatlan ra.

    Mi kell az alaplapba? Procibol egy, Rambo 2. <> Egyetlen vizmolekulaban tobb hidrogen atom van,mint ahany csillag az egesz naprendszerben

  • zolomon17

    senior tag

    válasz UnA #18 üzenetére

    Nálam az analógia ott van, amikor az adott hívő azt mondja, hogy "próbáld ki, többet nem akarsz majd a konkurenciától semmit!" A Linux mögött valóban nem áll kb. egy gramm marketing se, de aki fanatikus híve az reklám nélkül is ugyan úgy fogja tolni ezt a mantrát, mint az OSX vagy a Win vérpistike.

    Verdikt: ne legyen senki vérpistike, mert marhaság :)

    [ Szerkesztve ]

    Pixel 7 + Xiaomi Mi Pad 5 + ASUS ROG STRIX GL502VS

  • zolomon17

    senior tag

    válasz Fred23 #19 üzenetére

    ASUS ROG Strix laptopom: Intel (i7 7700HQ) + nVidia (GTX1070)
    Asztali: AMD (FX8350 helyett most költözött be egy Ryzen 5 3600X) + nVidia (RTX2070 Super, előtte GTX1060, előtte R9 290, előtte HD7850, még előtte 8800GT)

    Mikor mire volt pénz és mi volt elég az adott játékokhoz :K

    Pixel 7 + Xiaomi Mi Pad 5 + ASUS ROG STRIX GL502VS

  • DraXoN

    addikt

    LOGOUT blog

    én v-sync helyett a "chill" funkciót használom képkocka rögzítésre, teljesen jó (sose volt bajom vele).. mondjuk v-sync-el se volt eddig bajom ha azt is próbáltam RX470-en (de mint írtam, nem utóbbit használom többnyire, így észre se vehetem ha baj van vele).

    A video encoder valóban kicsit fejletlen lett polarisban már amikor megjelent, a vega meg egy az egyben ezt örökölte meg minden fejlesztés nélkül, csak a navik kaptak új verziót (és a vega APU-k).. hiába, egy erősen forráshiányos időszakban született a termék.

    [ Szerkesztve ]

    The human head cannot turn 360 degrees... || Ryzen 7 5700X; RX580 8G; 64GB; 2TB + 240GB + 2TB || Samsung Galaxy Z Flip 5

  • huskydog17

    addikt

    LOGOUT blog

    válasz Duck663 #21 üzenetére

    Chill-t egyszer próbáltam meg, az eredmény borzalmasan rossz volt, elméletben lehet, hogy jó cucc, de Vsync helyettesítésére alkalmatlan. Hiába állítottam be 60 fps-t, olyan ronda framedroppok voltak, hogy kapcsoltam is ki azonnal.

    "A videó úgy jön ide, hogy igaz, hogy a prezentáció PS5-ön történt, de a technológia PC-n is elérhető lesz! Csupán ennyi a közöd, ez a fejlődés iránya, ahhoz hogy ezt elérjük egy PC-n vagy konzolon, nem lehet black boxokkal bohóckodni."

    Meg se merem tippelni hányszor láttam ilyen és ehhez hasonló jóslatokat. Én csak azt hiszem el ami már megtörtént, a black box kifejezés pedig nem tudom honnan ered, gondolom talán valamelyik AMD által szponzorált dev említette egyszer valamikor valahol. A PS5 az összes többi konzollal egyetemben teljesen irreleváns téma a cikk témáját figyelembe véve.

    "Kicsit kutakodtam, Frontline: Fuel of War, egy nem túl sikeres Unreales játék amelyhez még az nv előtti időkből is elérhető volt (talán még fellelhető) meghajtó, érdemes megnézni azzal és az nv féle "optimalizációval" kb negyedelődik a tempó, plusz akadás mindenfelé! Ennek annyira nem kellene tapsikolni, hú de hogy teljesít, de vajon miért is?"

    Belinkelnéd légyszi a forrást? Érdekelnének a pontos teljesítmény adatok. A játékra rákeresve én csak annyit találtam, hogy néhány usernél nem akar alapból elindulni a játék, nekik csak annyi a dolguk, hogy feltelepítik a NVIDIA PhysX Legacy System Software és műxik.
    Amúgy vicces, hogy egy 2008-as címmel jössz, ami 2.x-es PhysX-et használ, azóta az SDK óriásit fejlődött és gyorsult. Tisztán CPU alapon a 3.3-ről 3.4-re történő átállás az Exor-nak 2-3× gyorsulást hozott teljesítményben, a 3.3 pedig már alapból nagyságrendekkel gyorsabb, mint a 2.x verziók. Vess egy pillantást az X-Morph játékra, itt a fizika nem csak esztétikai szempontból veszettül jól néz ki, de közvetlen kihatással van a játékmenetre, továbbá teljesen CPU alapon megy úgy, hogy egy régebbi 4 magoson is gond nélkül megy, vagyis nagyon baráti gépigénye van. Nem sok játékot ismerek, még a maiak közül se, ahol ilyen fizika van, ráadásul ami kihat a játékmenetre is. A videóban CPU PhysX látható, szerintem ez pont, hogy példaértékű alkotás fizikai szimuláció szempontjából.
    Szóval lehet nézni szélsőségesen negatív példát, de lehet a másik oldalról is, érdemes mindkét végletet figyelembe venni.

    Bár eléggé elkanyarodtunk a cikk témájától, nem is értem hogy jött be a PhysX a képbe, de ha már szóba hoztad, volt néhány játék, ahol RX470 alatt összeomlott a sebesség, amikor a GPU alapú fizikát bekapcsoltam, majd egyszer megnézem hogy megy 1060-on, ha már CUDA-ra lett írva.

    "A vsync driverből kényszerítve szintén működik (amiken próbáltam). Enhanced sync is működik, csak ne akard chillel együtt használni, mert akkor képtöréseket okoz."

    Meg tudnád mondani, hogy pontosan mely címekben próbáltad? Bár most már úgysem tudom letesztelni, mert az RX470 már nincs nálam 3 hónapja, de hátha augusztusban én is néztem azokat, ki tudja.

    #25 DraXoN : Nálam a Chill borzalmasan rosszul működött, amikor belőttem 60 fps-re, össze vissza akadt a játék. Kényszerített Vsync-el nem volt ilyen gond.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • DraXoN

    addikt

    LOGOUT blog

    válasz huskydog17 #26 üzenetére

    Anno mikor megjelent ez a chill mód voltak anomáliák, de egy 2-3 éve biztosan nincs bajom vele.
    ráadásul nem "fixálva" 60-ra állítom hanem 40-60 tartományba.. 60Hz free sync nélküli a monitorom jelenleg (egy pár éve, úgy január közepéig, aztán átveszem egy ismerősöm 3840x1080 144Hz monitorát ... megölöm vele majd az RX470-et, kiszívja majd a "lelkét" :DDD ).

    The human head cannot turn 360 degrees... || Ryzen 7 5700X; RX580 8G; 64GB; 2TB + 240GB + 2TB || Samsung Galaxy Z Flip 5

  • GhostRider93

    tag

    válasz huskydog17 #26 üzenetére

    Chill-t én is egyszer próbáltam ki (RX5700XT) és igázából nem vettem észre különösebb változást azon kívül hogy 50W-al kevesebbet evett. Anti-lag mellett warzone-ban 130-150fps között mozgott(144-es monitorhoz állítottam be a grafikát 1440p-n). Kikapcsolt V-sinc mellett , aktív anti-lag-al hozza a leszebb játékélményt és nincs free-sync (sajnos) .

    A cikkhez szólva megnéztem egy 8K60 videót youtube-on(Chrome) és VLC-ben (Peru 8K HDR-a videó neve) de nem láttam hogy eldobná a fremeket és közben elvolt a kártya 15W pluszminusz 2W-ból. 20.10.1-es driver de régebben sem figyeltem ilyenre. Valamikor régen volt egy 8800GT-m mikor megjelent de utána mikor tönkrement sokáig nem voltam olyan helyzetben hogy összerakhassak egy gépet. Tavaj sikerült de kiesett egy elég hosszú időszak amikor csak az interneten követtem a változásokat de tapasztalni nem tapasztaltam mivel egy 320M-es i3-al kellett beérnem amit késöbb egy kőkemény 540M-re cseréletm ki. :B mai napig megy :D 10+ éves már de karbantartom a lapost :)

    [ Szerkesztve ]

    R5 2600@4Ghz 80W , B450M Pro4, DDR4 16GB 3200MHz cl14 B-die, Hellhound 6700XT 12GB

  • huskydog17

    addikt

    LOGOUT blog

    válasz DraXoN #27 üzenetére

    A 40-60 tartományt én azért nem akartam használni, mert én fix 60 fps-t szeretnék, nem akarom, hogy a Chill 40 fps-re lefékezze a sebességet, amikor a kártya 60-at is tudna. A fix 60 fps-hez a Chill nálam alkalmatlan volt.

    #28 GhostRider93: "A cikkhez szólva megnéztem egy 8K60 videót youtube-on(Chrome) és VLC-ben (Peru 8K HDR-a videó neve) de nem láttam hogy eldobná a fremeket és közben elvolt a kártya 15W pluszminusz 2W-ból."

    Valószínűleg akkor a CPU-d is keményen számolt a GPU mellett, ugyanis a Navi nem tud VP9-et gyorsítani 8K felbontáson.
    Az egyetlen GPU-család, ami képes 8K60fps videót dekódolni, az az Ampere, ami AV1 alatt képes erre, a többi kodek esetén 30 fps-t tud dekódolni 8K felbontáson. Navi 4K felbontásig támogatja a VP9-et és a HEVC-et, míg az AVC-t képes 8K-ban gyorsítani max 30 fps-ig.
    Amúgy attól, hogy nem láttad, könnyen lehet, hogy dobálta a frameket, ezt leellenőrizheted a Statisztikák menüpontban. Amúgy az általad említett videóban nem is érhető el 8K felbontás, 4K a legmagasabb, az pedig a Navi-nak nem probléma, legalábbis feltételezem, hogy erre a videóra gondoltál, itt 2160p60 a maximum, azaz 4K.
    Ez például egy valódi 8K videó, erre rá is néztem. Annak ellenére, hogy a GTX1060 ezt nem tudja gyorsítani (nem teljesen), a videóban nem volt eldobott frame, mivel a CPU is alaposan dolgozott, mert a GPU dekódere nem bírta egyedül. Bár a 0 eldobott frame ellenére egyértelműen látszott, hogy nem folyamatos a kameramozgás, de az is csoda egy Pascal VGA-tól, hogy nézhetően viszi a 8K videókat. :) Sajnos ebből a szempontból a YT Statisztikák menüpont nem teljesen megbízható.

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • qad

    senior tag

    A leírás 60-70%-ban lefedi a nálam előfordult rossz élményeket és pár év szívást az Amd kártyákkal. Az lett az eredménye hogy 5-6 év szívás után a 2900 XT és a Hd 4830 után tértem vissza az nv-re és ezek után esélyt sem adok többet az amd videokártyáknak. Nv-vel egyszer volt gondom kevés ideig, amikor az nv driver és a google chrome nem bírta egymást és párszor fekete kép lett a végeredmény. Bár ezt a hibát is ketten hozták össze és azóta 2 különböző böngészőt használok, ezt az egy hibát leszámítva, más gondom nem volt az nv-vel. Üdv a klubban.

  • Geri Bátyó

    őstag

    válasz huskydog17 #29 üzenetére

    A vicc kedvéért én is ránéztem a 4K videókra. A VP9 időnként nálam is akad és 50% körüli a prociterhelés, ami nem is meglepő, mert hogy nálam nincs GPU gyorsítás, az tuti. A VP8, a H264 és a H265 viszont simán megy 15-20% körüli prociterhelés mellett. A vicc az egészben, hogy jelenleg kényszermegoldásként egy HD6450 van a gépben.

    "Ki a büdös istennyila vagy te bohócképű!?" SzŐr Geri, birodalmi poéta és főszakács (:L topic)

  • bossbob

    csendes tag

    Egyetértek azokkal a korábbi hozzászólókkal, akik nem márkahűségre, hanem tudatos, büzsdé és igény szerinti vásárlási döntést javasolnak.

    Én főként AMD/ATI kártyákkal játszottam az elmúlt 20 évben. Legutolsó nVidia kártyám egy 8600GTS volt még 2007-2010 között ami meg sajnos ledobta magáról a GPU-t, ugyanis az a szériánál rossz forrasztási anyagokat használtak, ha jól emlékszem...

    Jelenleg egyébként van nVidia és AMD kártyám is mivel laptopban egy MX150 ketyeg asztaliban pedig egy Sapphire RX480-as. Mindkettő remekül teszi a dolgát, windows és linux alatt is.

    Érdekesek a problámék amiket leírtál, vsync-el nekem sosem volt bajom. Szerintem az utóbbi 2-3 éveben a Radeon Sofware ugyan csak sokat javult, igaz volt honnan. Driverben az nVidia mindig jobb volt.

    Nálam a Radeon Chill bevevállt vsync helyettesítésére. Mivel a monitorom 1440p-ben 45 és 75 Herz között képes freesyncre, így erre lőttem be azt. Szerencsére nekem nincs vele problémám.

    OpenGL valóban maradni fog még jó ideig. Ha jól tudom a fejlesztők nem szeretik mert jól kell ismerni, ha jól futó játékot akar írni rá az meber. Egyébként a DOOM-ot és az új Wolfenstein-t miért OpenGL-en játszottad? :Y Ezek a játékok híresek arról hogy nagyon jó a Vulkan implementációjuk. Az RX480-asomon Vulkánnal fantasztikusan futnak windos-on és linuxon is Vulkan API-val, halál stabil 60 fps 1440p-n, pedig nincs egy csúcs gépem: i5-4690+Rx480.

    [ Szerkesztve ]

    A magyarok postájától ments meg uram minket! (MPL kivétel ezalól, mivel az külön entitást képez)

  • GhostRider93

    tag

    válasz huskydog17 #29 üzenetére

    Valóban 4k ezt elnéztem. A proci terhelést nem figyeltem de megnézem majd újból plusz a statisztikák menüben is figyelek. 6 mag dolgozik 12 szálon 4ghz-en így gondolom ha a CPU számolta nem okozott neki gondot (R5 2600) és a videó folyamatos volt (szemre) döccenés nélkül ment végig. A "filmezős" gépen (R3 1200 4ghz, +rx570) VLC ben szépen megy a 4k HEVC film de ott gondolom csak a CPU számol. Azt is megnézem majd milyen terhelés alatt vannak a komponensek. ( A félreértések végett azt a gépet csak azért raktam össze hogy megnézzem van e még kedvem a pc géminghez és csak fél évvel később raktam össze a nagyot mikor rájöttem még nem ment el a kedvem a nagy kihagyás után és rászántam magam egy nagyobb gép építésére ami már jóval drágább)

    R5 2600@4Ghz 80W , B450M Pro4, DDR4 16GB 3200MHz cl14 B-die, Hellhound 6700XT 12GB

  • zooliii

    tag

    Sajnálom, hogy ennyire megjártad a Radeonokkal. :(
    Én amúgy pont az ellenkezőjét tapasztalom, kb. egy éve váltottam 1050Ti-ról RX 580-ra, hát ég és föld a különbség utóbbi javára. Egyedül a zajszint, meg nyilván a fogyasztás az, ami romlott, de ezzel még együtt tudok élni.

    [ Szerkesztve ]

  • huskydog17

    addikt

    LOGOUT blog

    válasz bossbob #32 üzenetére

    "Egyébként a DOOM-ot és az új Wolfenstein-t miért OpenGL-en játszottad?"

    Vulkan-nal toltam a Doom 4-et, a Wolfenstein New Colossus-ban pedig kizárólag Vulkan van.
    Amúgy igen, RX470 a Doom 4-et Ultra-n viszi Vulkan API alatt.

    #33 GhostRider93: "A "filmezős" gépen (R3 1200 4ghz, +rx570) VLC ben szépen megy a 4k HEVC film de ott gondolom csak a CPU számol."

    Nem tudom a VLC alapértelmezetten (gyári beállításokkal) bekapcsolja-e a DXVA-t, bár gondolom igen, mert értelmetlen és logikátlan lenne nem azt használni. Szóval az RX570 gond nélkül tudja gyorsítani a 4K HEVC videókat DXVA mellett, nálam se volt gond e téren az RX470 is gond nélkül gyorsította DXVA-ban a 4K AVC és HEVC videókat. A YT viszont VP9-et használ, ami a Polaris-nak már problémát jelent (de még a Vega-nak is).
    Szóval amíg DXVA mellett nézel 4K HEVC videókat, a CPU-dnak nem kell csinálnia semmit.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • #89309696

    törölt tag

    válasz zolomon17 #9 üzenetére

    Na igen, a tudatos vásárló a neki és pénztárcájának megfelelő keresztmetszetben választja adott terméket, ott is szelektálva. A probléma, hogy a legtöbb tudatos vásárló is emberből van és érzelmei vannak amiket nem tud kizárni. Én is sok felesleges, nem legmegfelelőbb dolgot vettem már meg, csak mert az érzelmek vezéreltek. Viszont boldog voltam vele, mert azt vettem ami tetszett. Talán ez lenne a boldogság felára pénzben mérve.

  • GhostRider93

    tag

    válasz huskydog17 #29 üzenetére

    Megnéztem . 8K youtube félelmetesen élvezhetetlen :DDD .CPU nem kódolt semmit(max a netet) de a GPU video encode 100%-on. 4K alatt már hasonló volt az előzőhöz: GPU video encode 40-50%-on( fogy.=15-16W) ,CPU terhelés csak az adatforgalom miatt nött meg pár %-al ,frame droppok nem voltak. 20.11.1 a driver(frissítetem azóta)

    Letöltöttem(8K) de csak WEBM-ben sikerült(VP9 talán) és a VLC le sem játszotta de a gyári win10 lejátszó már igen, számomra nem volt élvezhető mert folyamatosan eldobta minden másodpercben majdnem 2x (szabályos időközönként) átlag embernek még nagyon talán élvezhető de össze sem lehet hasonlátani a böngészőben való lejátszással .GPU 90-100% on (video encode) de csak max 30W-ot fogyasztott. Nem értem a böngészőben(Chrome) miért nem megy úgyan úgy, ha valaki tudja majd írja le :) .

    Ebben a kategóriában Nvidia sokkal jobb (8K). 6000-es sorozatban elvileg jobb a video encode de ezt látva bőven ráfért a redeonokra. Szerencsére mire lesz 8K megjelenítő itthon(ha lesz egyáltalán) addigra már rég nem ez a gép lesz.

    "filmezős" gép most foglalt :)

    [ Szerkesztve ]

    R5 2600@4Ghz 80W , B450M Pro4, DDR4 16GB 3200MHz cl14 B-die, Hellhound 6700XT 12GB

  • bozont

    veterán

    válasz huskydog17 #35 üzenetére

    Nekem szépen ment a YT 1440p60 és 4k60 az RX480 mellett, persze lehet az i5 4690k tolta ki izomból, ezt nem néztem. A felvételre nem emlékszem, lehet kipróbáltam, viszont a YT képes feldolgozni a HEVC-t is (ezt már Vega56-tal próbáltam).

  • kenwood

    veterán

    válasz bozont #38 üzenetére

    A 4690k a 30 hz 4kval meg ugy ahogy elbir,de a 60 total eselytelen neki.

    Mi kell az alaplapba? Procibol egy, Rambo 2. <> Egyetlen vizmolekulaban tobb hidrogen atom van,mint ahany csillag az egesz naprendszerben

  • GhostRider93

    tag

    válasz GhostRider93 #37 üzenetére

    4K-ban [kép] 8K-ban meg a frame droppok és ugy 2/3-ad arányban voltak vagyis csak 1/3-ad jelent meg :DD :W

    R5 2600@4Ghz 80W , B450M Pro4, DDR4 16GB 3200MHz cl14 B-die, Hellhound 6700XT 12GB

  • bozont

    veterán

    válasz kenwood #39 üzenetére

    Akkor mégis gyorsít valamit az RX480. De azért nem olyan gyenge az az i5, főleg hogy 4,5GHz-en használtam.

  • b.

    félisten

    Jó írás volt, lejött belőle a fórumokon a hozzászólásaidból észrevehető következetesség és realis gondolkodás.
    Egyéni preferenciát kell nézni, ez a legjobb döntés.
    Nekem a mai napig fent van az Enemy Territory a gépemen. Ha azt egy VGA nem indítja el akkor megy a háztól :DDD :)
    Az 5700 azzal is küzdött.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • huskydog17

    addikt

    LOGOUT blog

    válasz bozont #38 üzenetére

    A két említett felbontásban már a CPU segített nálad is, igen. Már az 1440p-nél is 30-40%-on tekert nálam a 3470-es i5.
    Ezer köszi az infót a HEVC témában, most kipróbáltam egy rövid felvétellel és valóban elfogadta a HEVC kodekes MP4-et! Végre YT, végre! :R
    A cikkben javítottam az érintett részt.

    #42 b.: Számomra a Wolfenstein New Order az egyik legjobb FPS, leírhatatlan milyen különbség volt RX470 és GTX 1060 között. Életemben először tudtam végigjátszani a játékot max grafikán 60 fps-en, mert az RX470 még minimumon is vért izzadt a 30-40 fps-hez.
    A multimédia motor meg kb. csak 6× gyorsabb. :D
    Navi küzdött az Enemy Territory-val? Atyagatya, pedig az a játék id tech4-et használ, ahol az AMD kártyák viszonylag jól teljesítenek.
    Bár mondjuk a Polaris is utálta a Quake 2-t az XP mod-dal, felvétel mellett már az id tech2 is sok volt neki. :DDD

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • b.

    félisten

    válasz huskydog17 #43 üzenetére

    Igen sajnos. van benne egy / több map pl Würzburg radar, ahol esik az eső. Általában a játékosok nagy része parancsorban kikapcsolja ezt az effektet.
    Az RX nél bent marad sehogy nem tudod kiktatni. Gyakorlatilag kikapcsolódik, de hosszú színes pixel csíkokformájában esik tovább. A távol objektumokat pedig villódzva rakta ki stroboszkóp szerűen. Persze érthető, hogy már nem támogatnak egy 15 éves játékot, de pl a 2070 hibátlanul futtatja most is.Lehet éppen szerencse nem tudom. :N

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Redneck

    veterán

    Sok kártyához volt szerencsém mióta 2009 óta újra PC-zek, vannak jobb és rosszabb szériák mindkét oldalon. AMD kártyákkal mondjuk többet szívtam, bár ezek jellemzően bosszantó, szoftveres dolgok voltak. A hardveres hibák többnyire elkerültek, de az ismerősi körben voltak azért cifra dolgok, megdöglő kártyák. Az tetszik a vöröseknél, hogy folyamatosan dolgoznak, fejlesztenek, és a driverükön is látszik, hogy vannak jó ötleteik. Nem bánnám ha a fapados kinézetű nV drivert is kicsit kipofoznák, legalább lehetne egy választható, modernebb dizájn a régi mellett.

    Amit nem értek a cikkben az a "fix 60 fps" mantrázása v-sync mellett. Rengeteg játékot lehetetlen smooth 60 fps-sel futtatni, hiába rak alá az ember erősebb hardvert. A frametime ingadozás miatt, olyan szépen tudnak röcögni, hogy az embernek elmegy az életkedve is. Kis trükkökkel, ezek kiküszöbölhetőek vagy legalább minimalizálhatók. Inkább nézek 48-58 közé fixált fps-t, mint akadó "fix 60"-at.
    "Egyrészt nekem ilyen nincs és nem is akarok mostanában új monitort venni, emiatt meg főleg nem, másrészt azzal se akarok szórakozni, hogy a játék sebességét nagyjából a Freesync működési tartományába lőjem be, ehhez se időm, se kedvem, se energiám. Bekapcsolom a Vsync-et és menjen fix 60-nal ozt csókolom."

    Természetesen értem hogy nem akarsz másik monitort, de azt nem értem hogy bekapcsolt v-synctől mitől lesz fix 60 fps-ed? 60-as limited lesz 60Hz-en, ami beeső frameratenél nem lesz 60. Tudom sorolni a címeket ahol 1080p felbontáson, nem képes állandó minimum 60 fps-re egy 1060, jó sok van.
    Adaptív szinkronos monitornál egyébként nem kell bűvészkedni. Beállítod az adott képfrissítéshez az fps limitet, és mehet a driveres vertikális szinkron mellé. Motortól függően fast vagy sima.

    A New Order amúgy nem rossz kis retro rövölde, de a 60 fps lock miatt, gyorsabb monitorokon, csak mókolással és megkötésekkel lehet játszani, amiért nagy kár, ezért hamar abba is hagytam. Az a játék kívánta hogy legalább 100-120Hz-en menjen az akció.

    A videófelvevő részéről nem tudok sokat. A ShadowPlayt használtam, de fix 60 fps-re képtelen címeknél, szépen megakadó videók készültek vele, felbontástól függetlenül. Kevésbé elcseszett motoroknál, nem volt gond vele, nem voltak akadások..

    Play Hard GO pr0! - A bugfix, a hiba véglegesítése a programban. http://steamcommunity.com/id/redneck026/

  • Redneck

    veterán

    válasz Redneck #45 üzenetére

    Elnézést, a vastag betűs résznél, rosszul fogalmaztam! Az említett elcseszett címeket, v-sync mellett lehetetlen mindig 60 fps-sel futtatni, pár megugró frametime miatt.

    Play Hard GO pr0! - A bugfix, a hiba véglegesítése a programban. http://steamcommunity.com/id/redneck026/

  • huskydog17

    addikt

    LOGOUT blog

    válasz Redneck #45 üzenetére

    Nyilván ha egy olyan játékot raksz a 1060-as alá, amihez az kevés, nem fogja tudni tartani a fix 60-at. Ha viszont olyan játékot játszol rajta, ahol a minimum FPS is 60 felett van, akkor végig stabil smooth 60 fps lesz a játékban. Szerencsére én rengeteg, a pontosabban a legtöbb játékot így játszom. Ez azt is jelenti értelemszerűen, hogy nem foglalkozok a legújabb AAA címekkel, mindig több éves lemaradással követem őket.
    Mindig vannak olyan játékok is, melyek nagyon elb*szott grafikus motort használnak, aminél nem létezik olyan PC, ami bírná a 60 fps-t, ilyen elcseszett motor például az X-Ray Engine, Cryengine 2.
    Különbözőek vagyunk, én jobban elviselem, ha fix 60-nál néha beröccen, mintha 40-50 fps-el menne. Igen 60 Hz-es monitorom van, ami se Freesync-et, de G-Sync-et nem ismeri, így marad a hagyományos fix 60 fps, ami számomra tökéletes.
    A túl erős frametime ingadozás legtöbb esetben a túl gyenge CPU számlájára írható.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • Chaser

    titán

    válasz huskydog17 #47 üzenetére

    ezzel én is így vagyok, fix 60 az már gyóóóóóó', de legyen is 60
    annyi a titok, hogy olyan vga kell ami legalább 75 átlagot hoz, de az se baj ha 90-et, és akkor min értékek is rendben vannak - ha a cpu részéről is rendben annak -
    nálam viszont nem volt gond vsync és amd kombóval, chill az katasztrófa volt, illetve freesync monitorral nem éreztem olyan folytonosságot, mint a 60hz-es monitor-vsync kombóval
    most nv-vel sincs semmi gond
    lehet a monitorodat nem szerette vmiért

    _tejesen'® joálapotpan'™_-_Hamarosan a hiányból is hiány lesz...by Samus

  • Redneck

    veterán

    válasz huskydog17 #47 üzenetére

    "A túl erős frametime ingadozás legtöbb esetben a túl gyenge CPU számlájára írható."
    Alapvetően nem vitatom, de vannak motorok amik a CPU erejétől függetlenül képesek frametime ingadozásra, bármit pakolsz alájuk. A Ubisoftnak sok ilyen címe van, gondolom a régi, toldozott-foltozott motor a hiba oka. A Crew első részét, kipróbáltam erősen high end vason is, és képtelen volt akadás nélkül futni vertikális szinkronnal, pedig a hardver csak malmozott.

    Ha TV-n (adaptív szinkron nélkül) játszom, inkább fixálok 1-2 fps-sel a freki alá v-sync mellett, mert nem bírom nézni amikor a folyamatos játék meg-meg akad. Akkor inkább menjen kicsit kevesebb fps-sel, de ne akadjon meg. Kontrollerrel egyáltalán nem gáz, és nincs nagy input lag sem.

    [ Szerkesztve ]

    Play Hard GO pr0! - A bugfix, a hiba véglegesítése a programban. http://steamcommunity.com/id/redneck026/

  • b.

    félisten

    válasz Redneck #49 üzenetére

    BF dx 12 kódja is ilyen sajnos.

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

Új hozzászólás Aktív témák