Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz b. #50 üzenetére

    Pont azzal van a gond, hogy a hardveres nyomkövetés egy hardverben létező funkcióra épít, egy extra információra, ami a számításokhoz tartozik. Ezt tudja követni a profilozó, de ha hiányzik a nyomkövetést biztosító funkció a hardverből, akkor ugye követhetetlen, hogy hajszálpontosan mi történik a hardveren belül. Ezt igazából csak az AMD tudja megoldani így, mert ez a fajta ellenőrzés a Microsoft és a Sony igénye volt, csak visszamentették a PC-s GPU-ikba.
    Ezzel azért nem foglalkozik az NV, mert eleve szükséged van a hardver részletes dokumentációjára, hogy értsd a működését, és mivel ezt eleve nem teszik nyilvánossá, egy nyomkövető funkciót is felesleges a GeForce-okba, a dokumentáció nélkül ez sem segítene.

    Az Intel egyébként dolgozik hasonlón, tehát az realitás, hogy 3-4 éves távon belül az AMD-t néhol kiváltja az Intel. De eleinte azért nem, mert az AMD-nek kész toolsetje van ezekre, míg az Intel friss versenyző lenne, vagyis sok munkát kell ölni a toolsetbe is.

    Nagy gond egyébként abból nincs, hogy az AMD-vel dolgozzák ki a motort. Ez a hibák felkeresését és javítását szolgálja. Onnan már ellenőrizhető, hogy a hibára adott megoldás mennyire jól működik GeForce-on, ha nem eléggé, akkor az tovább optimalizálható. De ha ezt nem ellenőrzik, akkor nyilván lehetnek olyan limitek, amelyekre nem figyeltek fel a fejlesztés során, vagy felfigyeltek, de nem tartották azokat problémának.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • .mf

    veterán

    válasz drotsztyuart #41 üzenetére

    Nem átaludtam, csak már nem nagyon játszok, ha igen, azok is régebbiek - a legújabb 2015-ös. Láttam, hogy elszabadultak az utóbbi két VGA-generációval az árak - ezért is tettem le a már elég időszerű gépcseréről. Azt is mondták már, hogy még az RX480-am is limitálja már a 750, még ha oc is van rajta; de fHD 60 Hz-es monitorhoz ez még elég, és az eye candy effektekből is lejjebb lehet venni.

    De ettől még a többi áll: ha most lenne egy anno derekas középkategóriás Ryzen 2600-as gépem a 480-nal, előbb próbálnám meg csak egy újabb középkategóriás VGA-ra cseréléssel megúszni, minthogy egy teljes gépcsere legyen (amiből már csak jóval gyengébb VGA-ra futná), csak mert egyesek szerint a 2600 már nem hajcsa ki, mert ugyanaz a kártya az 5900-zal fHD-ban 75 helyett 90 fps lenne (amiből a monitor úgyis csak 60-at rajzol ki).

    Fotóim és kalandjaim a világ körül: https://www.facebook.com/fmartinphoto/

  • Duck663

    őstag

    válasz Abu85 #49 üzenetére

    Abu, nem is érdekli őket, hogy a mélyebb hibákat felderítsék! Nézd már meg mennyire rendkívül optimalizált az új WD vagy épp a Cyberpunk. A cél csak annyi, hogy működjön, a felhasználó majd vesz másik VGA-t. Valamivel el kell adni azokat!

    #48 b: Szeretem, hogy mi mindig úgy egyetértünk. Te linkelted a videót, ami bizonyítja a helyzetet. Amúgy a Control benne van, és ugyanígy működik, jó hogy megnézted mit is linkeltél.

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • Petykemano

    veterán

    válasz .mf #52 üzenetére

    De nem "egyesek szerint", hanem a teszt azt mutatja be, hogy a Ryzen 2600-ad 1080p-ben mondjuk a 3070-et már tényleg nem hajcsa ki.

    Tehát ha ilyen MSRP-n $500 árú kártyában gondolkodnál, akkor sokkal jobban jársz, ha Radeont veszel.
    A teszt ott válik kicsit életszerűtlenné, hogy valószínű, hogy amikor veszel egy MSRP-n $500-os kártyát, akkor azt 1080p-ben akarod használni. Minél magasabb felbontással és részletességgel használod, annál kevésbé lesz érezhető, hogy a cpu limitálna.

    Találgatunk, aztán majd úgyis kiderül..

  • b.

    félisten

    válasz Duck663 #53 üzenetére

    jah elfelejtettem hogy te már értetlen troll faktorba nyomod. Igazából egyetérthetünk abban hogy nem tudom minek irok is egy ilyen fanboynak/ Nv haternek én bármit is.Na mostantól ignore on barátom azt írogatsz amit akarsz, elfér a kettönk között az hogy ne lássuk egymás kommentjeit . :R

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • b.

    félisten

    válasz Petykemano #54 üzenetére

    igazából a 2600 már a Turinggal( 2080 super) is CPU limites volt persze nem 4 K-n.
    Az 3000-5000 széria már jobb színben fest játékra összevetve a kékekkel,de az 1-2000 még nem volt az igazi.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Duck663

    őstag

    válasz b. #55 üzenetére

    Az értetlen troll, az te vagy. Ami kicsit uncsi már!

    NEM NEKED, hanem általánosan, csak nem írok két kommentet egymás után! Reméljük kibírod! ;]

    Szóval amit érdemes lenne megnézni, hogy egy régebbi DiRT (Rally vagy 4) vagy egy Sniper Elite 3 mellett fennáll-e ez a helyzet?!

    Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.

  • Alogonomus

    őstag

    válasz Duck663 #57 üzenetére

    Csak nehezen tudja elfogadni, hogy újabb "csontváz" esett ki az imádott gyártója "szekrényéből". ;)

  • beyruth82

    veterán

    Akkor ez a gyakorlatban az én i3-10100f+gtx 1650S kombómmal egy fhd 75hz-s monitor eseteben pontosan mit is jelent?Jó vagy rossz?
    Decemberben mikor vettem a konfigot akkor még nem jatszottam de azota rákaptam és eddig gond nelkül futnak olyan játékok mint cyberpunk, control, resident evil 3 remastered, horizon zero dawn, far cry new dawn, metro exodus. Szeretném majd egy i5 10400f-re cserelni a procit meg majd jobb vga-t ha lejjebb mennek az árak de egyenlőre nem latom szükségét vagy ertelmét amíg elfutnak rajta az újabb játékok is.

  • Alogonomus

    őstag

    válasz beyruth82 #59 üzenetére

    Attól függ, hogy a játékok alatt mennyire van kiterhelve a processzorod.
    A vizsgálatok alapján az Nvidia driver sokkal több erőforrást használ, így egy határozottan erősebb processzor kell az ugyanolyan kategóriájú Nvidia kártya alá, mint amilyen processzor kell az AMD kártya alá. Ha a játékok alatt nem pörög 80% fölött a processzorod, akkor valójában ez a hiba nem jelent érdemi hátrányt neked, mert elég erős a processzorod egy 1650S kártya maradéktalan kiszolgálására.

  • beyruth82

    veterán

    válasz Alogonomus #60 üzenetére

    Értem köszönöm szépen. Szokott 90%-ek fölé is menni a cpu kihasználtság időnként, ahogy nézegettem cyberpunk közben.A regebbi játekoknál 70 alatt van de az újabb erőforrásigenyeseknél fölötte es gyakran lattam 80 fölött is.Eddig ennek nem ereztem semmilyen hátrányát, nincs akadas, szaggatás, tearing effektus de akkor ezek szerint nem jó ez a magas processzor használat.Gondolkoztam már i5 10400f-re cserelek de mivel még semmi hátrányt nem ereztem az i3-nál így ejtettem a dolgot meg a teljes konfig új most vettem 3 hónapja.Ráadásul a i3-hoz és a videokarihoz merten H410m-e alaplapot vettem az pedig nem igazán fejlesztesre való, nem tudom elbirja az i5-10400-at meg esetleg majd a jövőben egy 2060S szintű kártyát?Sajnos nem jatékra vettem, nem gondoltam későbbi fejlesztésre, ez csak közvetlen utana jött ☹️

  • b.

    félisten

    válasz beyruth82 #61 üzenetére

    elbírja, alapon nem lesz azzal semmi gond. jó párosítás az úgy.( VGA+ CPU) :K
    Kislányom gépe hasonló, csak az egy MSI h410 deszkával és egy GTX 1060 van benne mellette,de a CPU ugyan ez.( 10400f)

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Kansas

    addikt

    válasz beyruth82 #63 üzenetére

    Igen, ez per pillanat egy szépen kiegyensúlyozottnak tűnő rendszer, bárcsak mindenki ilyeneket építene... :R

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • beyruth82

    veterán

    válasz Kansas #64 üzenetére

    Köszi! Logout.hu milyen asztali gépet vegyek topicban raktuk össze a fórumtársakkal 😀
    Csak hát ugye nem játékra lett tervezve és a jövőben 1-2-3 ev múlva már mediumon sem fogja elvinni a legújabb játékokat gondolom( most tényleg minden jatek siman fut rajta).A jelen cikkben olvasottak fényében pedig méginkább nem.Ha meg procit és videókarit akarok cserélni majd akkor a belépő szintű alaplapomat is kell gondolom.Egyenlőre viszont nincs semmi gond vele és a vga árakat nézve amúgy sem időszerű a fejlesztés.

  • Kansas

    addikt

    válasz beyruth82 #65 üzenetére

    Attól függ... azért az a CPU még sokáig jó lesz, ha nem támasztasz vele szemben irreális igényeket. Egy középkategóriás VGA-t(pl. GTX3060/RX6600) beledobva még jó ideig el lehet vele muzsikálni single playerben, maxra tolva a csúszkákat FHD-ban vagy akár QHD-ban.
    Nekem mániám mindent GPU-limiten futtatni, ami jelenleg abban merül ki, hogy az R5-3600/RX5700XT kombómmal 4K/60Hz-es monitort szolgáltatok ki(amit csak lehet 4K-ban játszva), és gyanítom ha bedobnék a VGA helyére egy 6900XT-t vagy egy 3090-et, még mindig nem tudnék CPU limitbe futni...
    Nyilván a 60Hz az nem 144Hz, de aki 144-re utazik az belekalkulál egy arra alkalmas procit.
    Emellett van egy Lenovo Legion laposom, amiben a tiedtől nagyságrendileg nem különböző vas van egy i5-9300H/GTX1650M kombó képében, ami szerintem bőven ki fog szolgálni 3 éven túl is a beépített FHD kijelző felbontásán.
    Ne felejtsük el, jelenleg a gaming a magasabb felbontás, magasabb frissítés és raytracing irányába halad, ami bőven leköti az új hardverek extra erőforrásait, így ha nem mész FHD fölé és nem akarsz RTX-et, az alsó-középkategóriás vasak egész sokáig(3-5 évig szvsz tuti) elegek lesznek a legújabb játékokhoz is... az RT-nek akkora a teljesítmény-igénye, hogy kétlem hogy egyhamar előrukkolnának egy újabb erőforrás-zabáló effekttel, ami avultatná a vasakat a középkategóriában.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • beyruth82

    veterán

    válasz Kansas #66 üzenetére

    Ezt örömmel olvasom mert nem gondoltam volna,hogy az i3-10100 elviszi az rtx 3060-at.Nagyon szerettem volna egy ilyen vga-t es amikor beharangozták a 330$ msrp árat akkor reménykedtem hogy a magyar arak sem szállnak el nagyon de sajnos nem így lett.Kivarok és ha lemegy majd akkor mindenképp szeretnek egyet.Fhd 75hz-s monitorom van és a cyberpunkot meg a resident evil 3-at leszamitva (ezekkel mediumon) mindennel high beallitasokon jatszok(control, horizon zero dawn,world war z,metro exodus,stb) és tényleg tökeletesen fut bar nekem a szemem nem lat különbseget 50 es 70 vagy 40 es 60 fps között de az akadasokra, tearingre, szaggatásra allergias vagyok azt nem birom elviselni de eddig ezeket nem tapasztaltam még evvel a konfiggal sem szerencsere.Csak tudod a fórumokon mindenki írja hogy a 6 mag mar kell jatekokhoz meg ilyesmik de akkor egyenlőre a proci csere nem elsődleges főleg ha a jelenlegi is kiszolgal egy 3060 szintű kartyat is.

    [ Szerkesztve ]

  • Kansas

    addikt

    válasz beyruth82 #67 üzenetére

    Igazából csak azért nem érdemes RTX3060 fölé menni vele, mert akkor már 4K kéne ahhoz, hogy ne fuss procilimitbe némely játékban...
    FHD-t szerintem max részletességgel 75fps-sel ki tud szolgálni ez a proci is.
    Bár épp nemrég hallottam Linus-tól, hogy ideális esetben a monitor frissítésének a dupláján érdemes hajtani a VGA-t multiban, ahhoz már ez kevés lesz, de meg is vannak azzal szemben a kétségeim... én inkább maradok a 40-60Hz FreeSync/GSync-nél, mint hogy 120fps-sel hajtsam a monitort sync nélkül... igaz, az egyetlen multi amit én játszok, az a World of Warships, ami nem épp egy hipergyors shooter...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • beyruth82

    veterán

    válasz Kansas #68 üzenetére

    Akkor nem lesz gondom mert én csak single player játékokkal nyomom.Vsync bekapcsolva ami a monitornak megfelelően 75hz(regebbi jatekoknál állandó a 75 ) újaknál meg 45-70 között ingadozik.Köszi a felvilagosítast nagyon hasznos volt a szamomra. :R

  • dSERiES

    senior tag

    A cikkben említett kulcstényezőre:
    Ebből a videóból még további 4 cím, ami jobban fut 5700XT-vel, mint 3070-nel és 3090-nel (1080p medium) 1600X esetén (2600x esetén már van ahol ugyanaz, van ahol jobb az 5700XT, pl. SottR, AC:V):
    Cyberpunk 2077, Rainbow Six Siege (Vulkan), Shadow of the Tomb Raider, Assassin's Creed Valhalla.
    Ezek + az említett Watch Dogs: Legion és a Horizon Zero Dawn akkor mind olyan játékok amiken sajnos valamiért pont nem úgy futnak a dolgok Geforce-on és még mindig nem általános problémáról/jelenségről van szó ugye? :))

    Szerk.: már amennyire általános problémának tekinthető, hogy ilyen életszerűtlen konfigokon + felbontásban van egy ilyen jelenség.

    [ Szerkesztve ]

    ⊿sff⊿

  • arn

    félisten

    Erdemes eszben tartani, amikor az ember az 1600x melle megveszi a 3090et. :DDD

    facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld

  • sb

    veterán

    válasz b. #34 üzenetére

    Azzal az állítással nincs gond, hogy nem a driverben van a hiba. Ez logikus ha azt nézzük, hogy kikerültek a driverből funkciók amiknek valahol meg kell jelenniük.

    A többinél viszont szerintem abszolút nem logikus amit írsz:
    1. Linkeled a CB 1080p tesztet. Ott mit kellene látni? A cikkben említett relatív lassulás gyengébb prociknál, cpu limit esetén látszik. Itt se relatív lassulás nem látszik egy grafikonon se a gyengébb proci jelenléte nem áll fenn (hogy esetleg egy grafikonon belül is lássunk anomáliát: a gyengébb vga megelőzi/behozza az erősebbet)

    2. "maga következtetés hibás ahogy leírtad . 1080 p re lehet, 1440P re és 4 K-ra közel sem."
    Persze, hogy nem igaz mivel magasabb felbontáson nincs cpu limit.

    3. "nem CPU teljesítményt veszítesz, hanem FPS-t , magasabb felbontáson meg nyersz FPS-t gyengébb CPU val akkor egy generációval gyorsabb a CPU-d ha 4 K-n játszol egy 3080 kártyával?"
    És itt jön ki az előbbi hibás logika: FPS-t veszítesz, de a cpu miatt... tehát cpu erőt veszítettél.
    Ez viszont nem szimmetrikus felbontás függvényében tehát a gyengébb proci-FPS nyereség pont annyira hülyeség amennyire annak hangzik. :)
    A cpu-d tud 120fps-t (egy gyengébb meg 60-at), a vga-d felbontásfüggően mondjuk 40/80/120-at (4K, WQHD, 1080p)
    4K-ban nyilván tök mindegy melyiket cpu-t használod, vga limit van, cpu limit nincs. 40fps-ed lesz.
    1080p-ben viszont az erősebb cpu 120-at tud a vga-val, a gyengébb 60-at. Az erősebb, ha visszafogod sw-vel (driver, progam gond, tök mindegy) akkor nem 120 lesz, hanem mondjuk 90-100. Erről van szó a cikkben.
    Fordítva viszont nyilván hülyeség, magasabb felbontásnál a gyengébb cpu nem ad hozzá a teljesítményhez. Csak nem is veszít. Lefelé van extra erősebb cpu esetén ahol belép a cpu limit és ott kérdés mennyi erő marad meg belőle.

  • b.

    félisten

    válasz sb #73 üzenetére

    Azért linkeltem a CB tesztet mert ott világosan látszik, hogy még a legerősebb CPU val is az Nvidia kártyák gyorsabbak kis felbontáson . Ott a beállításoknál , ha kiválasztod a HU által tesztelt HZD-t pl,akkor jól látható, hogy a 3070 a 6800 fölött helyezkedik el 1080P ben miközben a 3070 lassabb kártya. Tehát azt a logikát akartam folytatni ezzel, hogy a 6800 ezek szerint CPU limitbe fut egy 1,5 milliós konfiggal is vagy akkor ne vegyél 3070 nél erősebb kártyát 1080 P re? avgy ha erős CPU-d van akkor inkább vegyél 3070 kártyát mint 6800 at? ( nem vennék)
    Ez a Ryzent érintő probléma a jelek szerint.

    Intelnél ez a differencia miért hiányzik?( persze más felépítés, CCx stb,de számomra egyértelmű, hogy Abu állítása igaz.)
    az első videó pont ezt mutatja meg hogy a kis, mondjuk 1600x de a 2600X is CPu még 1440P-n is mekkorateljesítényt hagy benne, akár 50 % ot is egy 3600-5600 CPu hoz képest. [link]
    Míg Intelnél nincs drasztikus eltérés [link]
    és ezért hiányzik az Intel 4 generáció a tesztből, kissé sunnyogásnak gondolom, ez miatt és nem véletlenül van benne egyetlen egy I3 az Intel 4 generációja helyett mondjuk de a következtetés viszont általános ne tesz különbséget a CPu gyártók között.

    Ezek után hogy ezt driveres anomáliának tudja be, az még nekem laikusnak is egyértelműen hülyeségnek tűnik.

    A helyes következtetés inkább az, hogy ah régi Ryzenes konfigod van, vegyél AMD-t ,ha régi Inteles akkor mindegy mit veszel 1080 P re..

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Predatorr

    őstag

    válasz Abu85 #49 üzenetére

    Az AMD mindig elhájpolja magát, mekkora technológia mágus, aztán gyakorlatban nincsen sehol. Rt-gel éveket késett, nagy felbontásban így is lemarad, DLSS-re sincs még válasza, nV meg gyors kártyákat gyárt. Én már évekkel ezelőtt (7870XT-nél) elengedtem a driverhibák tömkelegével együtt, azóta élvezem a gyors, magas minőségű, bugmentes grafikát 4k-ban, és röhögök az ilyen hülyeségeken, amiről ez a ci... marketing-anyag is szól. Ettől függetlenül CPU-fronton meg az Intelt hagytam el a francba.

    "Amely probléma nem megoldható, azt meg kell szüntetni."

  • RubbishBin

    senior tag

    Ph-n az nvidia mindig szar. Igaz hogy az AMD-m nem tud egymástól megkülönböztetni 2 különböző felbontású képernyőt csak a második resetnél (indítgatni kell, mint valami lerobbant autót), meg könyörögni kell neki hogy rakja má' ki full screenre az 1440p-ben futó alkalmazást a 4K monitoron, de azért köcsög nv driverek! :D Ha nem lett volna nVidiám, és csak innen tájékozódnék, tökre azt hinném hogy jobbak az AMD driverek.

    [ Szerkesztve ]

    Mehetsz a bicómmal, de ne válts vele!

  • Abu85

    HÁZIGAZDA

    válasz Duck663 #53 üzenetére

    Valamennyire érdekli őket, csak nem biztos, hogy minden probléma felderítésére van idő. Ugyanakkor az Ubisoft az utóbbi időben elég sokat javított a motorjain. A Cyberpunk fejlesztőit elsődlegesen az idő sürgethette, nagy projekt volt, és elfogyhatott a pénz, így kiadták a játékot, és majd a bevételből befejezik.

    #70 dSERiES : Ezek mind DirectX 12-esek. Mint írja a hír is, az explicit API-k nem úgy működnek, mint régen a DirectX 11 például. Ami a DirectX 11-ben okozta a többletterhelést, azok hazárdok és állapotválzások kezelése, illetve a parancsátadás a kernel driver által. A DirectX 12 implementációkban kernel driver nem létezik. Az előbbi problémákat explicit módon kezeli az alkalmazás, ezért explicit API a DirectX 12. Ahol ez a probléma előfordul, ott egyszerűen az alapvetően AMD-re dizájnolt játékot nem optimalizálták rá a GeForce-okra. Ezzel egy olyan API implementáció nem tud mig kezdeni, ami nem rendelkezik kernel driverrel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • floatr

    veterán

    válasz Predatorr #76 üzenetére

    Nvidia kártyám van, ennek is probléma a két kijelző. A laptopomban is nvidia, állandóan a két kijelzővel szivat. Tele van a fanboi hozzáállástól, amikor pont az állítólagos célközönséget hagyják a végére

  • bozont

    veterán

    válasz b. #74 üzenetére

    Még mindig jó lenne látni a Patreonos adatokat, ahol több játék és vga is szerepel. Viszont nem értem miért vagy még fennakadva az Inteles dolgon. Az i3 tökéletes szemléltetni hogy nem Ryzen specifikus a dolog (ez látszik is a két játéknál). Az 5600X is csak azért került bele hogy legyen egy referencia az egyik legerősebb procival. De a lényeg azon van hogy melyik gyártó vgaját fogja vissza jobban egy gyengébb proci, vagyis processzorlimites helyzet.

  • Kansas

    addikt

    válasz RubbishBin #77 üzenetére

    Ez ebben a formában nem igaz. Nekem vígan kezeli az AMD driver a két monitort két különböző felbontáson és frissítésen(4K@60Hz, FHD@72Hz), sőt még arra is képes, hogy ha esetleg a kisebbik monitoron VSR-rel 4K-t állítok be, akkor ha mondjuk kilövöm mellőle a 4K monitort(mert mondjuk a melós laptopomról jövő bemenetre állítom át), akkor egyedüli monitorként az ahhoz beállított felbontást(FHD) veszi fel, VSR nélkül.
    Én csak akkor futottam bele olyanba, hogy a 4K monitoron nem fullscreenben megy a 1440p felbontás, ha engedélyezem az integer scaling-et, mert akkor nem hajlandó interpolálni, csak vagy pixelhelyesen megjeleníteni vagy egélsz számú többszörösöket.
    Persze, kényelmesebb lenne, ha az integer scaling csak az arra alkalmas felbontásokon működne, a többin meg interpolálna továbbra is, de valamiért így csinálták meg, ez van.
    Szóval nyígás helyett először gondolkodni, és csak aztán anyázni...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz bozont #80 üzenetére

    De, az i3-10100(4c8t) pont hogy azt szemlélteti, hogy Intelen mintha kevésbé vagy egyáltalán nem lenne ez a helyzet... ne feledd, a tesztben szereplő összes AMD proci 6c12t... ehhez képest a kis Intel a 2600X-et tipiusan veri, de némelyik táblázaton a 3600X-et is, sőt feljön az 5600X nyakára(gondolom ott nincs szükség annyi szálra)

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • bozont

    veterán

    válasz Kansas #82 üzenetére

    Pedig az alábbi képen például az i3-mal is gyorsabb mind az 5600XT és 5700XT is mint a 3070 és 3090, amik ugye messze nem egy kategóriák. De ugyan ez van
    a Horizon-nál is.

  • RubbishBin

    senior tag

    válasz Kansas #81 üzenetére

    Nem az egyidejű kezeléssel van baja. Néha átcipelem a gépet a tv-hez, és a 4k monitor helyére csatlakoztatom az 1080p megjelenítőt. Semmi baj nincs, de a windows loading után sötétség. Kétszer újra kell indítani hozzá, hogy működjön. Utána a monitorhoz visszatérve ugyanez. Annyi a különbség, hogy ott már nem is érzékeli a felbontást, és FHD-be rakja a 4k monitort.
    Integer scaling nálam nincs engedélyezve, mégis egy 1440p méretű ablakban nyílik meg szinte minden. Az is olyan, mint egy autó egy téli reggelen: 4-5 alkalommal kell alt+entert nyomnom. Az első próbálkozásoknál kirak egy fullscreen sötétséget, aztán visszaugrik ablakba.
    Gondolkodtam én sokat, de mindig csak arra jutok hogy az nv semmi ilyet nem csinált, ugyanilyen felhasználás mellett. Így maradt a nyígás, meg a felismerés hogy a következő kártyám nem AMD lesz.

    [ Szerkesztve ]

    Mehetsz a bicómmal, de ne válts vele!

  • Kansas

    addikt

    válasz RubbishBin #84 üzenetére

    Ahogy gondolod.
    Meg sem próbállak meggyőzni arról, hogy ez egy hibajelenség(még csak nem is típushiba) és nem az AMD VGA hardver vagy szoftver használatának elengedhetetlen velejárója, és mint olyat esetleg meg lehetne javítani... bár természetesen az se kizárt, hogy konkrétan a hardver hibás/selejtes, és az nyilván pech.
    Csak arra hívnám fel a figyelmed, hogy könnyen előfordulhat, hogy a következő csilli-villi GeForce-odnak is lesz valami hibája, valami más, de szintén bosszantó, és akkor meg majd nyilván arról akarsz leiratkozni... a jó hír az, hogy talán addigra lesz még egy dobásod, ha az Intel elkészül a saját VGA-jával, de aztán kb. annyi, ha csak nem váltasz valami ARM platformra(pl. Mac).
    Mindezt azon kérlelhetetlen logikából kiindulva, hogy(ahogy a mondandódból kiderül) ha egy gyártó egy termékének a hozzád kerünő példánya hibás, akkor nyilván a gyártó minden termékének minden példánya szar, így jobb lesz ha az egész gyártót elkerülöd a jövőre nézve... hát, jó szórakozást hozzá!

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Snail_Zero

    csendes tag

    Szokásos Abu-féle popóból előhúzott AMD fanboy marhaság.

    Egyrészt ha nem konzolportról van szó, akkor szó szerint mindenki Nvidia kártyára fejleszt alapból, le se szarják milyen vélt vagy valós toolokat biztosít az AMD.

    Másrészt meg akkor ezek szerint elég sok stúdió elég sok játékánál elköveti pontosan ugyanazt a hibát elég sok programozó.

    Aha, biztos.

  • dSERiES

    senior tag

    válasz Abu85 #78 üzenetére

    Köszi az insight-ot. 2 gondolatom támadt: a játékot nem megfelelően optimalizálták a meghajtóra (ezáltal pc-re) vagy a meghajtót a játékra..
    Másik, hogy nagyon szeretnék látni egy nVidia szponzorált címet (Control? nem tudom), amely ezen jelenségen átlép és teljesen máshogy viselkedik CPU limites szcenárióban (=skálázódik GeForce-szal is, azaz ugyanazt tudja 3070-nel, 3090-nel mint 5700 XT-vel). Szerintem nem lesz.

    ⊿sff⊿

  • Abu85

    HÁZIGAZDA

    válasz Snail_Zero #87 üzenetére

    Nem a konzolport a lényeg, hanem az, hogy megtalálnak-e többletterhelést okozó bugokat a motorban. Egy emlékezetes eset az Unreal Engine 4-hez fűződik, amelyik motorról nagyon sokáig azt hitték, hogy tök jól fut, majd kijött a Radeon GPU Profiler és talált a motorban egy olyan hibát, ami még az első rajzolás előtt kb. 400-szor törölte a GPU cache-eket csak a semmiért. Amikor ezt kijavították, akkor +10%-nyi teljesítményt nyertek belőle. És mindez azért volt, mert a Radeon GPU Profiler előtt nem volt nyomkövetést használó profilozó, így egyik ilyen fejlesztőeszköz sem látta az ilyen mélyen hardveres eredetű hibákat. Emiatt van az, hogy ma a fejlesztések kezdetén Radeont használnak, mert más gyártó, vagy az általános profilozók nem látnak rá normálisan a mélyen megbúvó teljesítményproblémákra. Nem ellenőrzik elég részletesen a hardver működését, hogy detektálják ezeket. Amiről pedig egy fejlesztő nem tud, azt nem is tudja javítani, pedig az Unreal Engine 4 fenti hibáját három és fél évre vezették vissza, tehát a motorban három és fél évig volt egy olyan gond, ami 10%-kal visszavetette a teljesítményét, de nem vették észre.

    És az Epic ugyanezt a +10%-nyi teljesítményt visszanyerte a GeForce-okon is, nem csak a Radeonokon, mert miután látták a hibát, onnan már vissza tudták keresni, hogy mi okozza, és arra lehet olyan javítást írni, amire gyártóspecifikus optimalizálást is alkalmazol. A detektálás a kulcstényező, a javításhoz már nem feltétlenül szükséges a Radeon, de ahhoz igen, hogy lásd a bugot. A probléma ott keletkezik, hogy sokan csak a Radeonra javítják ezeket a teljesítményproblémákat, mert úgy vannak vele, hogy ha a megoldás jó Radeonon, akkor biztos jó GeForce-on is. Ez már nem feltétlenül igaz, a javítás biztos működik, de közel sem biztos, hogy olyan hatékonyan, és emiatt a bugfixek után ajánlott a GeForce-on is ellenőrizni a működést, mert az eredeti kód a Radeonból kapott adatok szerint lett megírva.

    ---------------------

    #88 dSERiES : Nem a meghajtó itt a kulcstényező. [link] - írtunk erről régen egy cikket.
    Az utolsó két oldal arról szól lényegében, hogy a DirectX 11 és a DirectX 12 implementáció mennyire különbözik. A lényeg:

    A DirectX 12 meghajtónak van némi többletterhelése, mert a futtatási környezet még mindig ad hozzá valamennyit (és ez nyilván javítható a meghajtó oldaláról), de elhanyagolható ahhoz viszonyítva, amennyi többletterhelést a DirectX 11 jelentett.
    A Watch Dogs: Legion és a Shadow of the Tomb Raider NV szponzorált cím. De eleinte ezeket is Radeonon fejlesztették, mert az a hardver és a hozzá kapcsolódó toolkészlet ad kellő információt a fejlesztőknek. Igazából nem ez a fontos, hanem az, hogy a Radeonos adatok alapján elvégzett módosításokat tesztelték-e GeForce-on, és hozzáigazították-e a kódot az NVIDIA hardverének jellegzetességeihez. Ezt ugyanis meg lehet tenni, miután a Radeonon megismerted a hibákat és javítottad azokat. A Radeon valójában csak a hibakereséshez elengedhetetlen, ha megvan valamire a javítás, akkor onnantól kezdve már lehet a GeForce-ra is optimalizálni. Ott csúszik el a dolog, hogy ezt valaki megcsinálja, és valaki nem fektet bele elég időt, azt mondván, hogy a programkód működik GeForce-on is, csak kevésbé optimálisan.
    Példaként felhozható a Strange Brigade, ami folyamatosan kapott javításokat, és ezzel a gyártók hardverei is fejlődtek a teljesítmény tekintetében. Ezt azért ismerjük nagyon, mert ez a tesztjátékunk a fogyasztásméréshez, és nem véletlenül van ez kiválasztva, ugyanis ez a cím éri el a legjobb kihasználtságot a GeForce és a Radeon GPU-kon is. Az oka ennek az, hogy mindkét gyártóra specifikus optimalizálás van a motorban, ami nagy hatékonyságú feldolgozást garantál. Zömében ennek köszönhető ez is, hogy olyan marha nagy fps-eket látni ebben a játékban, igen gyér konfigurációkon is. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Snail_Zero

    csendes tag

    válasz Abu85 #90 üzenetére

    Az a baj, hogy hiába költesz történeteket, meg találsz ki sztorikat mágikus toolokról, sajnos én pontosan, első kézből tudom, hogy ha nem konzolportról van szó, kutya sem használ AMD kártyát, rögtön az Nvidiával kezdik.

    És továbbra is kizárt, hogy ennyi különböző stúdió ennyi különböző játékán ennyi különböző programozó véletlenül valahogy ugyanabba a hibába fut.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Snail_Zero #91 üzenetére

    Aki maga írja a motort az nem tud meglenni egy hardveres nyomkövetést használó profilozó, illetve egy teljes memóriaelemző nélkül egy explicit API-val. Ilyet PC-n csak az AMD kínál. Ha ezeket nem használod, akkor írhatsz motort, de egy rakás bugot nem fogsz látni, mert nem érsz el olyan toolokat, amik megmutatják a programkódod hibáit. Ilyenkor súlyos 10-20-30%-nyi teljesítményt hagyhatsz a motorodban.

    Ezek explicit API-t használó alkalmazások. Explicit API alatt nincs kernel driver, maga az API feldolgozási modellje kivágta. A driverben nincsenek többet kernel szerver szálak, nem kezel hazárdokat, nem kezel állapotváltásokat, nem menedzseli a memóriát. Mindegyikről explicit módon az alkalmazás gondoskodik. A többletterhelések ezek nem optimális működéséből születnek, és amíg ezeket DirectX 11-nél a meghajtó oldotta meg, addig DirectX 12-ben az alkalmazás gondoskodik róluk. Maga a DirectX 12-es meghajtó alapvetően a VGA memóriáját sem nagyon ismeri. Lát egy bináris pacát belőle, de fogalma sincs, hogy mely pufferek hol vannak. Ezért nem működik explicit API alatt az implicit multi-GPU, nem tudja a driver, hogy mettől meddig tart abban a bináris pacában a képkockapuffer. Ezt előbb meg kell mondani neki, lásd a Microsoft WDDM-féle szabványos AFR-jét, ami pont ezt teszi, de a WDDM is csak onnan tudja, hogy a program megmondatni neki.

    A DirectX 12 és a Vulkan tipikus nehézségei ugyanazok, a hibákat ugyanazokkal a toolokkal derítik fel, amelyekre ezek a toolok, illetve az AMD ajánlásai ugyanazt a javaslatot teszik. Annyira tehát nem szokatlan, hogy ugyanazokba a limitekbe sokan belefutnak, ha mindenki ugyanazt csinálja. Ha valaki veszi a fáradtságot, hogy GeForce-ra is megnézze a problémákra adott megoldásainak teljesítményét, akkor a gyártóspecifikus limitek felfedezhetők és korrigálhatók. Lásd Strange Brigade.
    Iparági szinten szerintem annak kellene lennie a mércének, amit a Rebellion csinál. Más kérdés, hogy nem biztos, hogy minden stúdió akar ennyi időt áldozni az optimalizálásra, pláne a gyártóspecifikusokra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Bandit79

    aktív tag

    Ez megint egy mondvacsinált (kb lefizetett) teszt , semmi látnivaló nincs itt.
    Megnéztem különböző teszteket nem látok ilyen problémát, amit itt "hegesztenek" össze.
    Kb megint arról van szó,hogy egyik game így, másik úgy reagál különböző hardverekre, a másképpen megírt teljesítményprofilok miatt.
    ...ha már a nagy Ph lehoz ilyeneket, inkább csinálna saját teszteket, az lenne a fejlődés.
    Mind tudjuk Abu-ék keze mindig merre hajlik kicsit.. :) ez már nevetséges, ezért is szűnt meg létezni az a régi jó kis Ph-s színvonal.
    Amikor AMd problémák vannak az szépen kicsit el van simítva, amikor valamilyen konkurencia legyen az INtel ,vagy NV , vagy akárki is :) valahogyan 15 cikk lejön róla. :D
    Ez több éves megfigyelésen alapszik.
    Mikor kijöttek a bazi erős Nv vga-k hónapokig egy kanyi teszt nem volt, ha volt is utána, akkor meg qvára nem átfogó, valahogyan mindíg úgy van megszerkesztve,hogy rámenjen a konkurencia gyengepontjára. Vicc, anno voltak a Ph-n olyan vezéregyének akik legalább pártatlanabbak voltak, már jó ideje olyan ,mintha ABu egymaga vinné a Vörös zászlót a PH-n :)

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    A legjobb dolog a PH-ban az, hogy a fanok sosem olvassák el a cikket. Emiatt elég csak egy olyan címet adni, amiből arra asszociálnak, hogy biztos valami gebasz van, majd a hírbe beleírni egy kifejtést, és jön a védelem a fanok részéről, hogy báncccccsák az NV-t. :D Közben a PH híre pont nem arra a következtetésre jut, amire a HW unboxed, hanem pont azt írja le, hogy ennek az NV driveréhez nincs igazán köze, hiszen a DirectX 12-ben pont nincs kernel szintű implementáció, ami jelentős többletterhelést okozhatna. :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • arabus

    addikt

    válasz Bandit79 #93 üzenetére

    Nem kicsit hajlik az.
    Amugy processzor szinten a probléma az amd borzalmas avx2 teljesitményében van.
    Gpu-k terén pedig az Nv már régóta directx 12_2 tiert használ mig az amd csak 12_1 tiert
    ami látszik is az ugynevezett ray tracing minőségén is amd kártyáknál szinte alig rajzol ki valamit jócskán csalnak itt.
    Ez szépen kiiratható amugy parancssorból a dxdiag beirásával is.

    Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...

  • Snail_Zero

    csendes tag

    válasz Abu85 #92 üzenetére

    Hát hogyne, senki nem veszi a fáradságot, hogy megnézze a problémákat GeForce-okon, végülis csak a userek messze többségének GeForce kártyája van, minek fáradnának vele, nyilván csak a Rebellionnak jutott eszébe a B-kategóriás játékával, hogy ezzel lehet foglalkozni kéne :DDDDDDDDDDDDDD

    Most komolyan, meddig akarod még etetni a népet a teljesen légbőlkapott hülyeségeiddel? Az előző generációban végigtolt GCN csodakonzol secret sauce majdmileszittPC-n hülyítésed nem volt elég, amiből soha nem lett semmi?

    És továbbra is, az a baj (de már nem írom le többször), hogy egyszerűen hazugság amit írsz, mert Nvidiával fejlesztenek, az Nvidia tooljai bőven jók mindenre, le se szarják a szerinted mindenképpen kihagyhatatlan csoda AMD toolokat.

  • Alogonomus

    őstag

    válasz Abu85 #94 üzenetére

    Valószínűleg van igazság a te okfejtésedben is, de az erősen valószínűtlen, hogy miután az AMD eszközeivel kigyomlálták egy Nvidia által masszívan támogatott játék kódjából a teljesítményt csökkentő tényezőket, azután nem optimalizálták a játék kódját az Nvidia kártyáira is. Az Nvidia nem a semmiért dotálta az adott játék készítését annyi köteg pénzzel.
    Szóval az eredmények, amit látunk egy Watch Dogs: Legion, vagy egy Cyberpunk 2077 kapcsán, azok már minden valószínűség szerint az optimalizálás utáni értékek.

  • Abu85

    HÁZIGAZDA

    válasz arabus #95 üzenetére

    Plíz ezt az orbitális faszságot ne erőltesd már. Ezerszer elmondtam neked, hogy a D3D_FEATURE_LEVEL_12_2 a DirectX 12 Ultimate funkcióinak az új szintje. Jelenleg semmi sem, azaz SEMMI SEM, vagyis SSSEEEMMMMMMIII SSSEEEMMM!!!44!44!!!!! használja, mert a DirectX 12 Ultimate funkcióit külön kell lekérdezni a Windows 10 May 2020-as frissítésen. Ha csak a D3D_FEATURE_LEVEL_12_2-t kérdezed le, akkor nem tudja a program aktiválni az effekteket a May 2020-as Windows 10 operációs rendszereken. Nem fog rátalálni a funkciószintre. Ez a funkciószint az október 2020-as Windows 10 frissítésben van benne, de a programozók nyilván nem akarják erre kényszeríteni a felhasználókat, hanem engedik az effektek bekapcsolását a May 2020 frissítésen is. Emiatt sokan mondták is a Microsoftnak, hogy a funkciószint teljesen értelmetlen, mert csak azt éri el vele a Microsoft, hogy a May 2020-as frissítésen is futni képes funkciók nem aktiválhatók a szóban forgó Windows verzión.
    Ugyanakkor, ha van megfelelő Windows verziód, akkor kijelzi a DXDiag a funkciószintet Radeonon is. A GPU-Z nem, mert egy előre beírt adatból szedi ki ezeket, és nem a DirectX 12 API-t kérdezi le. Ha az AMD-re az adatbázisában mariska lenne írva, akkor mariskát írna oda a DirectX Supporthoz. Az AMD mondta, hogy már hónapokkal korábban jelezték a GPU-Z fejlesztőjének, hogy javítsa ezt, de nem volt még rá ideje. :)

    #96 Snail_Zero : Nem senki sem veszi a fáradtságot, hanem néhányan nem veszik. Valaki veszi, és jól működik nekik.
    Mit vársz az NV-től mit csináljon? Küldjön verőembereket az Ubisoftra, a Guerrilla Gamesre és az Eidos Montreálra, mert nem írtak elég jó alkalmazásspecifikus optimalizálást a GeForce-okra, ami a gyengébb CPU-kon limitbe rakja őket? Agyonverhetik ezeket a fejlesztőket, csak nem látom, hogy mennyiben segítene a probléma megoldásában. :)

    Linkeld be az NV-nek a hardveres nyomkövetést használó fejlesztőeszközét, illetve a teljes memóriaképet mutató memóriaelemzőjét.

    #97 Alogonomus : Erősen valószínű inkább. A fejlesztések úgy működnek, hogy van egy performance target a tipikus beállításokra. Ha hozod egy gyors CPU-val, akkor a menedzsment azt fogja mondani, hogy ne pöcsöljenek piszlicsáré dolgokon heteket, mert időre kell kiadni a projektet, majd a gépigényben nagyobb teljesítményű procit ajánlanak.

    A Watch Dogs: Legion esetében van olyan beállítás, ahol egy gyengébb procival a Radeon RX 5600 XT is gyorsabb a GeForce RTX 3090-nél. Ez nem optimalizálás a GeForce-ra. Ennek nem így kellene lennie, csak ezt tudja a programkód. A Watch Dogs: Legion valószínűleg már ilyen marad, bár lehet, hogy az NV odaszól, hogy szedjék össze magukat (én odaszólnék a helyükben, nehogymá... ;] ). A Cyberpunk 2077 eleve nagyon béta állapotban került kiadásra. Ott azért van esély, hogy jön majd egy Enhanced kiadás egyszer, amiben összerakják a cuccot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Snail_Zero

    csendes tag

    válasz Abu85 #98 üzenetére

    Közben kiderült, hogy ugyanez van Forza Horizon 4-nél is.

    Tehát akkor eddig a Ubisoft, Electronic Arts, Eidos, Sony, Microsoft nem foglalkozik a GeForce-szal, semelyikük sem "veszi a fáradságot".

    Hát hogyne. Rögtön mindjárt megyek és elhiszem.

  • Abu85

    HÁZIGAZDA

    válasz Snail_Zero #99 üzenetére

    Mint írtam DirectX 12-ről van szó. Itt a többletterhelés okozásáért felelős elemek nem részei a drivernek. Fentebb van egy kép arról, hogy miképp van a régi és az új modell felépítve. A régebbi kernel driver funkciói átkerültek az alkalmazásba. Minden erős többletterhelés az alkalmazás oldalán keletkezik. Üthetjük az NV-t, hogy nem tudnak drivert írni, de valójában a DirectX 12 és a Vulkan esetében nincs kernel driver, egészen egyszerű maga a meghajtó, csak egy futtatási környezet és egy shader fordító. Direkt így vannak felépítve az explicit API-k, hogy az alkalmazásnak legyen nagy kontrollja a hardver felett és ne egy drivernek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák