Hirdetés
-
Akciófigyelő: kedvezményekkel indít az Ulefone Armor tablet/telefon páros
ma Az Armor Pad 3 Pro és az Armor 26 Ultra árából sokat enged a gyártó.
-
Tetőfokára hág a tavasz, és ezt a hardverek is érzik
ph Asztali PC-k, monitorok, videokártya, hát, hűtés és egér is került heti válogatásunkba.
-
Stray Gods - Orpheus központú DLC érkezik jövő hónapban
gp A musical játék hamarosan egy új kiegészítőt kap heteken belül.
Új hozzászólás Aktív témák
-
kenyocsaba23
tag
Üdv mindenkinek! Gondoltam én is hozzászólok mert elég érdekes a dolog számomra.
Egyrészről nem értem miért kell mikor legtöbb programban benne van hogy le szabályozza az fps értékeket. amit valaki vagy be kapcsol vagy nem. Innentől ezt igazán bízhatnák a felhasználókra.
Viszont amit már fentebb is írtak így jóval ócskább alkatrészekből meg tudnak oldani dolgokat amik közel bírnák addig mint a mostani jobb alkatrészek.Azt viszont nem értem miért éri meg nekik meg írni az új motort +firmware-ket minden új kártyához + évente hozzáírni dolgokat és fejleszteni a meglévőt. Ebben nem látok logikát ez szerintem nem egy okos húzás mert pl ennek fejlesztésére elköltenek xxxxmillió dollárt plusz ha azt vesszük a gagyibb alkatrészek holott hagyhatnák a helyzetet úgy ahogy most van és nem költenének feleslegesen pénzt. Lehet az is a le cibált fps-el közelebb akarják hozni a konzolokat és az api-kat ami már nem akkora hülyeség.De kinek kell ez? Mire jó?. Ezt nem értem. -
imibogyo
veterán
Ezt tudom. De mivel ez egy új funkció lesz és még nem látta senki miképp lesz megvalósítva, így addig csak találgatunk és nyitva hagytam egy kiskaput a gondolatmenetemben. Én is azt írtam, hogy szinte 100%, hogy erre is lesz profilozás.
kenyocsaba23:
Egyrészről nem értem miért kell mikor legtöbb programban benne van hogy le szabályozza az fps értékeket. Azért mert rengetegben nincs benne. És ne csak játékokban gondolkodjatok már. Nekem például 3DS Max alatt úgy sírt a GTX 680 az előnézeti ablakban, hogy öröm volt hallgatni.Viszont amit már fentebb is írtak így jóval ócskább alkatrészekből meg tudnak oldani dolgokat amik közel bírnák addig mint a mostani jobb alkatrészek. Hagyjuk már ezt a hülyeséget. Honnan tudná a gyártó, hogy te mire használod? Honnan tudná a gyártó, hogy te leszabályzod-e a terméket, vagy sem? Vajon mennyi felhasználó korlátozná le a kártyáját (szerintem kevés a tulajdonosok számához képest) és épp ezért mennyi embernél jelentkeznének a gyengébb komponensek miatti sűrűbb halálozások és így a gyártóknál mennyivel nőne az ebből következő RMA? Vajon ez mennyi plusz költséget jelentene a cégeknek? Hagyjuk már a bullshit generálást....
Azt viszont nem értem miért éri meg nekik meg írni az új motort +firmware-ket minden új kártyához + évente hozzáírni dolgokat és fejleszteni a meglévőt. Ebben nem látok logikát ez szerintem nem egy okos húzás mert pl ennek fejlesztésére elköltenek xxxxmillió dollárt De miért kellene ezt tenniük pont emiatt a feature miatt? Amúgy egyébként is megteszik. Ha ez egy a driverben benne lévő feature lesz, akkor nem kell hetente fejleszteni, pláne nem kell játékonként optimalizálni. Egyszerűen valószínűleg figyelni fogja az FPS értékeket és ehhez igazítja a teljesítményt. Pont. Ha jól csinálják tökéletesen mindegy lesz a kártyának, hogy Super Mario miatt kell leszabályoznia az FPS-t, vagy a 3D-s kecskepornó miatt.
holott hagyhatnák a helyzetet úgy ahogy most van és nem költenének feleslegesen pénzt. Így van minek fejleszteni. Dögöljön éhen a sok programozó és fejlesztő. Gondolom nem hiába döntöttek úgy, ahogy.
[ Szerkesztve ]
-
kenyocsaba23
tag
Értem amit írsz és van is benne logika ha jobban át gondolom de szerintem aki jobban el mélyül ebben a témában és zavarja ha pörög a kártya a semmiért egy sima progival pl. evga precisonx-el lehet fixálni az értéket igaz ez nem mindenkinek kényelmes. A programozók pedig sosem fognak éhen halni az AMD-nél mert van bőven munkájuk szerintem.
-
FLATRONW
őstag
válasz #57638400 #39 üzenetére
Csökken az órajel és a hozzátartozó feszültség szint is, így pedig a fogyasztás is nagy mértékben csökken.
Adaptívra kell állítani a power managmentet.
AMD-nél is van valami hasonló beállítás.Azonban ez a megoldás nem annyira hatékony, mert a GPU kihasználtságnak is egy bizonyos szint alá kell esni, hogy vissza vegye az órajeleket és a feszültséget és az órajel csökkentés után is egy bizonyos szint alatt kell lennie a terhelésnek, hogy alacsonyan is maradjon az órajel.
Ahogy utána olvastam az Nvidia féle Battery Boost funkciónak, az jött le nekem, hogy az adott fps limithez a lehető legalacsonyabb órajelet próbálja beállítani magas GPU kihasználtság mellett és ezt elég hatékonyan teszi. Szerintem az AMD is valami hasonlót próbál létrehozni.
Igaz, hogy csak mobil fronton érhető el ez a funkció, de az AMD is erre a piacra szánja elsősorban ezt a technológiát.[ Szerkesztve ]
-
FLATRONW
őstag
válasz #57638400 #61 üzenetére
Valószínűleg keveri a 2 dolgot.
V-sync vagy külső fps korlátozás hatására ha jól tudom (radeon tulajok írták, hogy igen) a Radeonok is vissza veszik az órajeleket hogyha nincs szükség magas teljesítményre. Csak ennek a működése nem annyira agresszív, tehát egy bizonyos szint alatt kell lennie a GPU terhelésének, hogy visszavegye az órajeleket.
Az nvidia notebookokra fejlesztett Batery Boostja pedig a lehető legalacsonyabban próbálja tartani az órajeleket magas GPU terhelés mellett és csak akkor emel rajta, hogyha szükséges.
Ezt próbálja az AMD is megcsinálni, ez áll jelenleg fejlesztés alatt. -
LordX
veterán
Ja jó, olyan opció tényleg nincs, hogy ne vegye vissza az órajelet, ha nincs elegendő terhelés, mert ennek csak akkor lenne értelme, ha szarul lenne implementálva a váltás, és problémákat okozna.. A Battery Boost meg majd jön. Az órajel visszavételt az Ati hozta be 1 generációval az nV előtt (X800 vs 7800 GT), ezt az nV hozta ki egy generációval az AMD előtt. Egyszer egyik, egyszer másik, ilyen ez a popszakma.
Egyébként mi értelme nem adaptívra állítani ezt az opciót, hogy a kártya, ami egyébként 240 FPS-t tolna ki az adott játékban, az idő háromnegyed részében max frekvencia és max ventilátorzaj mellett pörögjön idle-ben VSync mellett?
-
addikt
-
FLATRONW
őstag
Állítólag tényleg vannak olyan esetek, amikor az órajelváltások hibához vezetnek, olyankor érdemes áttenni maximális teljesítményre, hogy ne váltogassa az órajeleket.
Hogyha nincs bekapcsolva v-sync vagy valamilyen külső fps korlátozó, akkor teljesen mindegy hogy adaptívra vagy maximális teljesítményre van állítva, mert ilyenkor úgyis max órajeleken jár a kártya.
-
addikt
Tudom ez off, de nekem most a Metro LL Recux-ban nagyon sokat crashel a játék. GPU driver timeout-tal, tehát szokásosan az a hiba, amikor túl van húzva a kártya. Azzal a különbséggel, hogy nincs. Max boost órajel van rajta. Elképzelhető, hogy ha áttenném max minőségről max teljesítményre, akkor nem lenne ilyen hiba? 1440p-ben futtatom és úgy nincs meg mindig a 60 fps. Mivel az adaptív VSync be van kapcsolva, így érthetően akkor izzad igazán a kártya, amikor beesik 60 alá. A crashek is akkor szoktak jönni sztem (bár nem fraps mellett szoktam futtatni, így nem tudom biztosra mondani). Van, hogy annyit crashel bizonyos pályarészeken, hogy visszateszem 1080p-re a felbontást. Úgy nagyon stabilan megvan a 60 fps, nem is szokott összeomlani. Így néz ki a control panelem:
[ Szerkesztve ]
-
FLATRONW
őstag
Mivel adaptív v-sync-et használsz, ezért a max teljesítmény csökkenteni fogja a GPU kihasználtságát, mert 60 képkockát kell csak kiszámolnia alacsonyabb minőség mellett. Valószínű, hogy ez megoldaná a fagyásokat is.
Én azt tanácsolom, hogy inkább a játékban vedd vissza a minőséget vagy pedig egy kicsit csökkentsd a GPU alapórajelét.
A Control Panel beállításodhoz lenne néhány észrevételem:- Globális szinten kapcsold ki a környezeti kitakarást, mert ilyenkor minden játékra bekapcsolja azt, még olyan esetekben is, amikor a játékban is van Ambient Occlusion (HDAO, HBAO, SSAO). Ezt a funkciót régi játékoknál érdemes használni, amikben nincs AO. Ilyenkor inkább a programbeállítások fülön külön a játékhoz tartozó profilban érdemes ezt külön beállítani. A driverből bekapcsolt AO jobban is terheli a GPU-t, tehát ezzel sebességet is vesztesz.
- az FXAA is kapcsold ki globális szinten, és csak azoknak a játékoknak a profiljában kapcsold be, ahol használni akarod. Hogyha globálisan be van kapcsolva, akkor minden hardveresen gyorsított programban homályosítani fogja a képet. Például a videolejátszás közben is elmossa a képet, hogyha az hardveresen van lejátszva.
- az élsimítás áttetszősége csak akkor működik (hogyha a játék támogatja is az élsimítást), hogyha az élsimítás módja is át van váltva az alkalmazás beállításának javítása vagy a bármely alkalmazás beállítás felülbírálása lehetőségre. Ezt is inkább érdemes profil szintjén kezelni.
-
7time
senior tag
Próbáltam a Riva Tuner több játéknál sem tartja a beállított 60 FPS limitet úgyhogy nem lesz rossz egy ilyen driverbe épített csoda.
-
Tzoltan21
tag
Kérdés, hogy régebbi mondjuk HD4000-res vagy az alatti szériánál is működhet ez a fajta limiter? Amúgy szimplán az fps csökkentésnek nem látom sok értelmét, kivéve ha ugye a játék is gyorsul az fps szám alatt. De egy ilyen teljesítmény/fogyasztás szabályzó jól fog jönni, ha lesz ilyen.
-
7time
senior tag
válasz Tzoltan21 #72 üzenetére
Tehát így a sok fps csak kimérhető és nem látható...
Így van, ha többet akarsz akkor 120Hz monitort kell venni, tök felesleges 120Hz vagy több járatni a CPU-VGA ha csak 60 FPS látsz belőle mert csak eszi az áramot, például a Payday 2 játékban 130 FPS majdnem dupláját fogyasztja a gép, persze van sok játék amit ha maxra teszel még a 60 FPS sem bírja elérni a VGA limit miatt.
-
addikt
Ez nem igaz. 60-szor kerül friss kép a monitorra, de nem mindegy, hogy 60 vagy pl. 120 az fps. A magasabb fps csökkenti az input lagot. Ha két képfrissítés között 1 képet számol ki a GPU, akkor képfrissítés után egy régebbi állaptot látsz. Ha viszont mondjuk 3-at számol és a legutolsót rakja ki, akkor frissebb információt látsz. Lehet, hogy így az előző 2 kép megy a kukába, de ez már csak ilyen.
-
FLATRONW
őstag
Nem mennek a kukába a kiszámolt képek. Ez az egyik oka a képtörésnek.
Vegyünk egy nagyon egyszerű példát. A monitor 60 Hz-es, tehát 16,6 ms-onként frissít. A grafikus kártya pedig pontosan 120 képkockát képes kiszámolni, tehát 8,3 ms-onként egy képet. Ez azt jelenti, hogy a monitor egyetlen frissítési ciklusa alatt 2 képkocka kerül kiszámításra.
Ebben az esetben az történik, hogy a monitor az első képnek még csak a felét jelenítette meg, de már elkészült a második is és ilyenkor a monitor már a második képből folytatja a megjelenítést. Tehát ebben az esetben pont a kép felénél megjelenik egy törés, mert két félkép van megjelenítve eltérő mozgás fázisban. -
addikt
Tehát a 16,6 ms-es frissítés azt jelenti, hogy a bal felső képponttól a jobb alsóig ennyi időbe telik a pixelek újraírása? Azt hittem ez CRT-knél volt így. Akkor ha jól értem, 60 Hz és 120 fps esetén a monitor felső fele az első képkocka alapján rakja ki a pixeleket, utána meg ahogy bejön a második képkocka, az alsó fele már az alapján lesz frissítve?
Akkor mondjuk 240 fps-nél a legfrissebb információ csak a kép alsó negyedében található? Ami egy fps esetén a talaj? -
FLATRONW
őstag
Nem teljesen érted jól. 240 fps azt jelenti, hogy 4 darab negyed kép lesz egy frissítési ciklusban, 3 törés lesz a monitoron.
Tehát az első kép az első negyedben, a második a másodikban, a harmadik a harmadikban, a negyedik pedig a negyedik negyedben lesz megjelenítve. Az ötödik kép kirajzolásának kezdetetekor már frissít a monitor is és kezdődik elölről a megjelenítés. És így kerül a 237. képkocka újra az első negyedbe és így tovább.[ Szerkesztve ]
-
FLATRONW
őstag
Egy kicsit módosítom a második mondatot, mert félreérthető.
Tehát az első kép első negyede az első negyedben, a második kép második negyede a második negyedben, a harmadik kép harmadik negyede a harmadik negyedben és a negyedik kép utolsó negyede pedig a negyedik negyedben lesz megjelenítve.
-
FLATRONW
őstag
A tripla buffehez nagyon is kell v-sync és a programnak is OGL-nek kell lenni.
Természetesen dupla buffer mellet is lehet az fps szám bárhol 30 és 60 között.
Elsősorban azt kell megérteni, hogy az fps számláló nem a pillanatnyi sebességet mutatja, hanem az elmúlt 1 másodpercben kiszámolt képkockák számát.
Ami számít a végső képkocka sebességnél dupla bufferes v-sync esetén, hogy mennyi időbe kerül egy képkocka kiszámítása.Mondjuk hogyha a GPU minden egyes képkockát 16,7 - 33,3 ms között számol ki, akkor az fps mutató 30-at fog jelezni. Azonban hogyha az esetek nagyon nagy többségében 16,6 ms alatt kiszámolja és csak néhány képkocka kiszámolásához kell több idő, akkor simán mutathat 55-öt is a mutató.
-
addikt
De, pontosan ezt mondtam én is. Így már érthető, csak nem tudtam, hogy ez a frissítés hogy működik.
(#85) FLATRONW
Igen, jól mondod, és ugye ez a triple buffering + vsync lényege, hogy ha minden esetben 16,6 ms és 33,3 ms között van a képkockák kiszámolásának ideje az adott másodpercben, az fps akkor sem esik le 30-a, hanem nyugodtan lehet 55 is. -
Tzoltan21
tag
Eléggé érdekesség ez számomra. Sosem tudtam, hogy a Vsync-nek ekkora jelentősége van. Sosem kapcsoltam be, mert gondoltam a nagyobb fps szám sosem jelenthet hátrányt. Azért van az ha mondjuk 200 fps-el fut egy alkalmazás, hogy aprócska vonalak jelennek meg a monitoron? Nem GPU hibára gondolok itt..
-
addikt
válasz Tzoltan21 #87 üzenetére
Akkor jön ki nagyon durván a dolog, amikor mondjuk földrengés vagy hasonló rázkódás van a játékban és emiatt nagy sebességgel remeg a kép. Akkor az ilyen magas fps-eknél teljesen szétszakad. Pl. a Dead Space 1 elején, ahol az űrhajó remgett és volt 200 fps-em, ott az űrhajó ablakén lévő merevítőoszlopok vízszintes osztások mentén teljesen széttöredeztek. Vagy a Painkillerben, amiben ez a konfig hozott vagy 400 fps-t, egy oszlopcsarnokban kapott el egy földrengésszerű valami és az oszlopok teljesen széttöredeztek ugyaní]y a vízszintes osztások mentén. Annyire irreális látványt nyújtott, hogy muszáj volt bekapcsolnom a VSync-et.
-
FLATRONW
őstag
Az általad linkelt oldalon is szépen leírják a lényeget.
Eleinte az őskorban csak egy buffer volt, de ez valami miatt nem volt jó (gondolom sebesség problémák voltak)
Ezért bevezették a dupla buffert, ami már remek sebességet adott, de képtörés lett az eredménye.
Ezért bevezették a v-syncet, ami megszüntette a törést, de adott esetben a képfrissítés felére csökkentette a sebességet.
És utolsó lépésben létrehozták a tripla buffert, hogy a dupla bufferes v-sync okozta sebességvesztést kiküszöböljék.A következő oldal legalján frissítették a cikket és leírják, hogy az MS nem építette be a DX-be a tripla buffert, cserébe beletettek egy ahead prerenderd frames funkciót, ami 0-8 képkockáig buferrelheti a képkockákat. Azt, hogy pontosan mennyi ez a prerendered frames, azt a mai játékokban a készítők döntik el. Ez általában 3 képkocka. A tripla buffer kikapcsolt v-sync mellet semmilyen előnyt nem ad a duplához képest, ezért nincs is értelme használni és nem is használják.
-
FLATRONW
őstag
válasz Tzoltan21 #94 üzenetére
Nem tudják használni a játékfejlesztők DX alatt a tripla buffert, mert az API nem támogatja. Helyette van a render ahead funkció, aminek ugyanaz a feladata, mint a tripla bufernek csak némileg eltér a működése. A DX-es játékokban a fejlesztők tripla bufferként szoknak hivatkozni a funkcióra, tévesen.
-
AeSDé Team
őstag
Na végre!
Néhány játékban (pl. FarCry 4) nincs limitálva a framerate a menüben, így amikor megnyomom az Esc gombot hirtelen megszűnik a CPU limit, a videokari pedig több száz FPS-t tol ki magából és azonnal felzúgnak a ventilátorok.
Jó lenne erre megoldást találni. -
addikt
válasz AeSDé Team #96 üzenetére
Nem igazán érted, hogy mi az a CPU limit. A menüben sokkal nagyobb az esélye, hogy cpu limites lesz az fps
[ Szerkesztve ]
-
addikt
válasz AeSDé Team #98 üzenetére
Akkor elmagyarázom.
CPU limit akkor jöhet elő, amikor a GPU-nak kevés erőforrást igénylő képkockákat kell kiszámolni (pl. egy régebbi játék kis felbontáson vagy egy játék menüje). A GPU rengeteg fps-t tudna produkálni, de már a CPU nem tudja elegendő mennyiségű adattal ellátni, mert nem elég erős hozzá.
Ez a CPU limit. Hiába raknál a rendszerbe egy 2x olyan erős GPU-t, az sem tudna több fps-t generálni, mert a CPU limitálja az fps-ek számát, az a bottleneck, a szűk keresztmetszet.Amikor játékban vagy pl. egy Far Cry 4-ben, ami rendesen terheli a GPU-t, ott nincs semmilyen CPU limit. Ott a GPU izzad rendesen és a CPU bőven el tudja látni a szükséges adatokkal ahhoz a számú fps-hez, amit a GPU ki tud préselni magából.
Új hozzászólás Aktív témák
- Autós topik
- Elfelejtettem a film címét
- iPhone topik
- Synology NAS
- (nem csak) AMD FX / Ryzen tulajok OFF topikja
- Suzuki topik
- Parci: Milyen mosógépet vegyek?
- Kertészet, mezőgazdaság topik
- bb0t: Gyilkos szénhidrátok, avagy hogyan fogytam önsanyargatás nélkül 16 kg-ot
- Luck Dragon: Asszociációs játék. :)
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Promenade Publishing House Kft.
Város: Budapest