Hirdetés
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Távol-keleten debütált az LG 17 hüvelykes, hordozható monitora
- ZIDOO médialejátszók
- AMD Navi Radeon™ RX 9xxx sorozat
- Apple MacBook
- Azonnali informatikai kérdések órája
- Rendkívül ütőképesnek tűnik az újragondolt Apple tv
- Amlogic S905, S912 processzoros készülékek
- Nem indul és mi a baja a gépemnek topik
- 30 évre csökkentette lemaradását a litográfiai eszközök területén Oroszország
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
katt777 #52260 üzenetére
"Önmagában a lapozófájl hiánya 6GB+ RAM-nál nem akadályozhatná meg egyetlen játék futását sem, ilyen esetben legtöbbször a játék kódjában van a hiba, ritkábban a VGA driverben." - ezt írtad. A VGA driver ebbe nem szól bele.
Halál mindegy, hogy a vinyón hogyan van tárolva a lapozófájl. Attól még az logikailag egy egész virtuális memóriát alkot, aminek van egy teljes címtartománya. Itt a probléma az, hogy a PC-n az operációs rendszer felel az allokációért és mivel az egyes gépek eltérők, így túl sok specifikus optimalizációra sincs lehetőség. A teljes biztonsághoz szükséges a lapozófájl, mert nélküle egyszerűen leállhat akármelyik futtatott program vagy OS szolgáltatás, ami furcsa rendellenességeket okozhat a gép működésében.
-
Abu85
HÁZIGAZDA
válasz
katt777 #52257 üzenetére
A grafikus drivernek az ég világon semmi köze a lapozófájlhoz. A lapozófájl főleg azért van, hogy biztosítsa akkor is a stabil működést, ha elfogyott a fizikailag létező memória. Ez a PC-n szükséges, mert hiába van több GB-nyi memóriád abban egy idő után összetöredezik az allokáció, vagyis az egyes nem használt blokkok helyére lehet, hogy nem fér be új blokk. Ilyenkor előfordulhat, hogy elfogy memóriád, még ha széttöredezve van is egy csomó felszabadítható hely, de neked az a hely egyben kell és nem töredezetten. Ilyenkor a lapozófájl segít, hogy a futtatott program nem álljon le.
-
Abu85
HÁZIGAZDA
válasz
csabi0805 #51343 üzenetére
Ezeket a tuning okozza. Akkor is ha gyári tuningról van szó. Technikailag hibás a kártya. Az órajel visszavételével el fognak tűnni.
(#51344) Zsébernardo: Azokkal nem ér el semmit. A régi Catalyst azért lehet jó, mert a shader fordító nem csinál olyan hatékony kódot. Ettől még a tuning miatt ezek a hibák elő fognak jönni később. A gari, vagy az órajel visszavétele a megoldás.
-
Abu85
HÁZIGAZDA
válasz
#00137984 #50052 üzenetére
Nem erre gondoltam. Más hardver is okozhat hibabejegyzést a driveren keresztül. Akár szoftver is. Például a CPU-t a Catalyst vezérli (xy beállításokkal), ha AMD.
A 13.9 igazából szinte semmiben nem különbözik a 14.1-től. Utóbbihoz pedig van Mantle. A 14.4 lett átalakítva.
-
Abu85
HÁZIGAZDA
válasz
#00137984 #50047 üzenetére
A DDU az nem az AMD programja. Ugyanolyan hibákat csinál, mint a driver sweeper. Én ezeket sosem használtam, és úgy nincs hibám, hogy a gépen van GeForce és Catalyst driver is. A Win 7 az két éve van fent. Nagyjából kéthetente frissítek drivert, ezen belül is nem betesztelt dev verziókat is.
-
Abu85
HÁZIGAZDA
válasz
#00137984 #50043 üzenetére
Próbáld meg újratelepíteni a gépet. Két hete volt itt az ismerősöm, aki hasonló problémával küzdött, mert meg volt áldva a driver sweeperrel. Próbáltam rendbehozni, de nem sikerült. Újratelepítés után jó lett. Azóta nem engedem, hogy használjon pucolót (mondtam, hogy a következő kör nem lesz ingyenes
).
-
Abu85
HÁZIGAZDA
válasz
katt777 #50014 üzenetére
Kérlek mesélj. Vetítsük le a D3D driverre.
Semekkora galibát nem okoz. Nekem három éve ottmaradnak, ráadásul az én gépemben van NV és AMD is. Tényleg csak arra kell ügyelni, hogy elfogadjuk, hogy azok a rendszerprogramozók, akik ezeket írják okosabbak, és ha már ezt beláttuk, akkor el kell olvasni, hogy őt hogyan javasolják a frissítést.
A lassulásokat kimutatta már egy független tesztoldal? Csak úgy kérdem, én pont gyorsulásokat tapasztalok időről-időre, de hátha valakinek volt már szerencséje lassuláshoz is és ezt megosztotta egy komplett cikkben.
-
Abu85
HÁZIGAZDA
válasz
#00137984 #50011 üzenetére
A driver észleli, hogy első, vagy sokadik telepítés lesz. Ha elsőt észlel, akkor felrak mindent, ha sokadik, akkor felesleges a korábbi bejegyzéseket felül írni.
Az NVIDIA teljesen más bejegyzéseket használ. Az ég világos semmi sem történik. Sőt, a két driver egymás mellett teljesen jól elvan. Én egyszerre használok GeForce és Radeon VGA-t is, és egyszerre képesek programot futtatni.
Az egyetlen dolog, amire ügyelnem kell, hogy ne akarjak okosabb lenni az NV-nél és az AMD-nél. Ha ezt betartom, akkor nincs semmi gond. -
Abu85
HÁZIGAZDA
válasz
#00137984 #50009 üzenetére
Nincs ilyen csere. A shader fordító az egyetlen dolog, amit univerzálisan fejlesztenek. A többi az rutin, amiket nem cserélnek, maximum újakkal egészítenek ki. Tulajdonképpen ezek évek óta nem változtak, már ami bekerült. Nincs is értelme azokhoz nyúlni, hiszen teszi a dolgát.
Nem kell letörölni mindent. Hatalmas tévhit, hogy az összes bejegyzést el kell távolítani. Azt kell letörölni, aminek a helyére biztosan kerül új bejegyzés. Ezért nem szabad használni driver pucolót, vagy ha használsz, akkor az AMD sajátját, mert az tudja, hogy mit nem szabad babrálni.
Tipikus probléma ma a PC-vel, hogy a felhasználó okosabb próbál lenni az adott termék szállítójánál, és fel sem merül, hogy xy szoftver esetleg szándékosan nem távolít el valamit a PC-ről, vagy hasonló. -
Abu85
HÁZIGAZDA
válasz
katt777 #50000 üzenetére
Jaj. Nem igazán érted, hogy a driver miből áll össze.
A shader complier fejlesztése mindenre előnyös hatással van. Maximum, akkor hátrányos, ha architektúraváltás történik, mert ilyenkor az új architektúra kerül előtérbe, de ez mindenhol így van. Ilyenkor a régi architektúrára már nem történnek fejlesztések.
A régi programokra a profilok megmaradnak.És a QA? Vagy úgy gondolod, hogy csak átírják a kódot és mehet is ki? Nem, azt igen sokáig kell tesztelni. Ezek éves szinten dollármilliós összegek. Nem titok itt, az AMD nagyjából 150-170 milliót költ évente driverre, vagy ehhez kapcsolódó fejlesztésekre. Ennek nagy része QA, ami érhető. A kódot beírni kevesebb idő, mint tesztelni azt. A specifikált kódok nagymértékben növelnék a kiadásokat. Előnye semmi.
-
Abu85
HÁZIGAZDA
válasz
katt777 #49998 üzenetére
Nem hiszem ezt. Nem logikus egy driverre 130 millió dollárral többet költeni évente, csak azért, hogy személyesen veled kibabráljanak.
Fogalmatok sincs, hogy mekkora QA költsége van ezeknek a fejlesztéseknek, és ha jobban szegmentálják a driver funkcióit, akkor a QA költségek drasztikusan nőnek. Ezért is láthatod azt az AMD-nél, hogy a 14-es driverektől a szegmentálás csökkentése a cél, hogy csökkenhessenek a QA költségek.
Az a baj, hogy az átlagember elgondol valamit, és azt mondja, hogy mennyire reális az előző generációból pár terméket lelassítani, de utána már nem gondolnak, hogy egy ilyen dolog, mekkora extra kiadás a driver fejlesztésénél. Ráadásul nem is szükségszerű, hiszen a júzer úgyis vált az új programok miatt, illetve a shader fordítót sem a régi hardverekre szabják. -
Abu85
HÁZIGAZDA
válasz
#00137984 #49975 üzenetére
De mit akarsz korlátozni? Bizonyos dolgokat limitálni nem nehéz, de tudod milyen mértékű QA a különböző módokat kitesztelni? Hol éri meg egy driver elkészítésére kétszer annyit költeni, amikor feleannyiból is kihozható. Az avultatás a felhasználók baromsága, amolyan legenda, mert fogalmuk sincs arról, hogy mekkora extra pénzmennyiség bevonását jelenti az, ha ugyanazokat a VGA-kat megkülönböztetik driverben. Ez nagyon nem éri meg senkinek. Főleg az AMD-nek, mert nekik éves szinten nem 170, hanem 300 millió dolláros kiadást jelentene. Miért is lenne érdek bevállalni ezt?
(#49979) Zsébernardo: Ez a baj, hogy driver sweepert használsz. Az AMD egy szóval sem említi, hogy azt használni kell. Sőt, legtöbbször könyörögnek, hogy ne használjátok, mert olyan dolgokat töröl le, amit nem lenne szabad.
-
Abu85
HÁZIGAZDA
válasz
katt777 #49973 üzenetére
Bullshit az avultatás mindkét oldalon. Nem létezik csak a legendákban. Az AMD-nél nehéz is lenne megcsinálni, mert a 14-es generáció driverei már nem a terméknevek, hanem a GPUID alapján azonosítja a hardvert, vagyis képtelenség úgy lecsökkenteni a 7000 sorozat sebességét, hogy ne csökkenjen vele az Rx 200 sorozat sebessége. A driver detektálási rendszerében nem különbözik mondjuk a HD 7850 az R9 270-től.
-
Abu85
HÁZIGAZDA
Nem az enyém, hanem a PC Partneré a mérés, de pont egyeznek a beállítások. Maxon a 7870 alapon 58 fps-re képes. A GI-t és az AL-t kikapcsolva 65-re.
Van százalékos levezetés is, hogy az architektúráknak mekkora mínusz a GI és az AL:
GCN - 10-12%
GK110 (Titan) - 18%
Kepler többi - 32-45%
Fermi - 18-20%
TeraScale 2 - 17-22%
Gen7 (HD Graphics 4000) - 17% -
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
szasanyi #15540 üzenetére
Minden Gaming Evolved játékban jobb a GCN a vele azonos árú Keplernél. Pár játékban sokkal. Azzal nem tud mit kezdeni az AMD, hogy ezt nem látod. Igazából nem tudom mi az elvárás? Az új Hitmanben a HD 7950 elveri a GTX 680-at. A Far Cry 3-ban ott van a nyakán. Ehhez képest a GTX 680 annyiba kerül, mint egy HD 7970 GHz Edition, ami az előbbi programban 27, míg az utóbbiban 15 százalékkal gyorsabb. Ezért lenne érdemes tisztázni, hogy azonos áron milyen előnyt várnál el? A HD 7950-től is az elvárás a kérdés. Ennek az ára a GTX 660 Ti szintjén van. Az említett Gaming Evolved játékokban ezt a kártyát állva hagyja, a GTX 680-nal versenyez teljesítményben. A Hitman esetében tudok neked konkrét eredményt is mondani: HD 7950 42 fps, míg a GTX 680 37 fps. A Far Cry 3-ból is van guide-om, de ott még jönni fog patch. Az 1.04-es is folyamatosan cserélt le shadereket gyorsabbakra. Erre megint új driver kell majd mindkét oldalon. Ezzel a játékkal a fejlesztés közben gond volt. Szeptemberben még TWIMTBP cím volt, majd októberben mentek az AMD-hez, hogy rakja már össze. Ezért lett Gaming Evolved cím, csak ugye az AMD kapott két hónapot a shaderek optimalizálására. Jellemzően fél év is kevés, szóval marad a patch-elés, mint lehetőség.
-
Abu85
HÁZIGAZDA
válasz
Kroni1 #15528 üzenetére
A legtöbb natív sztereó 3D-t támogató játékot az AMD Quad Buffer SDK-jával csinálták. Ezért működik Windows 7 mellett is. Viszont ennek a hátránya, hogy a 3D Vision licenceket a játékfejlesztők nem fizetik ki, így az NVIDIA támogatása nem lehetséges az AMD Quad Buffer SDK-jával. A DirectX 11.1 SDK-ja általános, kötelező a támogatása, illetve nem lehet a fejlesztőket fizetésre kényszeríteni ahhoz, hogy a hardveren fusson a sztereó 3D. Ebből a szempontból ez lesz az igazán általános megoldás.
-
Abu85
HÁZIGAZDA
válasz
adamssss #15523 üzenetére
Quad buffer támogatást igényel. Gyakorlatilag ez minden frissebb grafikus driverben van. Azokban a játékokban működik, amelyek a DX 11.1 sztereó 3D SDK-jával csinálják a támogatást. Ott gyakorlatilag az egész keretprogram bele lesz építve a játékba. A beállításoknál ezt majd külön lehet állítgatni. Úgy képzeld el, mint az Avatar játékot, vagy a Dirt 3-at, illetve a Deus Ex: HR-t. Ezek már ma natívan támogatják a sztereó 3D-t. Van még pár, de nem jutnak eszembe, ezek alapján be tudod lőni, hogy milyen lesz.
-
Abu85
HÁZIGAZDA
válasz
adamssss #15519 üzenetére
A sztereó 3D a Windows 8-cal eleve megoldódik. Ott a DirectX 11.1-ben a fejlesztőkörnyezet, amivel minden játékhoz natív támogatás készíthető. Csak quad buffert támogató drivert igényel, de keretprogram nem kell. Mindennel kompatibilis, mindenen ugyanolyan és ezzel mindenki örül.
Szerk.: A DirectX 11.1-es API kell hozzá, de bármilyen minimum DX10-es VGA-n működni fog. Gyakorlatilag a Windows 8-hoz van kötve, de komolyabb hardveres követelménye nincs. Persze a VGA-n a kimenetnek tudnia kell a sztereó 3D-hez szükséges sávszélességet. Ez valamennyire limitáló, de számos DX11-es VGA megfelelő. A ma kaphatók közül szinten mindegyik.
-
Abu85
HÁZIGAZDA
válasz
szasanyi #15497 üzenetére
Mindegy, hogy mit tud a Kepler, vagy a GCN. A forward+ lighting nem azért került a DiRT Showdownba, mert a Codemasters ki akart bacni az NV-vel, hanem azért, mert szükségük volt rá, hogy hatékonyan kezeljenek egy rakás pontfényforrást. Bármennyire hihetetlen ebből a Kepler és minden más architektúra profitál, és nem csak a GCN. Persze a GCN-en a leggyorsabb, de a fejlesztő azt fogja nézni, hogy a forward+ lighting a hagyományos forward renderhez képest többszörösen gyorsabb. Ezzel már neked jót csinált, mert nem 4-5 fps-sel fut a játék, hanem 30-40-nel.
A deferred rendereknek is megvannak a nyűgjei. Például az MSAA. Mit kínál rá az AMD? Egy compute shaderes MSAA-t, ami először elemzi a képet, majd kijelöli, hogy hol van értelme futtatni a deferred MSAA kódot. Ez is a GCN-en a leggyorsabb, de a fejlesztő megint azt fogja nézni, hogy nagyjából ugyanolyan jó eredmény mellett az elemzős megoldás 10-70%-kal gyorsabb mindenen, függően a képkockától. Ezzel megint neked csináltak jót.
Ugyanígy a legnagyobb probléma ma az átlátszóság kezelése. Régen nem volt ez gond, mert forward render mellett nincs kivágva a felület, így azok le lesznek renderelve. Deferred renderrel egy ablak mögül még azelőtt eltűnik a poligon, mielőtt kiderülne, hogy az az ablakból látszik. Ilyenkor kell egy speciális rutin, hogy az jól legyen megjelenítve. A fejlesztőnek sorrendbe kell rakni az objektumokat, így jól visszakövethető, hogy mi az ami látszani fog, de kivágta a render. Aztán lehet renderelni és ennyi. Persze ez még mindig nem problémamentes. Ilyen hibák előfordulhatnak, ha nem tökéletes a sorting. [link] - látható, hogy az elől lévő ablaknál, ahol a csaj ül a gép ajtaja nincs kirajzolva, de a másik ablakban meg ki van. Alternatíva az OIT, itt nem számít a sorrend, mert az elv, hogy ne legyen felállított sorrend. A GPU compute shaderrel meghatározza, hogy mi látszik és mi nem. [link] - ezzel a gond megszűnt. A deferred render motorokhoz az AMD már kínál egy forward+ tack-on algoritmust OIT-vel, ami sokkal jobb ezekben a szituációkban, mint rendezgetni, majd esetleg hibát keresni a rendezésben, ha nem jó. OIT-vel még a dizájn szabadság is sokkal jobb lenne. [link] - az ilyen komplex helyzetek bármiféle komoly odafigyelés nélkül leképezhetők, mert az algoritmus figyel a problémákra. Itt sem azt fogja nézni a fejlesztő, hogy jaj ezt compute shaderben megoldva fájni fog a Keplernek, hanem azt, hogy jobb lesz a grafika, megmenti magát sok limitációtól, illetve általánosan gyorsabb megoldás minden hardveren.
Ezek a problémamegoldásról szólnak. Van probléma? Nagyon is. Van megoldás? Jelentős részükre igen. Gyorsabb minden hardveren a megoldás? A tradicionálisnak tekintet megvalósításoknál az. Innentől kezdve a Kepler és a GCN viszonya fel sem merül. Mindkét architektúra profitál ezekből, csak a GCN jóval többet. -
Abu85
HÁZIGAZDA
válasz
Chapel #12371 üzenetére
Nem. A HDAO az AMD-nél is lassabb, mint a HBAO. A számításigényben van az eltérés, így a HDAO mindig lassabb lesz, de a valósághoz közelebb álló képet ad. Már amennyire ez lehetséges egy kamera szemszögéből dolgozó AO-val.
Az AO az létezik olyan formában is, hogy a valóságot tényleg szépen reprezentálja, de annyira nagy az erőforrásigénye, hogy jelenleg csak screen space formában érdemes implementálni egy játékba. Ez csak szimulálja a valósághoz közeli hatást, viszont azt nézik itt a fejlesztők, hogy az eredmény így is elég jó (főleg HDAO-val).
-
Abu85
HÁZIGAZDA
Sokban függ attól a helyzet, hogy milyen kódról van szó. A compute shadert azért alkalmazzák, mert lehet egy architektúra akármilyen gyenge bizonyos szempontból a helyi adatmegosztás összességében még mindig sokkal előnyösebb, mintha egyáltalán nem lenne.
Abból a szempontból senki sem vizsgálja meg az egész témát, hogy a compute shader a Kepleren is gyorsít. Az egész futószalagnak az a dolga, hogy gyorsítson. És ez igaz a komplex kódokra is. Az lehet, hogy a GCN a komplex kódokat alig érzi meg, míg a Kepler nagyon, de azt veszi figyelembe a fejlesztő, hogy még így is sebességet nyert minden egyes hardver a compute shader bevetésével.
A DiRT Showdownt sokszor fel lehet hozni példának, amikor ezeket a helyzeteket elemzed. Meg lehet azt csinálni, hogy a tradicionális forward renderbe is beraksz annyi pontfényforrást, amennyi forward+ lighting mellett van. Az eredménye 2-4 fps lesz a leggyorsabb kártyákon is. Forward+ lighting mellett hiába gyengébb a Kepler, mint a GCN, akkor is jóval gyorsabb a forward+ lightinggal kapott sebesség a teoretikus 2-4 fps-hez képest. Ezért építünk a compute shaderre. A legtöbb effekt esetében a hátraarc a Kepler teljesítményének az esését is magával hozza, ahogy az összes többi terméknél. A fejlesztő jellemzően nem fogja mérlegelni, hogy miképp hat a compute shader a Keplerre. Ha gyorsít, akkor nincs miről beszélni, mert a Kepler tulajok is gyorsabb játékot akarnak. Ez maximum az NVIDIA-t érdekli, mert nekik kedvezőbb a lassabb render/effekt, ha a GCN és a Kepler között kisebb lesz az eltérés. De egy fejlesztőnek viszont mindig a gyorsabb effekt/render a kedvezőbb az adott elgondolásra, és az számukra érdektelen, hogy a GCN esetleg sokkal többet gyorsul tőle. -
Abu85
HÁZIGAZDA
válasz
Alpachino #5773 üzenetére
Nekem aztán mindegy, hogy ki mit vesz. Elégszer ki lett tárgyalva, hogy mi a GCN és mi a Kepler. Ez alapján lehet dönteni.
Az a nem mindegy, hogy jönnek a vádak, hogy mit képzelünk, amikor berakjuk az új játékokat a tesztekbe, mert az a Keplernek nem jó ?! ...
Természetesen mi is tesztelhetünk DX9-es és két éves játékokkal, ahogy még sokan teszik, de szerinted melyiknek van több értelme? A legújabbaknak, vagy a régieknek? -
Abu85
HÁZIGAZDA
válasz
Alpachino #5770 üzenetére
Amit a játékban be sem tudsz állítani, ugyanis a program compute shadert használ, vagyis nincs olyan, hogy 4xAA.
(#5771) kovsol: Hogyne számolna mást. Driverből MSAA-d van. Azt ugyan a bedrótozás leszámolja, de nem lesz eredménye, mert deferred render a motor. Ezért van a játékba egy háromfázisú komplex AA építve, mert az MSAA az szart sem ér. Az egyes beállítások a fázisokat kapcsolják be. Első az FXAA, aztán az SSAA+FXAA, aztán az SSAA+FXAA+MLAA(irányított). A post-process AA-k compute shaderből mennek. Ráadásul SSAA mellett mindegyik mintavételre. Ez egy egyszerű módja annak, hogy ha valami erős computeban, akkor kihozd belőle az előnyt. Az FXAA-t sem viccből tolja az AMD. Többet számol az MLAA-nál, vagyis nagyobb lesz a különbség a GeForce és a Radeon között. Valószínű, hogy a Sleeping Dogs AA-ja szándékosan van, így alakítva. Megmagyarázható persze minden fázis, mert kiegészítik egymást, de a felbontás négyszeresén két post-processt letolni luxus.
-
Abu85
HÁZIGAZDA
válasz
Alpachino #5767 üzenetére
Nem akarlak meggyőzni, csak annyira felületesen vizsgálják az emberek a teszteket. Közben minden információt leközlünk, például azt, hogy mit hol mérünk. Persze azt a részt mi választjuk ki, de a BF3 esetében leírtuk, hogy hogyan választottunk. Mivel az egyes pályák között 30 fps különbség is van, így megkérdeztük a DICE-t, hogy hol terhel a legjobban a játékuk. Valahogy nem érzem, hogy ezzel hibát követtünk el.
(#5768) kovsol: Nincs értelme a CPU-tesztekkel annyit törődni. Amint felrakod a beállítást Full HD-re, rögtön egymás mögött sorakoznak a procik.
(#5767) Alpachino: Mivel az élsimítást csinálják bonyolult DirectCompute formában, így az AA off mellett a Kepler nem kapja meg a büntit. A játékon belül kell bekapcsolni az élsimítást, és akkor az már erős különbséget ad.
-
Abu85
HÁZIGAZDA
válasz
Attix82 #5762 üzenetére
Azt mondod, hogy ne teszteljünk a legújabb DX11-es játékokkal, mert erősen a GCN-nek kedveznek? Ez valami mániád lett. De nem tudom, hogy hol a gond. Márciusban a Kepler tesztben leírtuk, hogy a Keplernek gondja lesz a compute hatékonysággal. Akkor persze nem volt rá példa, de ettől még látszott. Azóta érkezett 5 darab DX11-es játék, ami erősen igényli a compute hatékonyságot. Most mit csináljunk? Ne teszteljük egyiket sem, mert a Keplernek ez nem fekszik?
(#5763) Alpachino: Hihetetlenül nehéz belegondolni, hogy megkérdeztük a DICE-t, hogy melyik a játékuk legmegterhelőbb része. Ők azt mondták, hogy a Going Hunting küldetés eleje. Azzal mérünk.
A számításigényes játékokra pedig: A DiRT Showdown mellett mér érkezett a Sleeping Dogs, a Sniper Elite V2, a GR: Future Soldier és a Nexuiz. 5 játék három hónap alatt, ami erősen számol. A fejlesztők sem hitték, hogy a Kepler visszalépés lesz a Fermihez képest.
Mindenki csak a DiRT Showdownnal jön, mint egyetlen példa. Nyissátok ki a szemetek. Ez csak egy példa. Azért kap akkora figyelmet, mert sokkal rosszabb benne a Kepler, mint a GCN, de ezt is megmagyaráztuk. Ellenben a többi számításigényes játékban sem erős annyira a Kepler. A GR Future Soldierben a GTX 680 a Radeon HD 7870 szintjére képes ... Nem muszáj trendről beszélni, de jelenleg több DX11 játék erre megy, és azzal, hogy az AMD a következő fél évben hat AAA játékra kötött szerződést, eléggé megnyomható a compute vonal. -
Abu85
HÁZIGAZDA
válasz
DroiDMester #3230 üzenetére
A Flash és a böngésző GPU-s gyorsítása két külön dolog. Ha az egyiket kikapcsolod, attól a másik még működik. Akkor nem megy a Youtube, ha a felület HTML5-ös. Oda a böngészős gyorsítás kell.
-
Abu85
HÁZIGAZDA
válasz
katt777 #1343 üzenetére
A PCI Express 3.0 teljesen felesleges lesz még évekig. Ahol az adatátviteli teljesítmény számíthat az a HSA kompatibilitás, de ahhoz 2013-as AMD Kaveri APU kell és HD 8000-es VGA. Ahol még számíthat az a PRT szolgáltatás a GCN-es Radeon HD 7000-en, de ez két kiterjesztésből tevődik össze, és a pinned memory kiterjesztés csak akkor működik teljes funkcionalitással, ha az adott AMD-s platform támogat IOMMU-t. Ha ez nincs, akkor a megatextúrázás hardveres támogatását kénytelen máshogy működtetni a driver. Ebből kifolyólag Intel rendszeren, vagy IOMMU-t mellőző AMD-s konfigon máshogy működik a PRT. Nagyjából ez az a két tényező, ahol lehet valami előnye a PCI Express 3.0-nak. De sokra itt sem érdemes számítani. A fejlesztők szándékosan kímélik a felületet, mert nagyon sokat lehet veszteni rajta. Nyilván nem véletlen az, hogy a gyártók a nagy PCI Express 3.0 marketing során csak grafikonokat rajzolgattak, de sosem mutatták meg, hogy mi a valós előnye. Ez azért történt így, mert nem lehet kimutatni.
Attól függ, hogy a portok hogy voltak bekötve az alaplapnál. Nem mindegyik van a fő vezérlőre kötve. Ha az egyik a vezérlőhíd vezérlőjén van, akkor az egy lassító tényező. De nem a csatornák száma lassít, hanem a vezérlőhíd és a processzor közötti összeköttetés.
-
Abu85
HÁZIGAZDA
válasz
akela91 #1324 üzenetére
Persze, hogy marad, mert így van beállítva. A kártya dobálja a feszültséget is. Ha alulfeszeled, akkor a megfelelő működést korlátozod. A HD 7850 nem olyan egyszerű szerkezet, mint a korábbi megoldások. A régebbi generéció tartalmazott túlterhelésvédelmet (már ami ugye ... Radeon HD 5000-6000 és a GeForce GTX 590 ... a többi még ennyit sem tudott), illetve beállított profilból váltogatta a feszültséget és az órajelet. A HD 7850 sokkal bonyolultabb, mert van PowerTune, power gating, illetve a kártya minden védelme teljesen hardveres. Ezért nem tudják a programok alulfeszelni, mert a hardver ezt felismeri és beállítja a BIOS-ban található értéket. Erre azért van szükség, mert a PowerTune normál működéséhez ez kell. Ha alulfeszeled, akkor csökken a TDP limit, és ezzel a kártya elkezdi az órajelét működés közben csökkenteni, hogy beférjen a TDP limitbe. A termék másodpercenként képes órajelet váltani, hogy sose fogyasszon többet. Ezért lehet az új Radeonokat extrém mód tuningolni. Én felhúztam a sajátomat 870-ről 1100-ra és le sem fagyott, pedig ment rajt a mark 3 órát, de aztán ha nézed az órajelet, akkor nincs az állandóan 1100-on. Ha a védelem úgy érzékeli, hogy fennáll az instabil működés veszélye, akkor önhatalmúlag visszaveszi az órajelet, amivel jó eséllyel megelőzi a fagyást. Általában 1050-1070-re ugrott vissza, de volt amikor 1000-re. A rendszer hardverből úgy van kalibrálva, hogy minden eszközzel előzze meg a lefagyást. A régi termékeken ilyen nem volt, így azok egyszerűen megfagytak.
Szóval a feszültségeket csökkenteni ezeknél felesleges. A Radeon HD 7000 sorozatnak annyira modern a működése, hogy a régi VGA-tuningos dogmákat el kell felejteni. Ez a termék, felülbírálja a beállításaidat, ha azok nem stabilak. Ha a fogyasztás csökkentése a cél, akkor azt PowerTune csúszka mínuszba tolásával érheted el. -20%-on garantáltan 20 wattot spórolsz. -10%-on 10 wattot ... és így tovább. -
Abu85
HÁZIGAZDA
válasz
katt777 #1339 üzenetére
A PCI Express semmit sem ér, ha nem használják. 8x PCI Express 2.0 elég minden mai GPU-nak. Ennek az az oka, hogy a port használatát minimalizálják a fejlesztők, mert az adatátvitel lehet, hogy nő, de a késleltetés egy helyben toporog. Nagyjából 300-400 ns között, függően attól, hogy mennyire távol van a PCI Express port a vezérlőtől. Nyilván a legfölső port rendelkezik a legkisebb késleltetéssel.
-
Abu85
HÁZIGAZDA
válasz
csucsbicep #977 üzenetére
Hirtelen döntés volt. Megrendelés után méregettem.
(#978) szasanyi: Nem rajongok jelenleg a Giga holmikért. Régen nagyon szerettem őket, de manapság túl sok velük a probléma. Lehet, hogy kifogsz egy jót, de lehet, hogy szívsz. Az ASUS jobb opció.
Szerintem az AMD akarja a HD 7870 felé tolni az embereket. Nekik ez most jó üzlet. Amíg nincs tényleges konkurense a HD 7850-nek, addig lehet játszani az ellátással, ezzel stratégiailag úgy alakítani a piacot, ahogy az kedvez a cégnek.
7870-ből van elég. 7850-ből van kevés. -
Abu85
HÁZIGAZDA
válasz
KaiotEch #973 üzenetére
Annyira az én hangtesztem nem lenne meggyőző, mert van hangosabb venti a kártyáénál. De meglepően halk. Mondjuk 130 wattot fogyaszt, ami azért annyira nem sok.
Igazából nem tudom. Az ASUS volt és a Giga. Nyilván ebből az ASUS-t veszem. Főleg, hogy olcsóbb volt. Ha van MSI, vagy Sapphire, akkor lehet, hogy nem ASUS lett volna, de ez az ártól is függött volna.
(#975) sysrq: Nem csak XP-t. Van Win 7 is. Mivel dobozos OS-t szoktam venni, így ha már fizettem érte egy valag pénzt ... használni is szeretném. Ezért van még telepítve az XP. Gond amúgy nincs ... használom a Win 7-et. Csupán furcsa volt, hogy nincs még XP driver.
(#974) csucsbicep: Mák, hogy befért a házba. A méretén kívül tényleg szuper a hűtő.
-
Abu85
HÁZIGAZDA
Beszálltam egy ASUS HD 7850 DirectCU 2-vel. Sok választásom nem volt, mivel ez és a Giga van az országban. Eddig jó. A hűtő korrekt bár szerintem nagy egy ilyen kártyára, de a dolgát kifogástalanul végzi. Tuningnak nem mentem neki, mert nem volt időm. Az viszont zavar, hogy csak három nap múlva lesz a Windows XP-re driver. Piros pont viszont, hogy a ventik szabályzása megy a Cata overdrive-ból is.
Új hozzászólás Aktív témák
Hirdetés
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Távol-keleten debütált az LG 17 hüvelykes, hordozható monitora
- ZIDOO médialejátszók
- AMD Navi Radeon™ RX 9xxx sorozat
- Apple MacBook
- Futás, futópályák
- Ezek a OnePlus 12 és 12R európai árai
- Azonnali informatikai kérdések órája
- Formula-1
- Samsung Galaxy S25 - végre van kicsi!
- További aktív témák...
- MSI RTX 4070 Ti SUPER 16GB GDDR6X SHADOW 3X OC - Új, 2 év garancia - Eladó!
- Gainward RTX 4070 Ti Super 16GB GDDR6X Panther OC - Új, 2 év garancia - Eladó!
- GIGABYTE 4070 Ti SUPER 16GB GDDR6X WINDFORCE MAX OC - Új, 2 év garancia - Eladó!
- ZOTAC RTX 4070 Ti SUPER 16GB GDDR6X AMP HOLO - Új, 2 év garancia - Eladó!
- Zotac RTX 3070 amp holo 8GB
- Azonnali készpénzes Sony Playstation 5 lemezes és digitális felvásárlás személyesen/csomagküldéssel
- Apple iPhone 14 128GB, Kártyafüggetlen, 1 Év Garanciával
- Xbox Ultimate előfizetések
- BESZÁMÍTÁS! MSI PRO Z690 i7 14700K 64GB DDR4 2TB SSD RTX 3070Ti 8GB Fractal Design Meshify C CM 750W
- Samsung S9 Plus 64GB Fekete / Normál állapotban / 12 hónap jótállással
Állásajánlatok
Cég: Laptopszaki Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest