- Kábeleket és csövezést rejtő "kirakatház" a GameMax logójával
- Felvarrták az Arctic rackmount rendszerekhez szánt CPU-hűtőjének ráncait
- Háromféle kivitelben, és nem kis kapacitásokkal jönnek a Micron 6550 ION SSD-i
- Már a Samsung sem szolgálja ki modern AI lapkákkal Kínát
- Havazáshoz igazított kiadás kap a Steam Deck OLED
Új hozzászólás Aktív témák
-
daneeeeee
aktív tag
Sziasztok!
Egy nagyon érdekes és tanulságos cikk jelent ma meg a HardOCP oldalán.
Tuningolt GTX 980-at hasonlítanak tuningolt R9 290x és GTX 780Ti-hez. Részletes, mindenre kiterjedő cikk érdemes elolvasni!gainwardgs: Szép eredmény! VGA milyen órajelen volt, illetve milyen beállításokat használtál?
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
De. Különösen szeretjük, amikor egy független stúdió komoly kiadói tőke nélkül tartja a lépést a nagyokkal. Sajnos alig van ilyen, de a Rebellion a példa, hogy meg lehet csinálni.
(#2200) FLATRONW: Kérdés, hogy milyen lesz a multi-GPU, mert nem AFR-t akarnak az Asura motorba építeni, ami ezt különösen érdekessé teszi. Erre én is befizetek, mert feladatfelosztásos modellt még nem láttunk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #2206 üzenetére
Például a geometry shader fázisig az egyik hardver dolgozik, míg onnantól a másik. Mintha egy GPU lenne a kettő. Ez akár kombinálható AFR-rel. Vagy az IGP csinálja a geometriát, és a dedikált GPU a többi számítást. Vagy akár két dedikált GPU is megteheti ezt. Sok lehetőség van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #2208 üzenetére
Nem igazán a low-level API a követelménye, hanem az érzékelt GPU-k fölötti teljes kontroll (QoS). Az API absztrakciós szintje nem sokat számít, bár a low-level valószínűleg segít nagyon egzotikus működési modellt tervezni.
A DX-ben azért nincs ilyen, mert az API egy erőforrást detektál, és a mai SLI/CF csak egy szimpla driverhack.
OpenGL-ben van erre egy specifikus megoldás: AMD_gpu_associationSenki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
és hogy lesz ebből jó skálázódás? ha a két GPU között funkcionális egység szintjén osztod meg a feladatokat, akkor maximum annyit tudsz nyerni, hogy az egy GPU-n belüli átlapolás hiányosságait kiküszöbölöd. vagy esetleg kicsit többet, ha minden fázisod shader-heavy.
persze, ha a raszterizációs pipeline-ba is belegyalogolnak traktorral, akkor más a helyzet. netán erről lehet szó?"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Habugi
addikt
Egy kedves fórumtárstól kaptam ezt a linket: [link]
Német tudás hiányában az alsó bench grafikonból tudok csak adatokat kihalászni a cikkből/tesztből és megkell mondjam még ezeket sem értem, azért is dobnám be ide alkalmasabbnak vélt topic híján.
Valaki aki szakmailag jártasabb mint jómagam, érthető módon anélkül hogy csúnyábban bevinne az erdőbe ( ) el tudná nekem magyarázni, mi történik amikor ebben a játékban az ember elkezdi feljebb tolni (felső fülek/gombok..) az SSAA-t?Az utolsó játék amiben láttam/használtam az SSAA-t a Metro LL, 2xSSAA-val játszottam végig maxra húzva, nagyon szépen futott annak ellenére hogy NV-s játék.
A cikk/teszt tárgyát képező játékban pedig látszólag elfogynak az NV kártyák ahogy emelik a SuperSamplinget, de annyira hogy a 3éves Tahiti jobban teljesít mint egy zsírúj 970es Maxwell??
Nem tudom mennyire "Gaming Evolved" a játék, de kizártnak tartom hogy ennyire? Létezik?Esetleg egy, az új Maxwellek képességeit kevésbé/gyengén kihasználó NV driver lehet a ludas?
Szeretem a 280X-et, nagyon elégedett vagyok vele de ez számomra is köbgyök kategória így első ránézésre.
Azt már megszoktam, hogy a 780Ti/290X játékfüggően felváltva verik egymást, de amit ez a teszt mutat az valami új..Eseteg ennyire érzékeny a memória sávszélre??
Még ha az adott oldal (nem ismerem..) pl nagyon húzna is egy bizonyos irányba, ezek az adatok még akkor is túlzóak lennének úgy vélem.
Na.., szóval az egészet úgy ahogy van nem értem.
..játékokban a Depth of Field bizonyos szempontból olyan mint a zöldborsó.., szükség idején valami állat kitalálta hogy ehető...
-
Abu85
HÁZIGAZDA
Az SSAA számít, de nem ennyire, ráadásul eléggé speciális SSAA és TAA keveréket használ a játék.
Igazából ilyen eredményt több tényező együttállása okoz. Valószínűleg az Xbox One shadereit nem sok módosítással hozták át PC-re. Úgy sem tudják hogy működik a Maxwell/Kepler, szóval majd az NV lecseréli őket driverből, ha akarja. A CryEngine is eléggé compute irányba fejlődik. Ezt nyilatkozták is: "We are making heavy use of some DX11 features like Compute Shaders, which however, perform better on some hardware architectures than others, so there will be some noticeable performance gaps between different desktop GPUs." Nyilván a Maxwellnek nem segít, hogy DX11 compute shader mellett az elméleti teljesítményének a negyedét elveszíti, mert a negyedik blokkhoz nem tud 32 kB-os LDS-t rendelni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Fogalmam sincs, de mivel marha sok trükközés lesz a jövőben, így már most érdemes eltávolodni az AFR-től, mert az még low-level szinten sem fog igazán működni. Valószínűleg a Rebellion motorjának a pipeline vágása reális koncepció. Szerintem másnak nem lesz az, de ki tudja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
a 770 és a 280X eredményét nézd. a két kártya hasonló súlycsoport, kicsit a 770 szokott gyorsabb lenni, itt viszont a 280X gyorsabb SSAA nélkül 20%-kal. ennyiben tehát radeon-barát a játék, aminek számos oka lehet - de nem úgy tűnik, hogy a memória-sávszél közöttük van.
4xSSAA mellett az olló nyílik - pixel delivery-ben erősebbek a radeonok, a 4xSSAA pedig 4x annyi pixel. nekem reálisnak tűnik a különbség növekedésének mértéke - a 4K felbontásnak megfelelő beállítás mellett a 290X 20%-kal gyorsabb, ahelyett, hogy valamivel a 980 lenne előrébb. ez összecseng a 770 és a 280X 1920 + noAA eredményénél látottakkal."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
HSM
félisten
Ez a Compute Shaderes limitáció ennyire komoly lehet? Kérdés, ez lesz az "általános" eset, vagy ez inkább a speciális?
(#2215) gbors: Pixel delivery-ben a 290-ek tényleg erősek, de szegény 280X a 32ROP-jával? De tény, hogy az jól látszik, hogy a Radeonoknak kevésbé fáj valamiért a nagyobb beállítás, akár a 280X-nek, akár a 290-nek. Érdekes, hogy amíg a 770 szépen behúzza a féket, a 780Ti kevésbé veszít a tempójából, szépen tartja a lépést a 290-ekkel.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ez a limitáció a DirectX 11-et érinti. Más API-val már nincs meg. Tudtommal a DX12-ben a fejlesztő szabhatja meg az LDS méretét. Maxwellen 16-24 kB-ot ki lehet osztani és kész is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
annyi ROP-ja van a 770-nek is viszont a Radeonoknál a blending egy csomó adattípuson fullspeed, nVidián meg csak INT8 mellett, a többi esetben halfspeed.
az AA nélküli eredményben a high end kártyák platform-limitesek (vagy a játékban van FPS-limit), azt nem érdemes nézni - a 780Ti ugyanúgy "elhullik", mint a többi."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Habugi
addikt
Köszönöm!
Tehát ha jól értem az általad és gbors által megfogalmazott dolgokat, annak lehetősége/valószínüsége hogy XboxOne-ról úgy portolták át PC-re, hogy nem vagy csak kevésbé babráltak bele shaderekbe eredményezheti azt, hogy GCN arhitectúrával jobban jut a(z adott) játék?
Mellévéve azt is, a Cryengine is olyan irányba megy jelenleg, hogy előrebocsátották "egyes architecturákon észrevehető teljesítmény különbség lesz a többihez képest" és a játék is ezzel készült.Ugyanakkor a gyakorlatban ennek nincs sok jelentősége, mert az Nvidia megteheti, hogy adott játékhoz és/vagy adott játékokhoz szépen fogja magát és kiad egy új drivert amivel már nem lesz ilyen szakadék a GCN-es kártyák és a sajátjaik közt?!
Ugyan Ti nem említettétek a GCNt, de feltételezem ez a DX11/Compute Shaders valami miatt jobban megy rajta? Legalábbis a linkelt tesztben ezek az AMD kártyák futnak jobban saját magukhoz képest is.
Tudom tudástár ügyileg nem vagyunk egy súlycsoportban, ezért is kérdeztem úgy ahogy!Itt jön az ami HSM-et is érdekli, hogy ez vajon mennyire lesz/lehet általános a jövőbeli játékokat nézve?
Gondolom az NV-nek a háta közepére hiányzik, hogy minden konzolporthoz új drivert adjon ki.Szerk.:
Közben látom, hogy a Compute Shaderes limitáció DX11 API-hoz kötött, ergo nem fenyeget az, hogy a jövőben általánossá válik, addig lehet csak limitációról beszélni amíg a DX12 ki nem jön.
[ Szerkesztve ]
..játékokban a Depth of Field bizonyos szempontból olyan mint a zöldborsó.., szükség idején valami állat kitalálta hogy ehető...
-
Abu85
HÁZIGAZDA
Persze. Abba gondolj bele, hogy nem is nagyon lehet mire optimalizálni még. Oké, picit optimalizálták Intelre, amit szintén elismertek, de GeForce-ra nem lehet. Főleg nem úgy, hogy a Crytek anyagilag nem áll most stabil lábakon. Nem fognak arra költeni, hogy visszafejtsék a GeForce-ok működését, csak azért, hogy optimalizáljanak rá. Lásd a TressFX, az AMD fél évig optimalizálta Keplerre, és még Maxwell optimalizálást nem is kapott, az még egy fél év. Az is kérdéses, mennyire jogszerű az AMD-nek megosztani a visszafejtés adatait a Crytekkel. Ugye a reverse engineering alapból egy tiltott dolog, de nagyon jellemző, hogy amikor a teljesítményproblémák, vagy kompatibilitási problémák megoldása érdekében történik, akkor a jog szemet huny a "bűntett" felett. Vannak is a törvényben ilyen kivételek. De a reverse engineering adatok továbbadása egy másik félnek már törvénytelen. A Crytek ráadásul nem Gaming Evolved partner a játékokra vonatkozóan. Ezért nincs a Ryse a Gaming Evolved listában, és így például az sem megoldható, hogy az AMD emberei optimalizálják a játékot GeForce-ra, amit például az új Aliennél megtettek.
Ha az NVIDIA akarja, akkor kihasználhatja a törvény kiskapuit, így visszafejthetik a Ryse shadereit és azokat optimalizálhatják, majd driverből lecserélhetik. Ez biztos eredményt ad majd, csak nem egy gyors folyamat. De nem egyszer csinálták már. Ott volt például a Dirt Showdown. Háromnegyed év alatt átírták a shadereket és jóval gyorsabban futott GeForce-on, mint a kezdetekben.A DX11/DirectCompute 5.0 működésével nem nagyon tudnak mit kezdeni. Azt be kell nyelni. Az optimalizálás leginkább felzárkózást jelent majd, hogy a GTX 770 mondjuk ne egy 270X-szel legyen pariban, vagy mondjuk a 280X se legyen a 970 nyakán. Csodát viszont nem lehet tenni, olyat ne várjon senki.
Az architektúra dokumentálása, illetve annak hiánya egy üzletstratégiai lépés. Az NV rá akarja kényszeríteni a fejlesztőket a GameWorksre, csak láthatóan a Cryteket ez nem érdekli, ahogy számos más fejlesztőt sem. Tehát szükség lesz a driveres hackekre, még ha a hátuk közepére is kívánják. Az NV idézi elő a problémát azzal, hogy nem mondják meg a fejlesztőknek hogyan lehet GeForce-ra optimalizálni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Ezek a shader-átírások az egyik oka, hogy messze elkerülöm az Nv VGA-it. Az ilyesmitől feláll a szőr a hátamon. Papíron jól mutat, hogy optimalizálnak, de vajon ez az optimalizálás milyen áldozatokkal jár pl. elsősorban a képminőség terén? Valamint a stabilitás szempontjából sem biztos, hogy 100%-os megoldás, kijön egy patch más shaderrel, akkor pl. mi van? Akkor vagy a játék nem fog hibátlanul futni, vagy a sebesség bukó ismét.
Ez a DX11/DirectCompute5 megoldás nagyon béna lett, sőt, mivel Mantle nekik nincs, így a DX12-től még jó egy évnyire elég buta megoldás. Érthetetlen, miért nem raktak még bele 32kb memóriát, és akkor nem lenne most miről beszéljünk. Mert ez így szvsz brutálisan gáz, hogy egy 3 éves 7970, amit 50-60K-ért dobálnak az ember után az aprón a 180 000 forintos hiperszuper vadiúj GTX980 nyakán lohol.
Hála a jó égnek, hogy nem terjed a GameWorks, valahogy sosem szimpatizáltam a koncepciójával.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A shader átírás nem egyedi dolog. Mindenki csinálja. Az AMD is szokta, ahogy az Intel is. A képminőséget ez nem befolyásolja, mert csak optimalizálás történik. Az NV azért csinálja sűrűbben, mert kevés regisztert építenek a hardvereikbe, így mindenképpen optimalizálni kell az übershadereket, hogy elég regiszter legyen.
Semmi gond, ha egy patch javít a shaderen. Ettől a driver még lecserélheti továbbra is. Ha nem kell, akkor egy új driverben kikapcsolják a cserét.A fogyasztásra gyúrnak, így meg kell hozni az áldozatokat a működésben. Mivel ez csak a DX11-et érinti ennyire durva eredménnyel, ami amúgy is elavult, így ez bevállalható.
Igazából terjed a GameWorks, csak nem ott ahol szeretnék, hogy terjedjen. A legtöbb top stúdió elzárkózik előle, ami érthető, hiszen évekig küzdöttek azért, hogy kiirtsák a rendszerből a fekete dobozokat, erre az NV hoz nekik egy fekete dobozt az új rendszerekhez.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
t72killer
titán
Üdv mindenkinek - talán ez lesz a legmegfelelőbb topic a kérdésemhez:
Starcraft 2-höz keresem az ideális VGA-t, tud esetleg valaki aktuális teszteredményeket? Az igények magasak, FullHD-n 3D-ben is szeretném kipróbálni a játékot (Vision vagy Tridef), illetve idővel lehet hogy beszerzek egy 4kTV-t.A kérdés: AMD vagy Nvidia adja az ideális megoldást? Természetesen a csúcskarik mind2 oldalról gond nélkül viszik az SC-t (bug, microlag, stb témában még nem sikerült minden infót összeszedni) - inkább "okos" megoldást keresek a közép-felső kategóriában (=alacsony zaj és fogyasztás normális áron).
Már hajszál híján megvettem egy GTX 750 ti-t, de azért ez talán kicsit gyenge az elvárásaimhoz - különösen a 128bites busz ütötte ki a biztosítékot, ennél még a laptopomban is nagyobb a sávszél (K3000m, 256bit+2800MHz GDDR5, vs 750Ti: 128bit@5400MHz). Attól tartok, bármi, ami FullHD-nél több (3D vagy 4k) megfektetné.
A gép többi része már itt duruzsol, van benne minden ami kell (i7 4770k, 16GB RAM, SSD - a CPU-hoz nézek még vizet).
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
t72killer
titán
válasz gainwardgs #2226 üzenetére
Nekem is volt egy ilyen érzésem, lévén a notebook-quadróm is elviszi extrém grafikán FullHD-ben a játékot. Kár, h Maxwellből még sovány a választék, lehet mégis meghúzom magam egy 750-nel. Régebbi generációt nem akarok, ki tudja, mi lesz még itt DX12 fronton. (+a Blizz is szereti átvariálni a motorjait, ahogy a HoTS-nál tette)
[ Szerkesztve ]
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
t72killer
titán
válasz gainwardgs #2226 üzenetére
Áhh, verem a fejem a falba: a múltkor kinézett gyári tuningos 750 ti-t olcsóér elvitték . Így viszont amit kaphatnék, az egy árban van az r9 270-nel.
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
ST05
őstag
válasz t72killer #2225 üzenetére
"Attól tartok, bármi, ami FullHD-nél több (3D vagy 4k) megfektetné.
persze, hisz :
"
750ti nemigazán HD vagy affeletti felbontáshoz van kitalálva...( bár már szépen elbánik vele )
Nvidiánál 60 végződésüektől érdemes HD-ra ( ahhoz hogy különösképp ne kelljen a grafikábol visszavenni modernebb játékokkal ) : ez mindig így volt: gtx: 460,560,660,760, most a 960 ugyan nagy ugrás, de biza ez lesz a középmezőnyük... Most nem találom, de ez így fekete-fehéren le is volt írva Nv oldalán !AMD-nél HD-nél kisebbre: 77xx vagy R7..., HD felbontáshoz pedig 78xx / R9-ek.. és ettől felfele.
-
Abu85
HÁZIGAZDA
válasz t72killer #2225 üzenetére
Teljesen mindegy. A Starcraft 2-nél már a Blizard is elmondta, hogy a DirectX limitálja a teljesítményüket. Semmilyen új hardverrel nem lehet megoldani azt a problémát, ami miatt a játék sok egységgel belassul.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
t72killer
titán
Ja, egy GTX 960 nem lenne rossz, csak sok időm nincs várni. Illetve ott az ár kérdése, mit mennyiért...
#2231: "Ezekszerint brutál-szénnéhúzott proci kell alá, gyors ramokkal." - Így igaz!
[ Szerkesztve ]
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
Habugi
addikt
Értem, kösz mégegyszer!
Sok dolog nem volt eddig világos az általad említettek közül vagy szimplán nem is tudtam róluk.
Ilyen például a reverse engineering "gyakorlati" működése és hogy milyen kölcsönhatásban van az NV féle stratégiával, miszerint nem engednek betekintést az artitectúra(ák..) működésébe.Érdekes ez a fejjel a falnak hozzáállás.
Azért annak megvan a maga diszkrét bája amikor egy játék/fejlesztő cég Gaming Evolved listás/partner, ennek okán pedig jogosultak (tudom ez a szó a rev. eng. gyakorlati működésének fényében elég hülyén hangozhat..) Geforceokra is optimalizálni, főleg ha meg is teszik..!..játékokban a Depth of Field bizonyos szempontból olyan mint a zöldborsó.., szükség idején valami állat kitalálta hogy ehető...
-
HSM
félisten
válasz t72killer #2232 üzenetére
Amennyire emlékszem a Starcraft2-re, nem használ 2-nél több magot, tehát a HT csak árthat egy i7-ben. Viszont a szénné húzás az nem 4,3, hanem mondjuk 4,8Ghz környékén kezdődik nálam. Az i5 4690K-mon a 24/7 beállítás a 4,5Ghz, pedig kupaktalanítva sincs és csak egy olcsó léghűtés van rajta....
-
t72killer
titán
A 9es helyett ráálhattak volna valamelyik modernebb DX-re... Főleg a motorcsere (HoTS) után DX 9-korabeli vasakon (=CPU kb P4) amúgy sincs esély futtatni a játékot.
Azért AMD és Nvidia között van különbség, "hivatalosan" egy kategóriába tartozó karik közül valamiért az Nvidiások jobb eredményeket hoznak. Bár nem tudom, hogy áll az AMD jelenleg a profilírással (a linkelt teszt egy éves), ennyi tartalék lehet a driverben.
#2234: Bár én ilyen komplex meccset nagyon ritkán játszom, de tervbe van véve a víz a procira (+a HT-t valszleg kilövöm a BIOS-ban).
#2236: Driver és a karik hőfoka rendben van? Ha nem fontos a masszív teljesítmény, esetleg próbáld visszafogni a karik (GPU+VRAM) órajelét akár a CCC-ben akár MSI Afterburnerben (nem tudom mennyire lehet ezekkel többkaris rendszereken órajelet állítgatni...)
[ Szerkesztve ]
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
danfiu
csendes tag
Hali!
Nem vagyok valami nagy pro videokartya ugyben, de ugy erzem most jott el a csere ideje,elegge felbosszantott az AMD sok hulyesege. Jelenleg 2db R9 270-es vagy 270x es kartyam(oszinte legyek nem tudom hol kell megnezni) es fut 4 monitor (27 es 2560x1440, 2db 30as 2560x1600 meg egy 32 es 3840x2160) es neha kepernyo csikos lesz. Milyen videokartyat tudnatok ajanlani, ami birni fogja ezt a konfigot es a fo kerdes h AMD vagy Nvidia es milyet javasoltok? Vagy maradjon minden igy es valami mas lehet a gond?Jatszani nem szoktam.
Koszi
-
t72killer
titán
Közben kaptam egy ajánlatot egy EVGA GTX 770 4GB Dual Classified w/ ACX-re kb egy új 270x áráért (170€). 270x téren csak egy Sapphire Dual-X-re van kilátás, amit viszont a topicjában eléggé lehúztak. A csendes működés, Blizzard játékokban extrateljesítmény nekem jól jönnne.
Vajon mennyire lesz időtálló/értékálló a cucc a 970 megérkezésével?
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
Laja333
őstag
válasz daneeeeee #2203 üzenetére
Ebben csak az az érdekes, hogy a 780ti-t felrántják 876-ról 1187-re, a 290x-et meg 1050-ről 1120-ra. Csak hogy fair legyen. Aztán eladják az olvasónak "this overclock represents a high overclock for the R9 290X" kikiáltással.
Szerintem a legtöbb 290x felrántható 1200-ra minden gond nélkül, akár CCC-ből is.
Na így már megnéztem volna a különbségeket. -
zack
nagyúr
Sniper Elite 3, 1080p, ultra (minden max-ra húzva), R290X Vapor-X 1150/5850:
Gaberoun pálya, Eliminate and serach Office keys
2014-10-15 20:43:20 - SniperElite3
Frames: 48518 - Time: 830500ms - Avg: 58.420 - Min: 36 - Max: 84
Samsung Galaxy Z Flip5 256GB Platinum Silver (online exkluzív) <<>> Vsonic GR07 + Sony Hi-Res WI-H700 + Sony Hi-Res WI-1000X <<>> Spotify Premium<<>> LG 65" C31LA + LG S80QR 5.1.3
-
zack
nagyúr
válasz Erdei88 #2241 üzenetére
In-game gondoltam ám. De megnézem ezzel is.
Melyik mappában van a bench? Nem találom.
[ Szerkesztve ]
Samsung Galaxy Z Flip5 256GB Platinum Silver (online exkluzív) <<>> Vsonic GR07 + Sony Hi-Res WI-H700 + Sony Hi-Res WI-1000X <<>> Spotify Premium<<>> LG 65" C31LA + LG S80QR 5.1.3
-
HSM
félisten
Na, végre jóféle húzott GTX970/R9 290X tesztek, nemcsak szájkarate. Respect nektek srácok!
[ Szerkesztve ]
-
daneeeeee
aktív tag
válasz Laja333 #2239 üzenetére
Ezek nagyjából átlagos oc-k mind 3 kártya esetén. Amúgy a cikkben benne is van, hogy a 290X és a 780Ti-ből nem tudtak többet kihozni.
Mellesleg most őszintén gondolom olvastad a cikket, az a 80 MHz szerinted mennyit segített volna a 290X-en?A cikk szerint (minden fajta flame nélkül):
"Even when overclocked the AMD Radeon R9 290X cannot touch the performance of the GTX 980 at default speeds. Overclock the GTX 980 and the rest is history, the R9 290X takes the backseat"
Nem is ez az érdekes, hanem a 4k alatt nyújtott teljesítmények. Látható, hogy 512bit és nagy memóriasávszél ide vagy oda az oc-s GTX 980 megevett mindent, illetve a minimum fps-ben is jobb mint az ellenfelei.
-
ÁdiBá
veterán
GTX980 OC 1525/1950Mhz-vel belehet szállni?
Ehhez kell az egész játék, már mint a Sniper Elite 3?![ Szerkesztve ]
ÁdiBá
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Call of Duty: Black Ops 6
- Milyen notebookot vegyek?
- Sorozatok
- Autós topik látogatók beszélgetős, offolós topikja
- Black Friday november 29. / Cyber Monday december 2.
- Filmvilág
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- HDD probléma (nem adatmentés)
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- Építő/felújító topik
- További aktív témák...
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: HC Pointer Kft.
Város: Pécs