- AMD Navi Radeon™ RX 9xxx sorozat
- OLED monitor topik
- Samsung LCD és LED TV-k
- Azonnali fotós kérdések órája
- Szomorú jövőt vetít előre a dedikált GPU-knak a Jon Peddie Research
- Milyen egeret válasszak?
- Egyelőre túlmelegszenek a Huawei új AI gyorsítói
- HiFi műszaki szemmel - sztereó hangrendszerek
- E-book olvasók
- Házimozi belépő szinten
Új hozzászólás Aktív témák
-
nézd meg, milyen %-on megy a ventillátor alapon és terhelve. a 75 fok baromi sok idle-ben, a 92 fok pedig az a szám, ahol a driver próbálja tartani a kártyát, tehát simán lehet, hogy 100% körül tekeri a ventillátort (nálam pl. szintén 92 fokos volt, 80-90%-os fordulattal, viszont idle-ben 58 fok).
-
ouch... már írtam pár posttal lejjebb, hogy ezek a dolgok szubjektívek. nem állítok be semmit semminek, a saját véleményemet írom. ha Neked ezek nem nyűgök, akkor fine, nekem azok. ezt a részét ne reszeljük már tovább, pls
a második paragrafusod csak részben igaz. vannak trehányul megírt engine-ek, viszont bármilyen effekt, ami úgy működik, hogy frame-ek között cache-elt adatokkal dolgozik, szívni fog az AFR-rel. miután ez pl. a lighting algoritmusok esetén komoly optimalizációs lehetőség, ez igencsak az AFR problémája.
emellett, felhasználói szemszögből mindegy, hogy az engine trehány, vagy a multi-GPU megoldás - a végeredmény számít.OK, hagyjuk az OS-t - azt el tudom fogadni, hogy aki van annyira nyitott, hogy SLI-t akarjon, az a 64-bites OS-t is meg fogja oldani. a gyakorlatban ez nem mindig van így, de ez lehet egy reális "belépési kritérium".
az utolsóban igazad lenne, ha jobb opciós lehetőségek lennének a több memóriára.
amúgy azért hoztam fel, mert pont nagyon más a helyzet, mint single-ben: amíg 1 kártya esetén bőven elfogy a GPU, mielőtt kevés lenne a VRAM, a dupla sebességnél már korántsem ez a helyzet. nem akarom halálra ismételni magam az AFR-rel, ha más lenne az algoritmus, nem lenne ilyen gond. -
pont ezért mondom, hogy Neked való az SLI - nekem meg nem
amiket felsoroltam, az mind potenciális macera, amire nekem marhára nincs szükségem - lusta vagyok már ezekhez. persze ebben az is benne van, hogy a 480 SLI-dnél vszleg fel sem tűnik, ha valahol "csak" 60%-ot dob a 2. kártya.
az OS-t nagyon is komolyan gondoltam - nekem pl. XP és Vista32 alatt memória-allokációs hibával fagyott a FC2 minden felállásban, ahol két GPU volt.
a VRAM-nak meg annyi köze van az SLI-hez, hogy ha nem ezt a q*** AFR-t használnák, akkor a két adag RAM többé-kevésbé összeadódhatna.a minimum fps-es dologgal meg vagyok lőve - eddig teljesen másokat olvastam, mint amit Sárpac-cal írtok. beépítem ezt is
Sárpac: a CPU-limitet azért nem írtam, mert nem CF/SLI-specifikus gond - ha lenne egy 2x gyorsabb egyGPU-s kártyád, akkor azon is ugyanúgy CPU-limited lenne.
-
nézd, a 8939-ben leírtak általános dolgok, nyilván nem mindenkire egyformán igazak. én konkrétan falnak mennék ezektől, ill. számos friss SLI/CF tulaj hozzászólásaiból látom, hogy ez nem az én egyéni hülyeségem. ha Téged egyik sem zavar, akkor good for you, Te vagy az SLI technológiai ideális célközönsége
#8941:
Minimum fps pont hogy nagyon jól skálázódik majdnem 100%!
ez saját tapasztalat?Előnye, ahol sok az sli tudsz egy kártyán is játszani feleslegesen nem megy a villany.
aye."32-bites OS-eknél tovább csökkenti a felhasználható RAM méretét" biztos?
de, az alaplapok általában GPU-nként 256M-t foglalnak le a fizikai címtartománybólVRAM nem adódik össze sli sajátossága miatt egyértelmű miért!
egyértelmű, hogy miért, de ez nem old meg semmit.A többire meg aki 5999x6826-ba szeretne játszani az ne vegyen gtx460,gtx560,gtx570-et vegyen gtx595 vagy gtx580-at 3gb rammal és csók!
ezzel meg abszolút nem értek egyet. ha 5999x6827-ban elég két 560-as, akkor mi a francnak venne az ember két 580-ast? afr sux... -
lássuk akkor
profilfüggő: bár a profilok létezésével nVidia oldalon nem szokott gond lenni, azért nem kevés drivert látok, ahol kétszámjegyű sebesség-növekedések röpködnek SLI-s rendszerekhez, míg egy kártyáshoz semmi. ebből következően korántsem fullosak a dolgok out-of-the-box, kell várni.
skálázódás: az emberek többsége közel 100%-ot vár, amit egyes játékokban nem kap meg, másokban meg csak az official benchmarkok erejéig van ilyen magas, amúgy esetleg 70-80%. ami egyébként még mindig nem rossz, csak ha pont amiatt a +20% miatt vette az SLI-t, akkor az kellemetlen. (azt meg persze értem, hogy ez személy szerint Neked miért nem gond
)
minimum fps-ek: ... vagyis messze nem lesz annyival jobb a játékélmény, mint várnád. egyik fő oka a multiGPU-s kiábrándulásoknak.
32-bites OS-eknél tovább csökkenti a felhasználható RAM méretét: gondolom, ezt nem kell részletezni. persze át kell térni 64-bites OS-re - csak mondjuk egy 32-bites Vistáról elég nehezen indokolható csak emiatt x tízezer pénzért Win7 64-bitre mozogni.
VRAM nem adódik össze: ez nem minden kártyánál egyformán baj, jelenleg a legzűrösebb a GTX460-768M, a GTX560 és a GTX570 - SLI-ben kényelmesen jutnak ezek a kártyák olyan helyzetbe, ahol a GPU bírná a gyűrődést, viszont a VRAM meg kifogy. 460-nak már fullHD-ben, 560-nak 25x16-ban, 570-nek meg kicsit 25x16-ban, nagyon 57x10-ben.
-
pár:
- profilfüggő
- skálázódás engine-től függően bőven 90% alatt lehet - átlag fpsnél, mert...
- ...minimum fps-ek messze nem skálázódnak úgy, mint az átlagok
- 32-bites OS-eknél tovább csökkenti a felhasználható RAM méretét, ha 4GB van (sőt, akár akkor is, ha 3)
- VRAM nem adódik össze - nagyobb felbontásokon elfogyhat, pedig a GPU-k bírnákstb.
-
válasz
poppfalusi #8919 üzenetére
azt most hirtelen nem tudom, hogy idle-ben lekapcsolja-e teljesen a CF-ből az egyik kártyát - mert csak akkor fog kevesebbet enni.
amúgy az 580 egy dologban jobb - kevesebb vele a macera. 1 kártya vs 1 kártya esetben is kicsit kényelmesebb az nVidia, és a CF / SLI hoz magával egy rakás nyűgöt, ami rövid távon könnyen kezelhető / elfogadható, de hosszabb távon jó eséllyel az ember idegeire megy.
innentől up to you
-
válasz
poppfalusi #8915 üzenetére
ez az elmélet. a gyakorlatban a két 6870 nemigen fog többet enni.
de ettől függetlenül, csak akkor nem az 580-at választanám, ha mindenképpen kell az a +20-40%, amit a 6870CF ideális esetben ad.
-
válasz
Gaboman #8502 üzenetére
ez az összevetés azért nem teljesen fair, most jelent meg a 6950, bőven benne van az árban a hype faktor, a 470-ek ára meg a 6870 miatt átment zuhanórepülésbe. a január eleji árak lesznek reálisak, akkor lehet majd túlárazásról beszélni, ha így marad a helyzet.
persze, ha azonnal kell a kártya, akkor a fenti fejtegetés elméleti
-
-
válasz
cyberkind #7999 üzenetére
miért, Te tudod, mennyit fog tudni a 6970? szerintem megalapozatlan feltételezések alapján ne kezdjünk gyászindulót fújni - jelenleg egyértelműen a GTX580-ban van a leggyorsabb GPU. (és btw. amennyivel az 5970 gyorsabb, amiatt már tényleg nem érdemes a multi-GPU-val szarakodni).
-
válasz
pottyantós #7937 üzenetére
lehet, hogy nem ül jól a foglalatban...
-
Nem tud valaki esetleg egy gtx465-öt kölcsönadni pár óra teszt erejéig? Csak alapórajelen
Sehonnan nem tudok szerezni, és igen érdekes lenne a jól megnyesett gf100-at a gf104-gyel összevetni...
Elöre is köszi! -
válasz
#15779328 #7692 üzenetére
szerintem király a sarok, ha belefér anyagilag, akkor miért ne vegye komolyan az ember a hobbiját?
Cyberpunk: a harmadik kártya három okból szokott szarul skálázódni:
- driver-probléma (ennek nem árt utánaolvasni, de ez a ritkább)
- a harmadik PCIE port 4x-es sebességgel talál menni
- CPU / platform limita 3 monitoros felállás érdekes CPU-limit szempontjából, mert míg 1280x800 és 2560x1600 között elvileg nincs differencia a kiszámolandó geometria terén, egy ilyen széles felbontásnál biztos, hogy a sok kis retkes háromszöggel is több meló van. ezzel együtt azt gondolom, hogy sokkal jobb skálázódást fog mutatni a 3. kártya, mint pl. fullHD-ben.
engem inkább az input lag aggasztana, míg 1 és 2 kártya között nincs differencia, a 3. már keményen növeli azt is... -
7680 és 7681: játéka válogatja, hogy hol van értelme. egy belső nézetű szimulátorban nagyon sokat tesz hozzá az élményhez, hogy megvan a perifériás látómező is, fps-ben pedig akkor jó, ha egy monitorra van a FoV optimalizálva, és tényleg csak a perifériát kapod, és vszleg akkor sem olyan drámai erejű. viszont pl. egy Penumbra típusú horror játékban megintcsak lehet vele ügyesen élni.
a kávák persze zavaróak, de ez még egy új technológia, idővel javulni fog. vannak már vékonykávás monitorok, ill. több projektorra is létezik megoldás. 1-2 év múlva szerintem állat jó lesz ez a technológia! -
a 470-es annyit fogyaszt, mint egy kicsit tuningolt GTX285, a zaja pedig sokban függ attól, hogy milyen házba teszed (idle-ben mindenképpen halk) - nekem közepesen volt hangos terhelés alatt, pedig a házban nincs intake ventillátor.
az 1GB-os 460-as jobb vétel, de a 470 azért csak gyorsabb 20%-25%-kal (sőt, minimum fps terén még többel is) - ezt a tuninggal a 460 le tudja dolgozni, viszont tuningolni a 470-est is lehet.
TothMG: nem tudom, milyen órajelen ment a SuperOC kártya, de a GTX465 sebessége kb. a GTX285-tel egyezik meg. fogyasztásra is kb. annyi lehet.
-
az tény, hogy nincs híján az iróniának a B3D fórum - ez egyéni ízlés kérdése, nekem pl. a pH! szörnyen túlszabályozottnak tűnik.
amúgy az idézett kijelentésével majdnem egyet is értek - piaci szempontból tényleg mindegy volt, nem sok vizet zavart a GTX480 meg a GTX470. nyilván a folytatás szempontjából már egyáltalán nem volt mindegy a tesszelátor.
-
-
nem akarok hasonló volumenbe belefolyni a PhysX vita, csak egy komment, személyes tapasztalat:
múlt hétvégén nálam volt egy GTX480, és kipróbáltam rajta a Mafia II demot (majd lesz cikk is belőle). természetesen érdekelt, miről ez a fenenagy hiszti a teljesítmény körül, úgyhogy mértem bekapcsolt APEX-szel is - az eredmény siralmas, mind medium, mind high APEX mellett iszonyú fps-esés, és úgy rángatott a szerencsétlen játék, hogy ránézni is rossz volt, nemhogy játszani vele. a nemhivatalos cloth kikapcsolás aktiválása után ennek nyoma sem volt - nagyon jó sebességgel ment fullHD, max beállítás, MSAA és high APEX mellett is. szóval igaza van Abunak, valami nagyon büdös a cloth modul körül...
-
METRO csak 330-340W körül evett - kevésbé terheli a CPU-t. A 360W a legmagasabb, ami a 3 órás tesztcsomagban kijött, átlagosan 300-340W volt a jellemző.
Az meg, hogy minek akarja valaki a GTX480-at egy sokéves táppal kombinálni, nem az én dolgom
#7397: na ja - csak minek? az a cél, hogy kinyírjuk a szóban forgó tápot?
-
-
milyen felbontásra kell, ill. milyen játékokkal akarsz főleg játszani?
biztosan lesz olyan eset, ahol a CPU-d, ill. a memóriáid lesznek a szűk keresztmetszet (pl. a Codemasters összes Ego-motoros játékában), még fullHD-ben is, de ha Stalker, METRO, meg ilyenek fognak Nálad menni, akkor nem elsősorban a CPU lesz kevés. ráadásul egy négymagos Penryn CPU-val csak részben vagy kisegítve, ha a "kihajtás" témakört teljesen meg akarod oldani, akkor i5 / i7 kell, aminek az anyagi vonzata szerintem nehezen indokolható.
-
válasz
Dantenero72 #6717 üzenetére
OK. nekem 19x10-ben kb. 23fps-t hozott a GTX470, viszont a Unigine motorral korábban nem nagyon volt látható a különbség 16x10 és 19x10 között - legalábbis a Radeon kártyákon. nemtom', hogy ez a Fermikre is igaz-e - ha igen, akkor a 23.6 fps jó eredmény.
-
válasz
Dantenero72 #6707 üzenetére
akár az is lehet (ha alapórajeles) - ha csinálsz egy tesztet 1920x1080-ban, akkor megmondom biztosabban.
-
hű de funny. hát... értem, hogy ez rövid távon extra $$$, de hosszú távon nem biztos, hogy jó marketing...
Dantenero: három tipp:
a) nincs bent jól a kártya, és PCIE-1x-nek érzékeli az alaplap
b) nem működik jól a hűtés, és a felforrásvédelem visszaveszi a GPU-t
c) garanciás csere -
-
elég nehezen megjósolható az eredmény. maradjunk a 700/4200-as órajeleknél, ilyenkor:
- geometriában sokkal jobb a 470, de szerintem ez nemigen fog számítani
- memória-sávszélben kb. egál
- ROP-ban 8%-kal jobb a 470
- TEX-ben 32%-kal jobb a 475
- ALU-ban pedig 0-50%-kal erősebb a 470, függően attól, hogy mennyire jól kihasználható a GF104 "naplopó" 128 ALU-jaszerintem lesz olyan játék, ahol a 475-ös akár ilyen órajelek mellett is gyorsabb - és azért órajelben még nem ez a plafon.
-
dehogynem, ebben több helyen is vannak emberek, meg az elején időnként egy csorda azonosítatlan állat
#6220: az volt a gond, hogy a Sárpac által jelzett helyen van egy test.ltx és egy user.ltx file, és az egyiket írta a beállító applet, a másikat olvasta a benchmark. én úgy oldottam meg, hogy az olvasott file helyére odamásoltam a saját configomat - de azt megelőzte némi bogarászás, hogy konzisztensek maradjanak.
-
ja, ezért szoktam én is mindent 3x futtatni
kicsit semmitmondó eredményeket ad az a bench (nincs benne ember, de még mozgó objektum sem nagyon) - a clear sky-é sokkal jobb voltslett27: szerintem az a gond, hogy a beállításaidat nem teszi bele abba a config file-ba, amiből aztán a benchmark dolgozik. rémlik, hogy nekem is volt vele ilyen gondom anno.
milyen OS-t használsz? ha Vista / Win7, akkor admin jogú userként vagy bent? -
MSAA nélkül valóban elég az 1GB, talán jelen pillanatban mindenhol, akár még az Eyefinity / Surround felbontásokban is - csak hát vannak nekünk ezek a jó kis ruszki engine-ek, amik MSAA mellett úgy zabálják a VRAM-ot, mint anno a ZIL-ek az üzemanyagot. a forrás sem ok nélkül használ AAA-t.
ill. rémlik 1-2 olyan teszt is, ahol 19x12 8xAA mellett már elkezdtek dögledezni az 1GB-os kártyák - ez persze messze nem általános. -
persze, de a BFBC2 nem az a kimondott memóriazabáló. próbáld meg ugyanezt a metroval vagy a stalkerrel...
amúgy igen, a GTX480-nak tényleg nem kifejezetten erős pontja a 4MPix, de össze azért nem omlik, mint egy olyan kártya, ahol kifogy a memória...Def: ha Neked kell rátenni 30K-t, akkor szerintem nem éri meg...
-
nVidiánál nincs rendszeresen driver, tehát a jó ég tudja, mikor jön a következő - gondolom, a GTX460 örömére lesz valami.
driver-azonosítók: az első szám a széria száma (legalábbis kb., mert pl. most a 256-259 fog egy szériának számítani), a második meg gondolom a build azonosító. ezek nem human friendly id-k, mint az AMD-nél -
válasz
DeckardCain #5626 üzenetére
érdekes eredmények - egész jól követi a 465-öt. az 5830-as összehasonlítás nem túl reális, a 8xAA nem annyira fekszik annak a kártyának (mondjuk a 460-768-nak sem igazán, de ott legalább 24 ROP van, nem 16).
-
nem
a nagy dropok többnyire nem engine hibák, hanem vagy azért vannak, mert ott van egy scene-váltás, és sok mindent be kell húzni a HDD-ről a VGA-ra, vagy azért, mert az alaplap-VGA-driverek konstellációban valami nem OK (nekem ilyen volt a FEAR-rel meg a 2600XT-mmel, nagyobb szobákba belépéskor 2-3 másodpercet állt - azóta sem tudom, miért).
az meg nem feltétlen gyengeség, hogy helyenként nincs kihasználva maximálisan a VGA - minden motornál más az aránya a CPU/VGA igénynek. a Codemasters ego motorja pl. elég intenzíven használja a CPU-t/RAM-ot, viszont közepes HW-en is elég jól fut, és abszolút jól néz ki. a unigine motor elég durván shader / postprocess intenzív (tesszeláció nélkül legalábbis), ezért nem fogsz CPU-limitbe szaladni.
-
az lenne az igazi, ha az fps-ek / frame-idők is látszanának ugyanebben a file-ban, de így is elég gyanús, hogy vmi platformos gebasz van. önmagában CPU-limittől olyan típusú dropok, mint ami 0:51 és 1:02 között van, nem keletkeznek, ez lehet pl. az, hogy nincs minden textúra betöltve, és amíg a rendszer utol nem éri magát, addig baromi lassú. Az 1:04 és 1:54 közötti szakasz viszont jellemzően platform limit esetén bukkan fel - lehet CPU, de lehet más is.
-
ez enyhén szólva is túlzott leegyszerűsítése a dolgoknak. a CPU 80%-ban olyan helyzetekben lesz szűk keresztmetszet, ahol amúgy is bőven elég a sebesség - az nem annyira izgalmas, hogy 70 vagy 85 fps van valahol, viszont amikor a GPU powa' számít (stalker, metro, etc.), akkor nemhogy a phenom x4, de még egy athlon x2 vagy egy kétmagos c2d is kényelmesen "kihajcsa" a GTX480-at.
abu, starcraft téma: nézzük meg a végterméket
-
válasz
A.tessz #5515 üzenetére
ja értem!
hát, a legérdekesebbek az éppen frissen kijött (vagy ki nem jött, de már torrentezhető) játékok - a 9600GT topic-ban pl. szuper volt, hogy detroitw kolléga egy svájci óra megbízhatóságával szállította az eredményeket, áldassék a neve
ami specifikusan a 465/470/480 kártyáknál a legérdekesebb, azok egyrészt a nagy textúrazabálók (crysis, far cry 2, avp, unigine demok, 3dm vantage, etc.), másrészt azok a nagy ALU-barátok, amik a HD4000 vs GTX200 korszakban inkább az AMD felé hajlottak (Stormrise, Oblivion / Fallout 3, etc.).#5516 Landon: azt mindig érdemes nézni, hogy egy adott hw-ről benchmark vagy játék szempontból van szó. előbbi szempontból nem használnék Phenomot, sőt, ha nem lenne annyi pénz meg kínlódás, akkor még a Q9550-et is lecserélném i7-re. utóbbi szempontból nagyjából mindegy - még a kétmagos C2D-k is megfelelőek (különösen 3GHz felett), 4 magnál meg szinte mindegy, csak ne legyen nagyon alacsony az órajel - ide értem a core i3-akat is a 2 mag + 2HT-vel is.
-
hű, de jó ezt a sok tesztet olvasni!
pár dolgot hadd fűzzek hozzájuk, hátha tisztul a CPU-kérdés:
1. Q6600 és Q9550 között nincs nagy különbség, 10-15% azonos órajelen, és ez órajel-emeléssel szépen kompenzálható
2. Q9550 és Phenom X4 között lehet nagy különbség az előbbi javára, de lehet, hogy nincs semmi. erősen játéktól függ
3. Core i7 és minden más között szintén lehet nagy különbség a hyperthreading, de főleg a brutális memóriavezérlő miatt - én a Q9550-nel több olyan esettel is találkoztam, hogy a falnak ment a teljesítmény, miközben egy i7-es azonos VGA-val akár 40-50%-kal több fps-t produkált. ezt ráadásul értelemszerűen a CPU órajelének emelésével nemigen lehet kompenzálni.AVP: több helyen nagyon textúraigényes a játék, ezért a GTX400-asoknak annyira nem fekszik. bezzeg a G92 alapú kártyáknak!
norbigomba: jól látom, hogy 668MHz-en mennek a DDR3 RAMjaid? amíg azokkal nem csinálsz valamit, addig nem érdemes semmit cserélned...
-
miért ne kapnál +80-90%-ot? ahol nincs platform-limit (ami a 480-ast majdnem ugyanannyira sújtja), ott az SLI-skálázódás kevés kivételtől eltekintve kényelmesen 80% felett van, de nem ritka a 90%+ sem.
Landon: gamestate, geometria előkészítés, AI, fizika előkészítés... nem unatkozik fizika nélkül sem.
-
hű, de ismerős ez a sztori, hogy is hívták azt a szerencsétlen chipet 3 éve? valami R600?
hogy magamat idézzem, érdekes lesz a következő generáció - a jelenlegi kártyákkal meg csak hadd szívjon az nVidia nyugodtan, ha a vásárlók azt kapják tőlük, amire a pénzükért számítanak
-
hogyne lenne - készül a GF100-as cikkem, abban elég jól látható lesz
ha a setupot kettéosztod, miközben pl. 4 GPC-t csinálsz, akkor bemész egy jó kis architektúrás zsákutcába, ahonnan megint ki kell tolatni, és menni másfele előre. akkor már jobb ez a nagy levegős megoldás.persze, a perf/fogyasztás kérdésben igazad van - ezért is valid az AMD "két GPU-t a csúcsra" megközelítése. de amíg AFR van, addig ez a madár sem fog igazán szárnyalni. 5970 vs GTX480 az egy dolog, de 2x5970 vs 2xGTX480? noplease!
-
igen, ezért írtam, hogy a következő generáció lesz érdekes. a core órajel nagy kérdés, a memóriát viszont biztosan tudják javítani a következő kísérlettel.
abszolút nem értek egyet az órajeles kommenttel - nekem nagyon úgy tűnik, hogy nincs tovább hová emelni. a 2007-es 2600XT-m 800MHz-es core clockkal ment, ehhez képest most 850MHz-es a leggyorsabb referencia-GPU. és amúgy az 5870 igencsak frontend-limitesnek tűnik (pedig már dupla scanline motor van benne), szerintem ez a felépítés nem bír el még egy duplázást - vagy nem fog normálisan skálázódni. én ezért örülök annak, amit a Fermiben csináltak - szerintem erre van az előre.Cyberpunk: ha már ragaszkodsz a GPU vs GPU sztorihoz, akkor hasonlítsd össze a tranzisztorok számát. 2.15 < 3.0 < 4.3 . +39% és +43%. akkor most ki kinek az ellenfele?
-
az utóbbi két generáció arról szólt, hogy az AMD kevesebb funkcionális egységgel és magasabb órajelekkel nem maradt le túlzottan az nVidia megachipjeitől - a GT200-nál ez közepesen fájt, most meg már nagyon. 850/1700/1200 mellett a GTX480 már erősen nyalogatná az 5970-et.
azzal, hogy az nVidia feldarabolta a setupot és a geometriát, utat nyitott annak, hogy alacsonyabb órajelekkel is legyen értelme az egységek számát növelni. nem meglepő, hogy a GF100-nál, mint első kísérletnél ez nem megy még tökéletesen, de a következő generáció igen érdekes lesz emiatt.a "ki kinek az ellenfele kérdésben": nézzetek meg működés közben egy GTX480-at, egy 5870-et és egy 5970-et. sokkal több hasonlóság van a 480 és az 5970 között - és azért azt sem lehet figyelmen kívül hagyni, hogy az nVidia az árazással hová pozícionálta a saját megoldását...
-
válasz
SSJPeter #4906 üzenetére
nekem ez egy rosszul sikerült driver installnak tűnik - vmelyik komponens nem frissülhetett. a 257.15 bétával nekem is volt ilyen gondom - első kísérletre install közben teljes fagyás. reboot, driversweeper, újrainstall, és akkor jól működött.
Lauda: persze, hogy nem mindegy, hogy hány GPU van (legalábbis amíg az AFR a terhelés-elosztás módszere) - viszont 1 és 2 GPU között még nincs túlzottan nagy különbség. neked a 480SLI-vel nyilván nem alternatíva az 5970CF (legalábbis ha játszani akarsz velük
), de egykártyás rendszerben gondolkodva ezt a két VGA-t lehet egymás mellé tenni.
-
de, a GTX480 az 5970 ellenfele - ők a két új generációs enthusiast kártya a piacon.
mondjuk ez a GTX485 az iPonos cikkben leírtak alapján 5-8%-kal lenne gyorsabb, mint a 480 (és a több % ott lenne jellemző, ahol a 480 nagyon gyengén megy) - de én még bízom a normálisabb órajelekben. -
azé' ez egy kissé túlzás. nekem cca. 105W különbség volt a GTX480 és az 5870 között, ami a táp hatásfokát leszámítva durván 86-87W valós különbség. ha ehhez még hozzáveszed, hogy a GTX480 gyorsabb, tehát a CPU meg a többiek is többet esznek egy kicsit, akkor már nem vagyunk olyan messze a hivatalos TDP-k közötti differenciától. miután a HD5000-esek kényelmesen a TDP-jük alatt esznek, a 250W-os szám a GTX480-ra egyáltalán nem irreális.
másik fogyasztásos téma: a GTX480 idle fogyasztása 44W a specifikáció szerint, tehát egyáltalán nem elhanyagolható. amit Hilbert összezagyvál a fogyasztásokról, az tényleg röhejes - én csípem nagyon az oldalát, de ezekre odafigyelhetne.
#4820: ha rendszer RAM limitálja a teljesítményt, akkor az i7 a háromcsatornás vezérlőjével rengeteget tud hozni (pl. GRID, Resident Evil 5).
-
válasz
Cyberpunk #4803 üzenetére
nem kell fermi ready ház, viszont "enthusiast ready" kell. az SLI-hez pont akartam mondani, hogy kérdezd meg Laudát, nála egész illedelmesen viselkedik a páros
SSJPeter: sztem az intake + GTX kombinációhoz túl sokat az oldalsó venti nem tenne hozzá, különösen, hogy arról a tájékról a táp is elvisz valamennyit.
-
válasz
SSJPeter #4794 üzenetére
no igen, ez a másik oldala - gondolom van a házban intake venti.
Cyberpunk: a 480 azért kicsit más - nekem ott 89%-on tekerte a pörgettyűt, és akkor iszonyú hangja volt, 80%-on meg hangos is volt, meg nagyon el is kezdett melegedni. a 470-hez még elég egy átlagosan nemszar ház is, a 480-hoz már azt a frontot is át kell gondolni.
-
válasz
Cyberpunk #4790 üzenetére
engem alapból iszonyúan idegesít, ha egy alkatrész 90 fok felett van a gépben, de most a két GTX-szel direkt körbejártam, mit művelnek maguk körül, és hát marhára nincs jelentősége, hogy 92 fok vagy 80 - úgy kitolnak mindent a házból, mint a szél. a 470 ráadásul ezt úgy csinálja, hogy nem is vészesen hangos.
-
-
erre ráerősít a mai guru3d tesz az ASUS voltage tweak kártyáról - 21% extra core/shader clock és 0% mem overclock mellett 17%-kal több teljesítmény jött ki a kártyából. nice!
-
válasz
fsb1000 #4372 üzenetére
sztem túldimenzionálod ezt a "hol moderál-hol nem moderál" kérdést - és amúgy kötve hiszem, hogy Abu nap mint nap a modokkal csevegne, különös tekintettel arra, hogy a modok nagy része lelkes olvasó, nem alkalmazott.
A témához visszakanyarodva, a két legerősebb 1 GPUs kártya egy teljesen jó megközelítés, viszont az is nagyon csábító, hogy az HD5870 és a GTX470 kb. azonos árban van, ráadásul a történelem már látott ilyet a HD4870 vs GTX260 páros személyében. Az biztos, hogy az 5870 a két GTX között lesz valahol, kérdés, hogy melyikhez lesz közelebb - de szeretném a saját szememmel (fülemmel) látni a hőmérsékletet, a fogyasztást meg a zajt, hogy be bírjam lőni, kinek kell kivel versenyezni. a HD5870 nem egy klasszikus enthusiast kártya, a GTX480 viszont az, ezért érzésre a GTX470 közelebb áll a Radeonhoz - meglátjuk.
Még egy off: nem tudom, találkoztál-e 5970-nel, én igen, és az is egy brutálisan jó VGA. ha nem rühelleném ennyire az AFR-t, akkor igazán jó szívvel tudnám ajánlani
-
lesz, csak még nem tudom, hogy GTX470 VS 5870 vagy 5870 VS GTX480 megközelítéssel menjen-e. de ezt vszleg csak akkor tudom majd eldönteni, amikor kezemben lesznek az eredmények...
flame téma: azért annyit megjegyeznék (szigorúan nem külön hsz-ben), hogy amíg minden ellendrukker postra jut 3 "ellendrukkerek haza", addig ez fog menni. vagy ide kell szoktatni egy moderátort, aki rendszeresen takarít, vagy ha nem, akkor az ignoráláson kívül nincs más megoldás...
szerk. Abu: hétfőre okosabb leszek, de a GTX470 jelen ismereteim szerint egyáltalán nem tűnik halott ügynek az 5870-nel szemben. a 480-as meg félig versenyez az 5970-nel, félig nem - mindkettő mellett és ellen szól pár dolog. sz'al ennyire nem kell egyelőre leírni a GeForce-okat, szerintem.
-
válasz
fsb1000 #4345 üzenetére
a második igaz, az első csak bizonyos körülmények között. sokszor azt látod, hogy a CPU órajelének emelésével nő a sebesség (CPU limit), de ez lehet attól is, hogy vannak kihasználatlan magok, de pl. a Nehalem előtti inteleknél sokszor a memória sebessége a ludas, és inkább az FSB növelése hozza a + teljesítményt (ld. GRID). a fizikához pedig a számítások arányában nem kell feltétlen rengeteg adat
Crytek: pedig a HD5000-esek marha jól sikerültek, magasan jobbak, mint az AMD előző szériája, és még a GTX200-asoknál is. csak ez az "ár/fps rulez" feliratú szemüvegen keresztül nem mindig látszik.
remélhetőleg a hétvége utána a GTX400-asokkal is lesz saját tapasztalatom, és tudok róluk is nyilatkozni -
válasz
fsb1000 #4327 üzenetére
azt írtad, hogy addig nem látod értelmét a témáról beszélni, amíg nincs teszt, pedig nagyon egyszerűen belátható, hogy van szabad kapacitás CPU oldalon ilyesmire.
a két szál az csak egy sarkított példa volt, mert nem a szálak konkrét száma az igazi probléma, hanem az, hogy függetlenül attól, hogy hány szálat indít egy program, alapvetően még szinte mindenki szekvenciális filozófiával fejleszt, ezért a szálak rövid úton annyira függeni fognak egymástól, hogy valóban párhuzamosan csak nagyon kevés tud futni közülük. igazából ha külön figyelmet nem fordítanak erre, akkor nagyon kevés = 1 - de addig már eljutottunk, hogy a legtöbb engine-ben figyelnek arra, hogy legalább két magot ki tudjon használni.
Új hozzászólás Aktív témák
Hirdetés
- AMD Navi Radeon™ RX 9xxx sorozat
- OLED monitor topik
- A fociról könnyedén, egy baráti társaságban
- Samsung LCD és LED TV-k
- Azonnali fotós kérdések órája
- Xbox Series X|S
- Delta Force (2024)
- Szomorú jövőt vetít előre a dedikált GPU-knak a Jon Peddie Research
- One otthoni szolgáltatások (TV, internet, telefon)
- Milyen egeret válasszak?
- További aktív témák...
- Bomba ár! Dell Latitude E6420 - i5-2GEN I 4GB I 250GB I HDMI I 14" HD I W10 I Gari!
- AKCIÓ! Dell Alienware M17 R3 Gamer notebook - i7 10750H 16GB DDR4 1TB SSD RTX 2070 8GB WIN10
- HATALMAS AKCIÓK / MICROSOFT WINDOWS 10,11 / OFFICE 16,19,21,24 / VÍRUS,VPN VÉDELEM / SZÁMLA / 0-24
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
- Dell Latitude 8-11. gen i5, i7, all-in one szinte minden típus csalódásmentes, jó ár, garancia
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: PC Trade Systems Kft.
Város: Szeged