- Hobby elektronika
- Exkluzív funkcióval tenné vonzóbbá az ARM-os PC-ket a Microsoft
- Milyen egeret válasszak?
- Projektor topic
- OLED TV topic
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Vezetékes FÜLhallgatók
- Vezeték nélküli fülhallgatók
- LG 34GS95QE-B: OLED paneles, ívelt gamer monitor
- Kormányok / autós szimulátorok topicja
Hirdetés
-
Hosszabb bemutatót kapott a Steel Seed
gp A PC-re és konzolokra szánt teljes kiadás valamikor idén debütál, pontos dátumot még nem kaptunk.
-
3 évre zárnák börtönbe a legnagyobb kriptotőzsde korábbi vezetőjét
it Az amerikai ügyészek keményebb, 3 éves börtönbüntetést akarnak elérni, miután Changpeng Zhao, a Binance korábbi vezérigazgatója bűnösnek vallotta magát a pénzmosásellenes törvények megszegésében.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
Új hozzászólás Aktív témák
-
Bundás22
őstag
pontosan ezt mondom én is 50-60 fps fölött édes mind1, és a játékok vannak szarul megírva, pláne ha nem is rajzolja ki a moncsi akkor mit érzékeljen az ember? akkor 85hz fellett mégha vadászsólyom lennék akkor sem látnék semmit
Ego sum magister vitae - I am the teacher of life
-
Zaza1234
csendes tag
válasz Bundás22 #198 üzenetére
te tiszta hülye vagy,ezeket nem én találom ki,a játék ilyen! tudod mi az a bug? hát ezek a bugok azok amik sok fps-nél jönnek ki! Nem hiába van limitálva az fps-ed a cod2 és sgyéb fps játékok multijában! És szerinted a hardcore gamerek miért nyomják 8800gtx-el 800*600ba a cod-ot? hát pont azért hogy stabilan magas fps-ük legyen! Hihetetlenül hülye vagy,bizonyított tény hogy több fps-gyorsabb futást lövést eredményez a codban,és te meg akarod magyarázni hogy a döglött ló alszik! Nem sok ilyen ember van mint te,mindig neked kell legyen igazad,hihetetlen! na mindegy légy boldog és esküdj a 40fps-re és a crt-re!jah és a gyorsabb az nem azt jelenti jelen esetben hogy 2x 3x gyorsabb hanem picivel,de láthatóan,ami hatalmas előny! de ha te ezt enm tudod felfogni akkor maradj tudatlan!
-
athomi
veterán
válasz Stalker-2572 #204 üzenetére
Nem vagy vele egyedül. Én is tudok 85Hz és 100Hz között különbséget tenni.
-
Ribi
nagyúr
válasz Stalker-2572 #206 üzenetére
Haat mivel ez a monitor frissitesen mulik es nem az fps-tol ezert DE. Epp ezert nehez kulonbseget tenni egy 100Hz-s monitoron a 100 es a 140 fps kozott.
-
VaniliásRönk
nagyúr
-
Ribi
nagyúr
válasz Stalker-2572 #209 üzenetére
''Ha nem bugos a játék nem is lehet.'' Igen, ez szerintem is igy van, azert irtam. csak nem az fps-tol fugg hogy hany kepet rajzol a monitor, hanem a frissitestol.
-
rauschie
senior tag
volt egyszer egy külön táp a vganak, teszteltétek is itt a phn.
nemlehet hogy időszerű lenne újra megvizsgálni a kérdést? -
arpi6k
addikt
válasz VaniliásRönk #208 üzenetére
Pont akkor volt x1800XT-m úgyhogy annyira nem kell utánanéznem... Az állításod akkor is egy baromság ebben a formában. Ha azt írod hogy a doom3-ban nőtt 40%al, nem szólok egy szót sem, bár ez sem igaz.
Intel & ATI
-
fLeSs
nagyúr
Frissült a cikk a HD 2900 XT CrossFire fogyasztási adataival.
"I press keys on a keyboard all day and click a mouse in front of a glowing rectangle. Somehow that turns into food and shelter."
-
venember83
nagyúr
válasz venember83 #216 üzenetére
Vagy en vagyok vak, vagy pont a 2900xt cf fogyasztasi adatok nincsenek a grafikonon...
Azert nagyon szomoru, h ennyire nem torodnek a CF/SLI-vel, h nem is mukodnek normalisan... ATinal meg csak-csak elfogadhato, hisz meg csak most jelent meg a kari, de 8800-nal mar nincs mentseg. -
venember83
nagyúr
válasz venember83 #217 üzenetére
Megvilagosodtam
438 Watt? Ez aztan a csucskartya-cf! Mar alig varom a 2900xtx cf-et
Ez ugye 350 Watt tapbol, mar csak kerdes, h kiengedi-e magabol a tap ezt, mert ha a vedelmek nem szolnak bele, akkor 1 430-450es siman kepes taplalni meg ezt a konfigot is. Remelem a minosegi tapgyartok mernokei mar dolgoznak a probleman
[Szerkesztve] -
fLeSs
nagyúr
válasz venember83 #218 üzenetére
A CrossFire-höz nem elég az 500 wattos táp, igazából a 12v-os ágak erősségétől függ.
"I press keys on a keyboard all day and click a mouse in front of a glowing rectangle. Somehow that turns into food and shelter."
-
VaniliásRönk
nagyúr
Csináltál tesztet az első driverrel ami támogatja és a mostani legfrissebbel?
Csak abban a pár Version Historyban amit találtam 90% az összesített növekedés, nyilván közel sincs ennyi, de ha csak a fele igaz az is több mint amit állítottam."Only two things are infinite, the universe and human stupidity, and I'm not sure about the former." (Albert Einstein)
-
arpi6k
addikt
válasz VaniliásRönk #220 üzenetére
Te azt állítottad hogy 40%ot gyorsult a kártya az új driverrel. Azt kimaradtt véletlenül hogy doom3-ban... (lehet hogy gyorsult 40%-t 1600X1200ban 6X/16X-ba...)
Intel & ATI
-
VaniliásRönk
nagyúr
OpenGL alatt a több játékban is volt hasonló, DX-eseket most nem nézegettem, meg a két szép szemedért nem is fogom. (annó a 8500-am is tisztán 30-40%-ot gyorsult az újabb driverekkel...)
"Only two things are infinite, the universe and human stupidity, and I'm not sure about the former." (Albert Einstein)
-
venember83
nagyúr
Igen, nektek nem volt eleg, ez igy van, jelenleg nem is az, valszeg nem birna 1 tap se. De mint irtatok nem a teljesitmennyel lehet a baj, hanem a vedelmek egyszeruen lekapcsoljak a tapot valszeg az agak kozti egyenlotlen teljesitmenyleadas miatt. Pl 500as liberty 22A-t ad le agankent, 2 12-es ag, nem osszeadhato a ket ag teljesitmenye, de akkor is boven meghaladja az altalaltok mert adatot, ergo mennie kell(ene) vele, ha nem kapcsolna le az elektronika. Vajon ha a kulonbozo vedelmek kulon-kulon figyelnek az agakon kimeno teljesitmenyt, akkor nem oldodna meg ez a problema? Nem vagyok tapszakerto, csak erdekel a tema, ezert kerdezek
-
Ribi
nagyúr
válasz VaniliásRönk #221 üzenetére
Na igen ez volt nekem is a bajom hogy a 8800sli mert csak 30W-al eszik tobbet. Valami nem volt okes.
-
arpi6k
addikt
válasz VaniliásRönk #223 üzenetére
Hát ne is, mert kiderülne hogy te mennyire nézed ''reálisan'' a dolgokat...
Intel & ATI
-
nagyúr
Nem kell ezen annyira meglepődni. Emlékezzetek vissza a 7950GX2-re - gyakorlatilag két, 25%-kal lejjebb clockolt 7900GTX volt SLI-be kötve, és terhelés alatt nem evett sokkal többet egy 7900GTX-nél (és kicsivel kevesebbet egy x1950XTX-nél) ld. [link]. Az nVidia régóta nagy hangsúlyt tesz a fogyasztás optimalizálására - biztosan van pár trükkjük speciálisan az SLI-s felállásra.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
VaniliásRönk
nagyúr
Tuti, kevesebbet fogyasztanak a GPU-k SLI-ben terhelve mint 1 db. idle-ben... Vagy arra akarsz célozni, hogy az nVidia valóba zöld minden értelemben?
A 7950GX2 kis darabszámban került forgalomba, válogatott GPU-k +csökkentett órajel, így is 30W-ot dobott a fogyasztásra, a 8800-ak meg nyilvánvalóan többet fogyasztanak, így még ha válogatott db-ok lennének akkor is nagyobb difinek kéne lennie mint 30W. (hmm, ez a 30-as szám kozmikus jelentőséggel bírhat )
[Szerkesztve]"Only two things are infinite, the universe and human stupidity, and I'm not sure about the former." (Albert Einstein)
-
WZP
aktív tag
Egy multis gaméhoz tényleg ideális a minél több FPS, 80 fölött már arányag jó, de ha 200 van mégjobb mert nagyobb az esélye hogy kamu lövéseket bead
Aki kételkedik ezekben az fogjon egy css-t és FPS limittel próbáljon kilőni egy tár USP-t 10, 30, és 60 FPS-el amíg te 10FPS-el kilövöd addig én kilövöm+betárazok 60 mellett. Szóval aki aztmondja hogy nem lehet az FPS-t 60 fölött észrevenni annak nincs igaza mert ha pár kört játszok vele be tudom határolni kb mennyi FPS-el megy... lehet anyázni
szerk: CRT jobb játékra mert multkor máshol toltam egy játékkal volt egy pálya amin nightvisionnal SE láttam egyeltalán semmit itthon meg a jókis CRT-n nájtvizsön nélkül lazán világos volt... bár a méretei és a szemrongálás ellene szólnak de én inkább CRT
aztán majd úgyis jönnek a jobb LCD cumók (OLED ?) nem értek hozzá lehet h már most is vannak azok utólérnek addig meg csak nem romlik le a szemem
[Szerkesztve]Inter Arma Enim Silent Leges
-
nagyúr
válasz VaniliásRönk #228 üzenetére
Így igaz, ill. a quad-sli 0W-ot fog fogyasztani, az octa-SLI pedig áramot fog termelni...
Elvi síkon nem tartom kizártnak, hogy az nVidiát érdekli a környezet (bár én a Télapóban is hiszek), de annyi biztos, hogy az alacsonyabb fogyasztás és ezen keresztül az alacsonyabb hőleadás piaci előnyt is jelent.
Hogy az egy kártya magasabb fogyasztása mennyivel kell nagyobb különbséget jelentsen, az több dologtól is függ. Első körben érdekes lenne, hogy melyik játékkal lettek mérve a fogyasztási adatok - mennyire volt kihajtva a 2 GPU az 1 GPU-s esethez képest.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
VaniliásRönk
nagyúr
Elvi síkon is kizárt, ha az nVidia igyekezne így befolyásolni a fogyasztást, és még képes is lenne rá, akkor rég ezzel kampányolna, telekürtölné vele a világot a PR-osztál.
Ha korrekt a mérés, akkor azonos körülmények között végezték el, mégpedig olyan játékkal, ami képes kihasználni az SLI-t és CF-t is.
Lehet mindenféle elméletet gyártani arra, hogy miért ilyenek az eredmények, viszont egyik sincs összhangban egy precíz, átgondolt mérés kritériumaival.
Szerk.: Már ott megbuktak a mérési alapelvek, hogy fLeSs más táppal mérte le a CF fogyasztását, mint a többiét, legalábbis ezt írta.
[Szerkesztve]"Only two things are infinite, the universe and human stupidity, and I'm not sure about the former." (Albert Einstein)
-
hardzsi2
aktív tag
Gratulálok a cikkhez, ismét sokat lehet belőle tanulni. Pl. azt, hogy lehet kénytelen leszek gagyi TN paneles 22''-os (1680x1050) moncsit (vagy drága 21''-os MVA/S-IPS-est) venni egy full HD-s, profi paneles 24''-os helyett, mivel a 8800GTX teljesítménye jópár játékban -nekem úgy tűnik- már nem elég az 1920x1200 felbontáshoz (jelenlegi driverekkel, látványjavítókkal), márpedig így is bőven túlléptem az anyagi lehetőségeimen, ezért az SLI-vel tuningolás számomra kizárt. Miért nem gyártanak 22''-os MVA vagy S-IPS paneles monitort, vazz???
flood-resistant mirror driller (cuccok: Skylake NUC és Xbox One X)
-
venember83
nagyúr
válasz VaniliásRönk #231 üzenetére
Szerintem meg nem csereltek tapot meresek kozben, legalabbis ebben a tesztben vegig ugyanazt a tapot hasznaltak mindenre, mivel az 550es RealPower lekapcsolt, tehat csak az elozo tesztek mereseihez nem hasonlithatoak ezek az adatok.Gondolom most ujra lett merve a karik fogyasztasa single-ban ezzel a tappal, legalabbis en ugy vettem ki a szovegbol. Amig nem latok jobb tesztet, addig hiszek ennek, mivel az r600 viszonylag sokkal tobb tranzisztorbol all, ezert el tudom kepzelni, h ennyit zabal, ATi csucskozeli kartyai mindig is ehesek s forrok voltak.
-
VaniliásRönk
nagyúr
válasz venember83 #234 üzenetére
Rosszul emlékeztem. [link]
De akkor se az R600 magas fogyasztását próbáld magyarázni, hanem azt hogy a 8800 SLI-ben hogyan fogyaszt mindössze 30W-tal többet?
[Szerkesztve]"Only two things are infinite, the universe and human stupidity, and I'm not sure about the former." (Albert Einstein)
-
venember83
nagyúr
válasz VaniliásRönk #235 üzenetére
''...mas a tap is'' - ahhoz kepest amihez viszonyitottad a 20-as hsz-ben a fogyasztasi adatokat, az abban linkelt tesztben 550es CM volt, ebben meg ugye Enermax 1kW-os. Latom idokozben te is belattad. ''SLI-fogyasztas +30 Watt'' ugyeben meg gondolkodok. Amilyen teszteket kaptam netszerte, azok szerint kb + 80/90 Watt pluszfogyasztast eredmenyez meg 1 db 8800GTX SLI-be kapcsolasa.
-
VaniliásRönk
nagyúr
válasz venember83 #236 üzenetére
Akkor nem értem min akarsz még gondolkodni, 80-90W+ már reális.
"Only two things are infinite, the universe and human stupidity, and I'm not sure about the former." (Albert Einstein)
-
venember83
nagyúr
válasz VaniliásRönk #237 üzenetére
Egyszeruen nem akarom elfogadni, h nem realis adatokat kaptunk a ph!-tol s az okokon elmelkedek Mitol lehetseges, h rudi-ek +30at mertek...
Na jo, nem elmelkedek, diplomadolgozatot gepelek -
Shadows
senior tag
de sz@r 100ropi 1 kari és fél év mulva lesz 50k de a radeon tápfogyasztása csak energiakedvezményel vagy vaskos pénztácával kapcsolódik.
lassan jobban jársz ah játékteremben játcol mert olcsóbban kijön (anyagilag meg óraára mérve is)Csak a cabriozás ad erőt és mindent elsöprő lendületet
-
B-Real
csendes tag
Sziasztok. Én egy dologhoz szeretnék hozzászólni, nevezetesen a teszt konklúziójához... ugyanis én nem értek egyet a tesztelővel, amikor azt mondta, hogy jobb választás az ATI, illetve AMD. Hogy miért is? Szerintem egyszerű a válasz. Az Nvidia most tesztelt kártyái ha jól emlékszem, több, mint fél éve jelentek meg, ami a videókártyák piacán (és általában a számítástechnikában) rengeteg idő. Na most, az, hogy megelőzi minden játékban az új AMD az Nvidia-t, szerintem így fél év elteltével alap elvárás lenne, ehhez képest, még ha többen is előzi meg, nagyon nem meggyőző a teljesítménye. Meg pl az árnyékos csalása is az egyik tesztben... maradjunk annyiban hogy nevetséges. És ha minden igaz, a Geforceok árai majd csökkeni fognak. Nem jósolok nagy jövőt az új Radeonoknak... Egy dolgot elmondanék, bár nyilván többen ismeritek ezt: a Valve-nak van egy felmérése, amiben megmutatják, milyen gépe van az ő játékaikat használóknak. Feltételezhető, hogy messze legtöbben a Half Life 2-vel/Counter Strike: Source-szal játszanak, ennek ellenére nagyjából 20 %-kal többen (Nvidial:54%,AMD:35%) használnak asztali Nvidia videókarit. Szerintem ez mindent elmond.
-
venember83
nagyúr
Radeon 2900XT elgyepalja rendesen a GTS-t s vmivel olcsobb is annal, neha veri az Ultrat is, tehat akkor miert is lenne jobb vetel az nVidia joval borsosabb araval?
Arrol most ne beszeljunk, h a programok meg nem hasznaljak ki az r600ban lapulo oriasi lehetosegeket (bar az is megerne 1 miset), de ne feledd, h nVidianak van fel ev elonye driverirasban, tehat ebbol a szempontbol is meg nagyon sokat fog fejlodni az ATi.
Nem akarlak nyiltan le nv-fan-ezni, de nagyon olyasmi a hsz-ed, ami nem baj, csak jo lenne ha az egesz kepet latnad s nem csak az ero zold oldalat.
Ja, meg ugye jelenlegi helyzetrol beszelunk, jelenlegi arakrol, nem pedig ''majdrol'' tehat arrol amit es amennyiert most meg tudsz venni 1 vga-karit, nv 8900GTS/GTX-et nem lattam meg arlistakban, te?
De ha jovorol beszelunk (aminek jelen teszt eseteben semmi ertelme) akkor ezt is vedd figyelembe: [link] Hogy ne csak megjeleno nV karikrol tudj -
B-Real
csendes tag
És még egy dolog, az hogy jobban teljesített, 6-8-as arányt jelent, azzal az árnyékos CoJ csalással. No comment.
-
B-Real
csendes tag
válasz venember83 #241 üzenetére
Néha veri. Az a néha pontosan mennyit is jelent? ... Amint látom te meg a másik oldalon állsz, szóval ezzel egálban vagyunk. Mindenesetre a Valve felmérését ajánlom neked megtekinteni. Az meg hogy majd mi lesz(most az AMD-ben rejlő lehetőségekre értettem, amit írtál), az pont olyan,m int amit én írtam az árakkal kapcsolatban. a 2900 XTX-ről ne is beszéljünk, a GDDR4 úgy fuccsolt be, ahogy illett ^^
-
B-Real
csendes tag
válasz venember83 #241 üzenetére
''Ja, meg ugye jelenlegi helyzetrol beszelunk, jelenlegi arakrol, nem pedig ''majdrol'' tehat arrol amit es amennyiert most meg tudsz venni 1 vga-karit, nv 8900GTS/GTX-et nem lattam meg arlistakban, te? ''
Mondjuk ezt egy kicsit számomra (lehet bunkó vagyok és azért nem értem) egyszerűbben meg tudnád fogalmazni? -
-
B-Real
csendes tag
És még egy dolog az előzőhöz, az hogy nem egészében nézném a dolgokat? hehe, vicces.. az ugyanis lehet (sőt, tény) hogy fél év előnye volt az Nvidiának driverfejlesztés terén, de hogy fél év előny a videókártya fejlesztése terén többet számít, azt vagy elhiszed, vagy nem.
-
B-Real
csendes tag
Azt a csalást úgy értettem, ahogy a tesztben írták, tehát képletesen...
-
FireKeeper
nagyúr
sztem több a TWIMTBP játék mint amit az amd ''támogat'' (azt se tudom mi annak a programnak a neve, biztos van valami), szvsz az amd a coj személyében talált egy game-et amiben többet ment a kártyájuk mint a rivális drágább kártyája, hogy miért sz@r a kép, azt lehet ők se tudják, bár én akkor is vagy driverre, vagy bugra gondolok...
feltalálták a ''válasz'' gombot, és akkor nem kell keresgélni, hogy mire is írtál...steam, GOG, uPlay: @petermadach || HotS: PeterMadach#2675 || Xperia 10 V || Ultrawide & SFF masterrace || Unofficial and unpaid VXE R1 shill
-
venember83
nagyúr
Arra utaltam, h ne gyere most azzal, h majd a kovetkezo generacio mit tesz a 2900xt-vel, mert semmi ertelme. S ismerve nVidiat 8900 lesz a megjelolese, hacsak nem jonnek ki a 9es szeriaval, ezt nem tudhatom...
Jovo annyi szempontbol masabb, h jelenleg gyorsabb a 2900XT mint az azonos arkategoriaban levo nVidia kartya, de ez meg javulni fog s most te meg tudod venni ezt a karit, mig az altalad emlitett eljovendo nVidia karit nem, tehat azert ez a driveres-fejlodeses-gyorsabb-lesz-dolog kotodik a jelenhez, hisz EZ a kartya lesz gyorsabb.
Igen, hw szempontjabol tobbet szamit felev, mint drivereknel, de nVidia-val is voltak kemeny problemak driverek teren, sot latva mostani tesztet, igy fel ev elonnyel sem voltak kepesek normalis drivert irni 8800 ala, lasd: nem Vistan teszteltek.
Kulonben ha megnezed a konfigom, akkor lathatod, h nem vagyok elkotelezett egyik oldal fele sem. Elozo karim ATi volt, ez nV, nem a cimke a fontos.
mod: a hsz tetejen levo mod gombot szabad hasznalni, 5 percen belul valtoztathatod a hsz-ed, igy updatelheted valaszoktol fuggoen s akar meg uj gondolatokat is fuzhetsz bele. S nem utolso sorban igy nem floodolod a forumot
Gave: en is szeretnek normal dx10es game-t, ami megmutatna, h ki van folenyben, de sajnos nem lesz. En se vitazok. Miben veri az Ultrat: Far Cry, Call of Juarez. Szepen kerlek, h ne szemelyeskedj, koszonom.
[Szerkesztve] -
B-Real
csendes tag
Az tény, hogy sokkal több az Nvidias logóval bejelentkező játék, de attól még mindig nem ad választ arra a bizonyos Valve Surveyre.
Új hozzászólás Aktív témák
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- Kupon kunyeráló
- LEGO klub
- 232 megapixelnyi kamerával futott be az Oppo Ultrája
- Aliexpress tapasztalatok
- Politika
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Stellar Blade
- Samsung Galaxy S22 Ultra - na, kinél van toll?
- Hobby elektronika
- További aktív témák...