- Zeneszerkesztő és DJ topic
- Milyen széket vegyek?
- Amlogic S905, S912 processzoros készülékek
- 16 GB RAM 2025-ben? 🤨 – Ma már tényleg kevés lehet!
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- AMD vs. INTEL vs. NVIDIA
- HiFi műszaki szemmel - sztereó hangrendszerek
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Fejhallgató erősítő és DAC topik
- Milyen billentyűzetet vegyek?
Új hozzászólás Aktív témák
-
gthomma
senior tag
Szép estét!
Egy kis érdekesség.
Egy HD6870-et szeretnék cserélni jobbra, a haver épp eladná a GTX650 1GB OC kártyáját, mondom letesztelem a gépembe, megmutatom neki mennyre alázza ronggyá az AMD az Nvidia kártyáját.
Hát semennyire.
A tesztekben valóban 60-70% gyorsabb a HD6870, de azokban a játékokban amiket én tolok marha nagy csalódás ért.
Heaven OpenGL tesztben a sima GTX650 12%-al elveri a HD6870-at.
Wow 5.4 1920x1080 high beállításokkal 25 fős raid átlag fps: HD6870 -41fps GTX650 -39fps
WoT 1920x1080 közepes részletesség melett átlag fps: HD6870 -34fps GTX650 -31fpsSzóval a sima GTX650 pont egy hajszálnyival lassabb a HD6870-nél... nagyon meglepődtem.
-
Fishor
senior tag
Sziasztok!
Mi a véleményetek erről a VGA-ról? Gigabites ből venném a 2gb ddr5 öst, viszont 12000-rel kerülne többe az ati hd7850 2gb ddr5. Megéri az atit venni, vagy ez is jó? A tesztben szinte 2. szer akkora teljesítményt írnak a 7850 javára. Egyébként 3d tervezéshez kell főként a vga, ritkán játékra, meg filmnézésre. Fontos hogy halk legyen.
Üdv: Fishor
-
callmeakos
veterán
válasz
Dr. Romano #192 üzenetére
Hát no
Van egy fontossági sorrend -
Dr. Romano
veterán
válasz
callmeakos #191 üzenetére
Érdekes látásmódod van hogy idáig a parlamentet még nem rendezted le, de egy hűtő, no azért már kis is kiutaznál
-
Löncsi
őstag
válasz
callmeakos #189 üzenetére
Különben agyonverted volna, mi ?
-
Oliverda
félisten
válasz
callmeakos #187 üzenetére
Bárhogy is néz ki, hatékony.
-
callmeakos
veterán
Hogy mennyire bazárian néz ki az MSI hűtése.....
-
válasz
Dr. Romano #185 üzenetére
mert ha még egy SMX-et kidobnak, akkor azzal elveszik az ALU-k és a TMU-k 1/4-e, és akkor már alig lenne a kártya a 7770 felett.
az ideális 3.5 SMX lenne -
Abu85
HÁZIGAZDA
válasz
Dr. Romano #179 üzenetére
A 128 bitecskét nem vetted figyelembe.
-
Dr. Romano
veterán
Ahhoz képest mennyi Csuda kór van benne sokkal nagyobb teljesítményre számítottam.
-
mickemoto
őstag
-
oettinger01
őstag
Kár, hogy 560GTX nem volt a tesztben, annál vajon mennyivel gyorsabb?
-
Flashback
addikt
És Ő ennyiért?
-
lujo10
aktív tag
Hát a jelenlegi kártyámat nemigen cserélném le erre
-
Tomix24
addikt
válasz
ClayMore #156 üzenetére
nem jól számolsz.. nézd meg jobban azt a %-ot ami az erőkülönbséget mutatja.Nekem volt 7750 - 7770 - és most 7850. A 7850-nél jelenleg ugyanazzal a procival, és ugyanazon benchmarkokkal,teljes játékokkal 70-90%-os pluszt is mérek a 7850 javára. Tehát a 7850 ár érték arányos ,illetve húzva a 7770 és 7850 között olyan különbség alakult ki hogy ár érték bajnok számomra a 7850. 7950-es gyári szinten mocorog a kari stabilan.. Best buy
-
lujó55
addikt
MSI megint odatette magát a dizájnt figyelembe véve!
-
Abu85
HÁZIGAZDA
Már van. A Havok és a Bullett kínál ilyen lehetőséget (OpenCL mindkettőnél megoldható, míg a Bullett az DirectCompute mellett is működik, és később lesz C++ AMP támogatás is).
A Havok fejlesztése ebből az irányból eléggé megfeneklett, így az annyit tud, amennyit pár éve. [link] A legtöbb fejlesztőt viszont ez az irány nem érdekli, amíg csak eye candy a dolog, szóval nem is fejlődik a Havok ebből a szempontból.
A Bullett az valamivel kedvezőbb, mert annak van nagyon hatékony rigid és soft body gyorsítása, de ez sem tud dedikált GPU-val jobb eredményt felmutatni, mint a PhysX 3. Mondjuk rosszabbat sem, mert nem a szoftveren múlik, hanem a kommunikációs korlátokon. A Bullett vezető fejlesztője már mondta, hogy ha ezeket egy erős integráció ledönti, akkor fog majd ez az irány PC-n megélénkülni, addig ez az egész a PS3-on ér valamit, ahol az SPU-ra lehet offloadolni a fizika gyorsítását. Ráadásul ott skálázni sem kell, ami a másik nagy gond PC-n. Ha játékmenetre ható fizikát csinálsz, akkor úgy kell csinálni, hogy annak minden rendszeren jól kell működnie. A skálázás szóba sem jöhet, mert megváltoztatja a játékélményt.
A fizikai gyorsítása a játékokban még pár évig olyan lesz, mint ma. DirectCompute néhány részecskeeffektre, vagy felületi deformációra és kész. Az egész inkább eye candy, mint valós fizika. A játékmenetet egyáltalán nem befolyásolják.
Amin nagyon sok manapság a téma az a rombolhatóság, de sok az ellenvélemény. A botok ugyanis sokkal sűrűbben akadhatnak be a lerombolt felületekre, ami rendkívül megnehezíti a játék fejlesztését. Az egyetlen ilyen játéksorozat a Red Faction, ami elég jól alkalmazza ezt a technikát, de ott a törmelékek jelentős része eltűnik a szemed előtt, ahogy leesett, illetve a maradék rész sem igazán része az interakciónak. Pont azért, hogy ne akadjanak bele a botok. A hatás amúgy nem rossz még ennek ellenére sem. Nyilván ezeket a döntéseket kényszerből hozták meg a fejlesztők.Az AMD kezdeményezése ezen a ponton az OpenPhysics. Ami Bullett és DMM. Ezt a két rendszert támogatják. A kezdeményezés lényege, hogy a fejlesztők helyett kifizetik a DMM licencet, ha PC-re is elkészül a játék.
-
olymind1
senior tag
válasz
ClayMore #156 üzenetére
Igen, de elég sok tesztben és játékban a 7770-nél a 7850 majdnem 2x olyan gyors, igaz nem mindenben, de min fpsnél azért meglátszik hogy az adott játék nem 10-20fps-re esik vissza hanem 30-40-re.
Míg 7770-nel a játék már darabosnak/lassúnak tűnne, addig a 7850-nel még folyamatosan fut.
-
kovsol
titán
-
IreN!CuS
őstag
válasz
ClayMore #156 üzenetére
gbors írta :
"az pedig a jelen árak mellett nem kérdés, hogy ha van +7-8e pénz, és nem erős a márkapreferencia, akkor jobban megéri a 7850 - mind 1GB, mind 2GB kivitelben."
Én erre írtam,hogy nincs 7-8 pénz a 650 Ti és a 7850(1GB) között,így még inkább megéri azt venni(7850) szerintem.7770-ről nem volt szó
-
ClayMore
aktív tag
válasz
IreN!CuS #151 üzenetére
28500 ért mennek már új bontatlan garis 7770-ek.
44000 ért kapsz 7850-et.a különbözet 15500. ez a 7770 árának 54%-ka.
Tehát hogy megkaphasd a 7850 többlet teljesítményét ami kb 33-35% 54%-kal kell többet fizetned.
ebből az következik h a 7850 akkor lenne jó ha kb 38000 ért mennevagy nem jól gondoltam át
-
MongolZ
addikt
válasz
Jim Tonic #131 üzenetére
Az baj, hogy én is leírom? Hogy látják, hogy nem 1-2 embernek van problémája ezzel, hanem többnek?
Igen, ez az egész akkor változott, amikor átlag fpsben egyes nVidia kártyák gyengébbek voltak, viszont minimumban gyorsabbak.#132 Redneck: Engem sokkal jobban érdekel, hogy mennyi az átlag fps. Mire megyek azzal, hogy az átlag mondjuk 20 fps, de a minimum 15, hogy ha egy másik kártyán 60 az átlag fps, de a minimum 10? A max meg végképp nem érdekel. Egyébként az igazi az lenne, hogy ha grafikonon lehetne ábrázolni az idő függvényében az fps változását, de tudom, hogy ez rengeteg grafikon és a legfontosabb: idő kérdése.
-
nyunyu
félisten
válasz
tzsolesz #147 üzenetére
En anno elegge meglepodtem, hogy milyen sokat zabal a GTX460.
Kb. 30W-tal tobbet eszik kihajtva, mint egy 7900GTO, ami par korrel korabban csucskartya volt. -
Abu85
HÁZIGAZDA
Éppenséggel ajánlhatunk, csak a teljesítmény/watt is tényező, és az is, hogy az új generációhoz mindig jobb a support.
(#133) Dagidög: [link] - nem akadt el, csak más csinálja.
(#124) gbors: Az AO-t sosem váltjuk ki GI-jal. Tudom, hogy sokan erről fantáziálnak, de már vannak rá kísérletek és az eredmény nem elég jó.
A fake AO az kényszer. Természetes, hogy az SS megoldás nem fedi a valóságot (mint általában), de nem SS-alapú AO meg marhára teljesítményigényes, szóval egyelőre elfogadjuk a trükköket, ha csak a teljesítmény töredékével fizetünk érte, és a hatás elég jó ahhoz, hogy szimuláltnak tekinthető legyen. -
amióta mindkét gyártó ráfeküdt az alacsony idle fogyasztásra, azóta az alacsonyabb fogyasztású kártya alól kihullott az anyagi indok. ettől még jó dolog a kevés W - van, aki elvi okból igyekszik a fogyasztást korlátozni, és van, ahol a hűtés korlátai is jelentkeznek. csak tudni kell, mi a fontos.
az pedig a jelen árak mellett nem kérdés, hogy ha van +7-8e pénz, és nem erős a márkapreferencia, akkor jobban megéri a 7850 - mind 1GB, mind 2GB kivitelben.
-
tzsolesz
nagyúr
Ezek a fogyasztások. Atya ég. Nem semmi. lassan kevesebbet esznek a mai középkategóriás VGA-k, mint az őskövület belépőszintű kártyának sem nevezhető 2600pro-m.
A teszt minőségi lett, köszönjük.
-
nyunyu
félisten
Na jo, de ha hasznaltan eladja a 460-at, es vesz helyette egy uj 650Ti-t, akkor legalabb 15k-t ra kell fizetnie.
Az meg mikor terul meg villanyszamlaban?
Atlag 50W fogyasztas csokkenessel szamolva 20 uzemorankent sporol 1kWh-t, ami most 50Ft, igy 15k=6000 uzemora.Ezt elnezve annyit eszik a 460 1GB, mint a mostani tesztben is szereplo 560Ti.
Vagyis idleben 13W, jatek kozben 74W-tal csokkent a konfig ossz fogyasztasa.
Az atlagosan boven kevesebb, mint 50W csokkenes, hiszen az ido tulnyomo reszeben idle a kartya, tehat meg lassabban terul meg az uj zsuga.Akkor mar inkabb 7850, az ugyan kevesbe sporolos, meg 15k helyett 20k-t kell rafizetni, viszont lenyegesen nagyobb teljesitmenyt nyujt.
-
Ennek a kis nyamvadéknak annyi a load hőfoka mint az enyémnek az idle.
-
Redneck
nagyúr
Ahogy régen mondták, rendezzétek le LAN-on
Viccet félretéve, egy GTX 460-at nem éri meg lecserélni rá, de ettől függetlenül jó kis kártya. Ha olcsón adják megéri a pénzét.
-
Löncsi
őstag
válasz
Hivatalnok #138 üzenetére
Jelenleg egy újonctól túl sok mindent nem tudok felvenni sajnos... írtál valamit, alig látom... hmm mind1, képzelődöm. Ilyesmit itt nem is folytatnám, ha vmi zavar, privi.
-
Löncsi
őstag
válasz
Hivatalnok #136 üzenetére
6 db szakmai hsz.-el én nem kötekednék. Egyébként most pont Te személyeskedsz.
-
Jack@l
veterán
Most hogy js csinálja a grfikont adattáblából, vagy te szuttyogsz legenerálni azokat excelbe, az nem hiszem hogy többlet munka, sőt... Nemtom mennyire jó a webprogramozótok, de kitalálni lekódolni nem lehet több 1-2 napnál egy ilyet. Megéri mindeképp hosszabb távon, szerintem.
-
Jól vettem ki a tesztből, hogy még nem éri meg lecserélnem a Giga GTX 460OC-t?
-
csucsbicep
nagyúr
válasz
Turbolada II #127 üzenetére
Akkor már inkább 7790.
-
MongolZ
addikt
A francba már, tudom, hogy az nVidia fanok találták ki a minimum fps szerinti sorrendet, de akkor is az átlag fps szerint kellene rangsorolni... annyira kuszák a grafikonok, hogy nemigaz...
-
válasz
Turbolada II #127 üzenetére
?
-
Turbolada II
őstag
HD 6860.
Annyit tud mint egy húzott 6850. 30K-ért jó vétel.
-
csucsbicep
nagyúr
Kis hiba a 4. oldalon a legalsó táblázat fölött:
Az MSI GK106-alapú grafikus processzora 100 MHz-nyi pluszt viselt el, a GDDR5-ös chipeket pedig 200 MHz-cel sikerült feljebb tornászni, egészen 1550 MHz-ig. 256 bites hubvezérelt
-
ha már itt filozofálunk, akkor érdemes azt is hozzátenni, hogy a vpl alapú (meg minden más rendesen kiszámolt) global illuminationnek az a fő baja, hogy felhasználó oldalon nem látsz nagy különbséget. erre pont az a két kép a legjobb példa, amit linkeltél - szebb a gi-változat, persze, de nem jelentősen.
az igazi értéke az lenne egy normális lighting modellnek (szvsz), hogy a rengeteg fake postprocess megvilágítási effektet ki lehetne seprűzni, és lehetne újdonságokat behozni anélkül, hogy keresztbe kellene mindegyikkel tesztelni, hogy pl. vajon a fake ambient occlusiont nem borítja-e meg. itt még sajna nem tart a dolog - de valahol el kell kezdeni. -
csongi
veterán
Sikerült utolérni a 5850-et.
Még mindig nincs miért váltanom. Sőt még egy 5850 és megint sokáig nincs értelem váltani. Úgy is Konzol port a jelenlegi Pc-s játékok túlnyomó része.
-
huskydog17
addikt
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #120 üzenetére
A GI egy ideje van a játékokban, mert fontos, hogy a lehető legjobban közelíts a valóságos fényviszonyokhoz. A valós időben számolt GI viszont erőforrás-igényes. Lásd DiRT: Showdows és GR: Future Soldier.
A fake GI, az lényegében egy előre számolt dolog. Nem reagál a környezeti változásra, ahogy a valós időben számolt GI, de mégis megpróbál elérni egy szimulált hatást. A fake GI-t természetesen nem kell számolni, mivel előre be van sütve a textúrákba.
Aki kér az kap, de nincs ráerőszakolva senkire. Ezt a fejlesztőnek kell eldöntenie, hogy szeretne-e ilyen effektet.A DiRT Showdown-ban az AL bekapcsolása után lesznek generálva a VPL-ek (virtuális pontfényforrások). Enélkül a GI bekapcsolása nem ér semmit, ezért nem esik a sebesség. Gyakorlatilag az effekt, mint funkció lefut, de 0 VPL került generálásra a forward+ lighting render nélkül, így a semmire fut le. Gyakorlatilag a fázis beékelésén kívül semmi nem történik.
A DiRT Showdown-ban az AL megvan GI nélkül, de a GI nem működik AL nélkül. -
huskydog17
addikt
"Nem kap GI-t az AC3. A szokásos fake GI lesz."
Mi az, hogy Fake GI? Ez mit takar? Leginkább képminőség és erőforrás-szempontjából kérdem.
A Gaming Evolved címek majd mind valós GI-t kapnak?Amúgy YouTube-on jó néhány hasznos információt találni a Dirt Showdown sebességéről AL+GI használata mellett. Önmagában ha az ember csak a GI-t kapcsolja be, de az AL-t nem, akkor szinte semmit nem esik a sebesség, de a kettő együtt legalább a felére viszi a framerate-t.
-
Abu85
HÁZIGAZDA
Ez nem így működik. Mivel neked nincs semmilyen moderátori figyelmeztetésed, vagy szabályszegésed te még nagyon messze vagy a végleges bantól. Löncsinek már meg lett mondva, hogy a rengeteg szabályszegése után már csak egy dobása van.
Nem az ellenvéleményen van a hangsúly, hanem a szabályszegésen. Te úgy mondod el az ellenvéleményed, hogy tartózkodsz mindenféle burkolt, vagy nyílt fikázástól, ami az oldal ellen irányul. Nem biztos, hogy egyetértünk vele, de az biztos, hogy kulturált formában mondod el a véleményed, ami a szabályok ellen nem vét. Ilyen formában megteheted, mivel nem becsmérled az oldalt.(#117) huskydog17: Nincs a nappali viszonyokról képem, de látszik a különbség. Ez főleg annak köszönhető, hogy a Dirt Showdown a külön rendert használ estére és nappalra. Advanced lighting mellett viszont mindegy a napszak. A normál rendernél az a különbség, hogy este van még egy extra compute fázis, ami a fényeket javítja fel. Nappal ez nincs.
Arról nincs képem. De olyan lehet, mint ez ( On - Off ), hiszen dettó ugyanezt az effektet adta oda nekik a AMD.
Nem kap GI-t az AC3. A szokásos fake GI lesz.
(#119) Löncsi: Olyan dolgokért kaptad, amiért más is kapna. És egyik bant sem mi, házigazdák osztottuk ki. A moderátorok vették észre, és ők cselekedtek, saját belátásuk szerint, amit a szabályok vezérelnek.
Ha esetleg te változtatnál a hozzáállásodon, akkor nem így állnánk hozzád. Azért nem vagy véglegesen kitiltva, mert úgy gondoljuk, hogy kellően értelmes vagy ahhoz, hogy változtass. Ha nem megy, akkor ennyi, de a lehetőséget megadjuk. -
huskydog17
addikt
Először is köszönet az összehasonlító képekért!
Sajnos két darab állókép nem sokat mond a különbségről. Tudnál esetleg linkelni olyan gameplay videót, ahol bemutatják a különbséget és lehetőleg nappal van a játékban? Azt tudom, hogy éjszakai fényeknél jobban látni a különbséget, de érdekelne, hogy mekkora különbség van nappali fényviszonyok mellett.
Esetleg van linked egy Ghost Recon: FS GI on vs. GI off összehasonlító videóról?
Amúgy nagyon kíváncsi vagyok, hogy milyen lesz a GI az új Hitman-ban, de legfőképp a FC3-ban, itt leginkább arra gondolok, hogy mekkora sebességvesztést fog okozni ezeknél a címeknél. Bár a Computerbase a napokban le tudta tesztelni a Hitman Absolution PC verzióját, ahol valamivel jobb a sebesség , bár lehetne rajta még pofozni (Radeon 7870-el 1680-as felbontásban, aktív AA/AF mellett átlagosan 60 környékén volt, egy hangyányit alatta, néha leesett 40-450 környékére). Valószínűsítem, hogy az AC3 is kap egy GI-t, de erről semmi infóm nincs, erről tudsz valamit?
On: Elismerem, hogy valóban elég jól sikerült ez a VGA, bár én továbbra is a 7800-as Radeon szériát tartom jobb vételnek.
-
Abu85
HÁZIGAZDA
Akkor azt mivel magyarázod, hogy a linken GeForce kártyán is előjön? Mert erről ír az úriember.
Ez nem általános gond. Az egyes rendszereken néhány fájlt nem talál meg. Azért jön elő. Nyilván kijavítják.
Ugyanerről a gondról egy másik topik: [link] Rögtön a második ember GeForce-szal posztolta a hibát. [link]
De nyugodtan fröcsöghetsz tovább, hogy csak Radeonnal jön elő stb. A bizonyítékok már ellentmondtak neked.
Nem a VGA-tól függ, hogy a program megtalál-e pár fájlt.Pontosan. Te már a határon mozogsz. Az ilyen kirohanások szárnyakat fognak eredményezni.
-
-
Abu85
HÁZIGAZDA
A legtöbb játékban van AO. De ezeken vitázhatunk, hogy mi van és mi nincs. Mert pró és kontra érvek ott vannak mindkettő mellett. A Radeonon van MLAA2.0, ami sokkal jobb képminőséget ad az FXAA-nál, és állíthatsz driverből autoLOD SSAA-t minden játékra. A GeForce-on utóbbi nincs, de van HBAO pár játékra. Szóval nincs olyan, hogy az egyik mindenben jobb, mert innen-onnan úgyis hiányzik ez meg az.
A Dishonoredre: [link]
Mindenkinél előjöhet. De volt akinek az megoldotta, hogy a C-re pakolta a játékot. Ezt a Steam miatt problémás megtenni, de amíg nincs patch, addig ez van.
Én sem szenvedek, csak használom.Mégis folyamatosan bizonygatsz és magyarázgatsz.
-
DonToni
aktív tag
Bakker.... adhatom el a GTX 460-asom!
Egy teszt azért jó lenne, amiben a régebbi kártyákkal is össze vetik.
Érdemes -e váltani pl. GTX 460-ról vagy sem, stb... -
Löncsi
őstag
Radeon alatt rendesen tuti nem... AO támogatás sincs. És kész csoda h teszteken nincs gond, IRL nem ez van...[link]. Kétkártyás rendszerrel én tuti nem szenvedek.
De hát szerencsére nem én ajánlgatom az AMD kártyákat, nekem nem kell bizonyítgatnom és magyaráznom semmit sem. -
A_Papa
senior tag
Sziasztok!
Ez a kártya sokkal gyorsabb, mint egy 4890-es? Érdemes arról egy ilyenre váltani? (1680*1050-es felbontást használok.)
köszi a válaszokat!
-
ClayMore
aktív tag
troll szagot érzek! vagy fürdenem kéne!?
-
Abu85
HÁZIGAZDA
A Radeon driverben is lehet profilozni játékokat. A support egy szinten van. Legalábbis mi már évek óta nem tapasztalunk problémát a teszteken. Hiba mindkét driverben van, de ezért jönnek új verziók.
A PhysX és a CUDA az egy döntési kényszer. Ez a mérlegelés része. Vagy gyors DX11-es compute teljesítményt akarsz, vagy PhysX-et és CUDA-t. A kettő együtt most nincs meg. Maximum ilyen hibrid konfiggal. Az új hack-kel most az nagyon jól megy. Én is visszaraktam a GeForce GT 240-et a Radeon mellé.Így nekem most megvan minden extra, igaz két GPU-t kell használnom.
-
Löncsi
őstag
Jó, de a GHZ edition csak egy túlfeszelt, túlhúzott kártya (mennyi is ilyenkor a fogyasztás..?)... itthon én is süthetek ilyen BIOS-t. És hiába veszek Radeon-t ami gyorsabb, elvesztek minden nVidia fícsört (jobb driver support, rendesen profilozható játékok, CUDA, Physx).
-
Abu85
HÁZIGAZDA
Igencsak elfelejti kend, hogy a GTX 680 árában 7970 GHz Editiont is lehet kapni, ami +14 fps. Százalékosan a Radeon 50%-kal gyorsabb. Illetve lesz idén még egy kis meglepi, de erről majd később.
Egyébként a top kategória a farokméregetésről szól.(#101) Peter789: Tulajdonképpen igen. Egyes effekteket a DirectCompute futószalagon sokkal gyorsabbak lehetnek, mint nélküle.
AI-ra nehéz használni. Túl bonyolult az implementálása. Ahhoz a DirectCompute-nál több kell.
Ha a fizikán eye candy szintű dolgot értesz, vagyis játékmenetet nem befolyásoló dolgot, akkor arra már használják a DirectCompute-ot. Játékmenetre nem igazán szeretnek gyorsított fizikát használni a fejlesztők.
Ha játszol az új compute igényes DX11-es játékokon, akkor a HD 7770 kedvezőbb, de amúgy a GTX 650 Ti. Ellenben nem sokkal drágább a HD 7850 1 GB-os verziója. Az mindkettőnél sokkal jobb. -
Peter789
senior tag
akkor ez a DirectCompute tulképp a magasabb grafikai beállításokhoz kötődő extra számításokat gyorsítja ? vagy inkább az AI, fizika meg hasonlók ?
én az alacsonyabb felbontást, de minél részletesebb grafikai beállításokat (AA, AF off) preferálom - akkor a 650 Ti-vel vagy a 7770-el járnék jobban ebből az ársávból?
-
Löncsi
őstag
-
MZperX75
addikt
Simán vinném ezt a kártyát,keveset fogyaszt jól megy 1 szlotos(HTPC-be kipróbálnék egy ilyet) Csak hát
AZ enyémbe egy HD6670-es való,nem ilyen.
30.000Ft-ért Best lehetne a piacon!
-
Abu85
HÁZIGAZDA
Abszolút nem emészti fel a modernebb kártyákat, csak a GCN hatékonyan hajtja végre az elágazásokkal tarkított kódokat. De mint írtam, a VPL-GI kikapcsolása +30 fps-t hoz, és az erőviszonyokat nem változtatja meg.
Jobb autóversenyt idén nem tudok mondani.
Az AMD pénzeli idén az AAA játékok jelentős részét. Most ekkor ezzel az erővel az érkező Medal of Honor: Warfighter, a Hitman: Absolution, a Far Cry 3, a Bioshock Infinite, a Tomb Raider, a Total War: Rome 2, stb. mind rossz játékok lesznek, mert a Gaming Evolved partnerprogramon belül támogatják a fejlesztést?
Nem omlottam össze idegileg, csak nem értem a rációt abban, amit írsz. -
Comes
tag
Sziasztok!
Jelenleg VGA kártya vásárlása előtt állok, ezért fordulok hozzátok, hiszen biztosan akad közöttetek "szakértő"
A jelenlegi konfigurációm lehet, hogy már idejemúlt, de nem szeretném más alkatrészekre, vagy új konfigot összeállítani.
Elsősorban játékra (FPS) valamint HD-minőségű filmek nézésére, illetve nem utolsó sorban hosszú távra "fókuszálnék".
A ráfordított "kredit" max. 40e lenne.
Jelenlegi konfigom:
ASUS M2A-VM alaplap (400W táp)
AMD 5200+ (2.7 GHZ) 64bit 2magos CPU
320GB Western Digital HDD (7200rpm, 8mb cache)
4 GB DDRII 800 Mhz RAM
WIN7 32-bit (mindenképpen 64-bitest telepítenék a számítógépemre)Válaszotokat előre is köszönöm
-
Gaga_30
tag
Ha már ott van a tesztben, hogy konvertálás, akkor én pl szivesen láttam volna egy konvertálási tesztet is.
Teszem fel pl. mediaespressoval, ha már ott van benne a lehetőség, akkor sokan ki is használnák úgy gondolom. Ehhez viszont nem ártana összehasonlitási alap is.
Egyébként szokásosan korrekt a teszt. -
Abu85
HÁZIGAZDA
Az nem csoda megvilágítás, hanem fejlett. Azért nem kell rá haragudni, mert megoldotta korunk legnagyobb problémáját, vagyis mehet rajta sokezer pontfényforrás úgy, hogy nem korlátozza a felületi variációkat, az átlátszóságot, és az MSAA-t. Enélkül nem nézne ki úgy a játék, ahogy. Ha nem építik be, akkor így nézne ki a játék: [link] , de beépítve így néz ki: [link]
A Codemasters a PH fórumain is megkapta, hogy az EGO felett egy picit eljárt az idő. A Dirt 1 szép volt, a Dirt 2 még szebb, de a Dirt 3-ra már csak azt mondtad, hogy szép-szép, de nincs áttörés. A fejlesztők ugyanezt hallották máshol is. Reagáltak rá egy radikálisan új elvekre épülő renderrel, és most sokak szemében ők a világ gonosztevői, hogy nem figyeltek arra, hogy erős computeban a Kepler gyenge. De azt senki sem veszi észre, hogy ha nem forward+ lighting mellett csinálják meg ezt, akkor 2-4 fps-sel sem futna semmin. Azért lett a Codemasters az új sátán, mert nem tradicionális forward renderre építenek, és 6-10-szeresre gyorsították az elképzelésükkel a feldolgozást? Ébredjetek már fel ... jót csináltak nektek. -
Abu85
HÁZIGAZDA
Azért, mert nem akadozik, és azért, mert kiadott 500 dollárt a max. grafikáért.
Eleve ha kikapcsolod a GI effektet, akkor az +20-30 fps nagyjából minden VGA-n. És ettől még a sorrend, nem változik meg, mert az AL effekt az, ami a Keplert kiüti. Ez a Radeonon 4-6 fps-be kerül, a Kepleren pedig 20-30-ba. A régebbi architektúrákon (Fermi-VLIW) 15-20 fps a bünti.
Ha kevés a sebesség, akkor nem az AL effekttel fogsz kezdeni, mert az nagyon látszik a képminőségen. A VPL-GI, amit kezdésnek érdemes kikapcsolni. -
Peter789
senior tag
a régi samu hdready tévémet alapból HDMI-n használom és úgy semmi gondom vele, viszont amikor régi vidkártyákat próbálgatok VGA-n, akkor gyakran előjön az, hogy driver telepítése, és 1024*768-ra állítás után jön a "mode not supported". átdugtam hagyományos monitorra és kiderült hogy valamivel 75Hz fölé állt be pár tizeddel > ezt már nem szereti a tévém és levág. lehet nálad is hasonló a helyzet, hogy nagyon ki van centizve a működési határérték, és bizonyos helyzetekben "túlhajtja" a vidkártya amit a monitorod meg nem hagy. persze ez valszeg szimpla szoftverhiba, rosszul állapítja meg az ideális paramtétereket...
-
Loha
veterán
Most attól, hogy írtál megint egy kisregényt compute témakörben, nem magyaráztad meg, hogy miért játszana bárki egy csúcskártyán akadozva... Hiába csúcskártya a 7970, ha nem viszi normális FPS mellett max grafikán a játékot, akkor nem max grafikán fogják vele tolni, ha viszont nem max grafikán tolják, akkor meg változhatnak az erőviszonyok, mert ugrik a compute... Na mind1, szerintem olyan beállítások mellett érdemes tesztelni, amilyen beállítások mellett a többség játszani fog az adott játékkal, pl. ahogy a mostani tesztben is csináltátok ez korrekt lett.
-
kovsol
titán
tudom off itt, de most itt pörög a téma
7770 128 bites hubvezérelt, a többi meg 128/192/256 bites crossbar
mit is jelent ez pontosan ? Mármint a hubvezérelt és a crossbar jelentésére lennék kíváncsi -
Taranti
senior tag
-
nyunyu
félisten
Most nezem eppen iponon:
Palit 650 OC: 28.1k
Palit 650Ti 37.3k.37k-ert vettem a Palit GTX460 768-at 2 eve...
-
dfsz34
őstag
Miért a sima 7770-t és nem az OC-t tesztelik????? Alig pár ezerrel drágább és az már nagyon rámászik a 650Ti-re, sokkal reálisabb lett volna a teszt.
-
kovsol
titán
Nekem PC módban van a TV így nem kell állítani semmit, hangot már a hd3870 kártyám óta viszem ki HDMI vel és kifogástalanul működik.
(#77) nyunyu mobilty hd3470 dvi-hdmi átalakítóval is simán automatán ment minden pc módban, nem kellett állítani semmit. samsung d5000 van nekem. -
nyunyu
félisten
HDMI bugok alatt nem tudom mire gondolsz, de én 6850 és 7850 -t is hdmi vel használom, soha nem is volt rákötve másmilyen kijelző.
1. Akarhanyszor Catalystet frissitettem, mindig kezzel be kellett allitani, hogy a pixelmapping 1:1 legyen, mert alapertelmezetten 15%-kal kisebb volt a kep.
2. Nem 60Hz kepfrekire valtasnal a TVm nem ismerte fel a kapott videojelet, jopar TV reboot+5-10 perc szarakodas utan volt csak kep. Filmnezeshez ugye 23.976Hz kell, esetleg angol Top Gearhez 50Hz.
(3. azota lett HDMIs erositom, igy az uj kartyanal is igenyt tartanek arra, hogy a Windows hangja kimenjen a HDMIn. nVken tudom, hogy driver buhera nelkul mukodik, Atikrol nem sok infom van.)Szerk: Catalyst 9.12-10.9 kozottieket hasznaltam utoljara.
-
nyunyu
félisten
Ha hozzavetolegesen osszerakjuk a mostani 650Ti teszt vegeredmeny grafikonjat a 6870 tesztevel, akkor 6870 egyenertekre atszamolva a minimum+atlagfpst:
(Zarojeles ertekek a 7770 tesztbol lettek szamitva)HD5850: 93.63%
HD5870: 110.86%
HD6850: 86.89% (83.04%)
HD6870: 100%
HD7750: 60.33% (59.03%)
HD7770: 78.53% (76.90%)
HD7850: 123.76%
GTX460 768MB: 72.84%
GTX460 1GB: 82.58%
GTX470: 99.15%
GTX550Ti: (64.82%)
GTX560: (97.63%)
GTX560Ti: 110.38%
GTX650: 65.75%
GTX650Ti: 87.98%
GTX660: 137.98%Nyilvan pontosan nem lehet osszevetni a ket teszt adatait, hiszen teljesen mas proci volt alattuk, meg masok voltak a teszt alkalmazasok is, meg a ujabb GPUk driverei is fejlodtek valamennyit, mig a regebbi kartyake valoszinuleg kevesebbet.
-
Male
nagyúr
Nekem teljesen jó a mostani módszer... halványan rémlik ez a fórumos szakasz, és mintha én is a minimum mellett lettem volna. Szóval nem ezért írtam.
Egyébként nem hinném, hogy bonyolultabb lenne a cikkírónak a JS verzió... ott nem kell elkészíteni a grafikont, csak a mért eredményeket beírod.
( viszont előny lenne, hogy pl az olvasó könnyedén hozzáadhat pl régebbi cikkből eredményt, és egyben láthatja azzal ) -
kovsol
titán
Nem összehasonlítható a két architektúrában lévő shaderek száma. Kiráz a hideg ettől a papíron összehasonlítgatástól. Na meg a memória sávszélre se biztos, hogy egyformán érzékenyek a kártyák.
HDMI bugok alatt nem tudom mire gondolsz, de én 6850 és 7850 -t is hdmi vel használom, soha nem is volt rákötve másmilyen kijelző.
-
nyunyu
félisten
Éppen most akartam kérdezni,hogy a gtx460-al körülbelül partiban vannak-e?
Ha jol remlik, a kisebbik GTX460, ami nekem van, kb. a 7750 szintjen teljesit.
Ehhez kepest a sima GTX650 a papiron 50%-kal gyorsabb GPUjaval (384 shader*1050MHz vs 336*675MHz) alig gyorsabb a 7750-nel.Hozza kell persze tenni, hogy az en herelt memoriavezerlos 460-amnak nagyobb a memoriasavszelessege, mint a 650-nek. (86400MB/sec vs 80000)
Mint mar a korabbi 660ti, 660 tesztes topikokban irtam, egy a mostaninal legalabb 50%-kal gyorsabb, kevesebbet zabalo, max 40k-ba kerulo kartyara faj a fogam.
Mivel 32" TVt hasznalok monitor helyett, igy kenytelen vagyok 1920x1080-on jatszani.Mostani arakat elnezve kb. 1 honap mulva a 7850 1GB meg fog felelni ezeknek a kriteriumaimnak, kerdes persze az, hogy Atieknak sikerult-e valamit kezdenie a HDMIs bugjaikkal, vagy az uj kartyakon is olyan idiotan mukodik, mint par eve a 785G chipset IGPjevel?
Ahhoz kepest kesz megvaltas volt a GTX460: elsore jol mukodott, akarhogy allitottam filmnezeshez a kepfrekit... -
Abu85
HÁZIGAZDA
Nem csak a Dirt Showdown compute igényes, hanem a Ghost Recon: Future Soldier, a Nexuiz, a Sniper Elite V2 és a Sleeping Dogs is. Ez egy folyamat már, mert a compute-tal sokkal gyorsabban oldhatsz meg dolgokat, mint nélküle. A Dirt: Showdown abból a szempontból más, hogy ez az első játék, mely olyan kódot használ, ami sok elágazást tartalmaz. Erre azért volt szükség, mert a korábbi EGO motor verziók forward renderek. Ennek megfelelően nem kezelnek hatékonyan több ezer pontfényforrást. Ezért ment a legtöbb motor deferred render irányba az elmúlt években. Ennek is megvan a maga böjtje a limitált felületi variációkkal, az inkompatibilis MSAA-val és az átlátszóság korlátozott támogatásával. A Codemasters úgy döntött, hogy nekik a forward nem jó, de a deferred render negatívumait sem akarják lenyelni. Ezért választottak egy olyan alternatívát, ami úgy kezel több ezer pontfényforrást, hogy működik mellette az MSAA, tökéletes az átlátszóság kezelése, és komplex felületeket is támogat. Ez a forward+ lighting technika. Fejlesztői szemmel nem mehettek el emellett, így nyilván beleugrottak, ha már lehetőség adódott rá. Így most ők rendelkeznek a piac legmodernebb grafikus motorjával, amire építhetnek a jövőben. Egy fejlesztő a legkevésbé sem szerette a forward és a deferred renderek közötti különbséget. Nem jó, ha a fontos dolgokban kompromisszumot kötnek. Senki sem szeret a sok fényforrás hatékony kezelése és a komplex felületek között dönteni, de nyilván a forward+ lighting előtt ezt meg kellett tenni, mert nem volt más megoldás, de az év eleje óta már van.
Olyan hihetetlen sok ma a félreértés a komoly compute effektek körül. Sokan úgy tekintenek rá, hogy rossz, mert a Keplert nem készítették fel rá. Na most a helyzet az, hogy a compute irányból minden VGA profitál. Csak egy példát mondok. Ha a DiRT Showdown ugyanezt a grafikai szintet tradicionális forward renderrel valósítja meg, akkor a sebesség nem lenne több a legerősebb kártyákon sem 2-4 fps-nél. Ergo nem a GCN miatt csinálják, hanem azért, hogy mindegyik kártyát begyorsítsák. Nyilván a GCN-t erre az irányra építették, tehát várható, hogy jóval többet profitál ebből az egészből, de a Kepler is legalább 5-7-szeres sebességtöbbletre tesz szert, ahhoz képest, hogy mennyit menne a forward+ lighting nélkül. Ezért ennyire erős a compute effektek beépítése a mai játékokba, mert nem azt mérlegelik a fejlesztők, hogy jaj most a Keplernek rossz lesz a GCN ellen, hanem azt, hogy ettől a Kepler is gyorsul, ami végső soron jó a felhasználóknak. Az persze igaz, hogy a GCN többet gyorsul, de a cél minden terméken a leggyorsabb kód lerakása az asztalra.
(#64) Peter789: A compute rész az arról szól, hogy a játékban bizonyos effekteket nem a DX11 hagyományos futószalagjával oldasz meg, hanem a DirectCompute-tal. Ez összességében nem kevés gyorsulást hozhat az adott alkalmazásra nézve. Lásd példának, hogy a HDAO DX10-es implementációjánál 7x gyorsabb a DX11-es compute implementáció. A képminőség ugyanaz, de sokkal hamarabb megvan az eredmény. Ugyanez vonatkozik más effektekre is. Nem állandó az ugrásszerű gyorsulás, mert nagyon függ ettől, hogy mennyi a számolás, de jellemzően elmondható, hogy a sebességelőny az 10%-tól a 10x-os gyorsulásig is terjedhet. Nyilván a fejlesztők szeme előtt főleg a sokszoros gyorsulások lebegnek, amikor ebbe belevágnak, de a +10% is elég jó, bár az a képkockaszámítás szintjén alig fog látszani, viszont sok +10% már érezhető előny.
DirectCompute-tal jellemzően a post-process effekteket szokás gyorsítani, mert arra tényleg kiváló, és a post-process effektek jellegzetessége, hogy néha úgy futnak le, hogy nincs eredményük, ami már pazarlás, de DirectCompute mellett kevesebbet pazaroltál el. De nyilván a DirectCompute sokkal komplexebb dolgokra is jó. Az UE4 például az első olyan motor, aminek a futószalagjának jó része compute shaderben van írva. Az, hogy megjött a Win 8-cal az új shader trace interfész, a fejlesztők jóval egyszerűbben írhatnak compute shader kódot, így végre nem kell az AMD-hez és az NV-hez menni a bonyolult kódokért. -
Peter789
senior tag
szia! ez az általad említett compute effect témakör ez pontosan mi? próbáltam rákeresni, de nem találtam választ... ezek az AA, AF és hasonlók használata vagy más, játékon belüli minőségi beállítások? egy fél gigás 4850-et szeretnék lassan lecserélni - az előző assassin's creed-et már nem tudtam 1360x768 max grafikán futtatni (AF és AA nélkül, ezekért nem vagyok oda, max egy kevés AF), így a most kijövő következő részre szeretnék fejleszteni - szóval ilyen relatív alacsony felbontás, de lehetőleg minél magasabb grafikai részletesség mellett inkább 650 Ti vagy HD7770 lenne nekem a nyerő egy 4GHz-en járó E6500 mellé?
-
maross
nagyúr
"A gyárilag túlhajtott megoldások természetesen most is felárasak, így a nálunk járt ASUS VGA nagyjából 43-44 000 forint környékén vihető haza, az MSI modellje viszont már 41 000 Ft-ért is megvásárolható. Mivel a két kártya között minimális a teljesítménybeli különbség, valamint a hűtésük hatékonysága és zajszintje is nagyon hasonló, így mi két kártya közül – alacsonyabb ára miatt – inkább az MSI megoldását ajánljuk"
Ezt nem ertem..5%-kal tobbe kerul, 5%-kal jobban muzsikal a jatek. Ez testverek kozt is jo biznisz, ugyanolyan proci mellett, raadasul nem is hangosabb...legalabb annyira megerdemelte volna az ajanlottat, mint a masik.
-
Loha
veterán
Biztosan rengeteg 7970 tulaj tolja a DiRT: Showdown-t 24-es min és 33-as átlag FPS mellett, mondjuk eleve biztosan nagyon sokan játszanak eleve az egész játékkal...
A fórumozók ezért a legmagasabb beállítás minimum fps-ét választották rendezésre. Ezt belinkelhetnéd mert sosem találtam 1-2 kósza hozzászólásnál többet...
-
Warrax
csendes tag
Ha jól láttam, akkor a cikkből kimaradt, hogy ez a kártya SLI nélkül való. Ebben a kategóriában ez nem feltétlenül szempont, de mindenképp mérlegelési alap szerintem.
-
PetX
aktív tag
Teljesítményben hol van kb. egy 6950-hez képest?
-
Oliverda
félisten
Megadjuk a lehetőséget Neked is: készítsd el nekünk a scriptet. Ígérem kapsz érte minimum egy köszönőcikket, és még a priuszlistádat is lenulláztatom.
Persze nyilván ebből nem lesz semmi, mert dumálni mindig sokkal könnyebb, mint lépni valamit.
Loha: Ha összeszedsz legalább 10 különböző tagtól ezt kifogásoló hozzászólást, akkor ígérem, hogy komolyan átgondoljuk a módosítást, de legalábbis egy szavazás biztosan lenne róla.
-
Löncsi
őstag
-
Abu85
HÁZIGAZDA
A korábbi teszt a 200 dollár feletti kártyákkal ment. Azoknak a max beállításokon is teljesíteni kell, mert azért fizetsz értük annyit, hogy ne kössél kompromisszumit. Arról nem mi tehetünk, hogy a Kepler annyira gyenge computeban, hogy a legújabb DX11-es játékok egyes effektjeitől sokkal jobban esik a teljesítménye, mint a GCN-nek. A Dirt Showdownban is bekapcsolhattunk volna az Advanced Lightingot. A GCN-nek 4-6 fps veszteség, míg a Keplernek 20-30 fps mínuszt ad. Egyszerűen az NVIDIA nem arra tervezte az architektúrát, hogy a bonyolult kódokban helytálljon. Ennyi a történet. De ezt leírtuk rengeteg alkalommal. Az új DX11-es játékokban max. beállítás mellett a GCN egyszerűen érezhetően hatékonyabban működik.
(#53) Male: A JS grafikonok sokkal bonyolultabbá tennék a munkánkat. Ezért vagyunk a kép mellett. Azt pedig mindenki elfogadhatja, hogy valami alapján rendezni kell. Még Fless kérdezte meg pár éve, hogy mi alapján legyen, mert senkinek sem tetszett az első Fermi tesztben a rendezés, ugyanis nem mutatott rá arra, hogy a Ferminek jobb volt a minimum fps-e. A fórumozók ezért a legmagasabb beállítás minimum fps-ét választották rendezésre. Ennek akkor eleget tettünk, felőlem rendezhetjük máshogy is, de valahogy mindig muszáj. De amúgy a gond eléggé fel van nagyítva. Az eredmények világosan leolvashatók így is.
-
Male
nagyúr
Na igen, ha nem képként kerülnek be a grafikonok, hanem JS állítja össze a felhasználó gépén, akkor simán megoldható pl a sorba rendezés módjának változtatása, vagy hogy mi jelenjen meg, és mi ne.... más kérdés, hogy mennyire van erre igény, illetve ilyenkor nem lehet csak úgy beszúrni utána hszekbe, stb.
-
Hebry
senior tag
Engem a kártya mérete lepet meg, nagyon szimpatikus, hogy csak ekkora.
Egyébként nekem sem alternatíva a GTX4610 1GB OC leváltására. -
Loha
veterán
De ha gondolod legközelebb bekapcsoljuk, csak akkor meg az lesz a baj, hogy miért max. grafikán teszteljük a 200 dollár alatti kártyákat. Félre értesz ez a mostani teszt remek lett, ez tükrözi azokat a szituációkat amikbe ezek a kártyák keveredni fognak, a korábbi teszt az ami hát...
Oliverda: Ha azt mondod, hogy a változtatáshoz kell x embertől y mennyiségű negatív hozzászólás és akkor változtatsz, akkor lehet veszem a fáradtságot, de egyébként a semmiért nem...
TTomax: ez a sorrend ami a minfps alapján feláll van talán a legközelebb a valósághoz
Ez az amivel nem értek egyet, egy statisztika kiugró értéke nem fogja jól jellemezni az egész statisztikát, ez a józan paraszti észnek is teljesen ellentmond. -
TTomax
félisten
Erröl köbméteres vitákat lehetne nyitni,mert ugye az sem mindegy a minfps hányszor/mikor/hol/mennyi ideig.... sajnos értelme nincs,hiszen ahány konfig/vga annyiféle diagramm keletkezik tesztkor... ez a sorrend ami a minfps alapján feláll van talán a legközelebb a valósághoz,értelem szerüen a nagyon közel esö kártyákat érdemes kb egy szinten kezelni... sorrendet valami szerint fel kell állitani,kár ezzel vacakolni...
-
Abu85
HÁZIGAZDA
Nagyon egyszerű a dolog. Már ezerszer leírtuk. A Kepler komoly compute-ban elhasal. Ha bekapcsolod ezeket az effekteket az új DX11-es játékokban, akkor Radeont vegyél, mert gyorsabb. Ha nem kapcsolod be, akkor a GeForce a gyorsabb.
Azt neked kell eldöntened, hogy milyen beállításokon játszol.
Jelen tesztünkben nem kapcsoltuk be ezeket a compute effekteket, mivel nem top kártyák versenyeznek, hanem 200 dollár alattiak. De ha gondolod legközelebb bekapcsoljuk, csak akkor meg az lesz a baj, hogy miért max. grafikán teszteljük a 200 dollár alatti kártyákat. -
Loha
veterán
Arról, hogy az elmúlt egy évben kb. 3 ember nem értette illetve nem tetszett neki.
Ennél jóval többen panaszkodtak a topikokban és ugye aki nem ír, hogy nem tetszik neki, az nem azt jelenti, hogy tetszik neki. Szavazásra én nem emlékszem.
Ez így logikus, mivel a minimum fps sokkal fontosabb mint az átlag vagy a maximum, mert ez erősen befolyásolhatja a játékélményt, míg az, hogy 67 vagy 81 az átlag, már nem sokat számít.
Abban egyet értünk, hogy max FPS lényegtelen, de én inkább játszok egy olyan kártyával, ahol az átlag FPS magasabb, mert az azt jelenti, hogy átlagosan magasabb FPS-em lesz a játékban. Ha a driver vagy a játék hibája miatt az FPS egy pillanatra alacsonyabb értékre esik, az nem azt jelenti feltétlenül, hogy egy intenzívebb jelenetnél az alacsonyabb minFPS-el rendelkező kártya kevesebb FPS-t fog produkálni átlagban.
-
Jó kártya csak még lehetne picit olcsóbb.
-
ClayMore
aktív tag
Most vettem gyári OC-s 7770-et 28,500-ért szval már 30 alatt is simán lehet kapni
Valóban jól van pozícionálva a 650ti.
apró elírás a cikkben:
AMD Radeon HD 7700 1024 MB (Catalyst 12.8 Beta + 12.9 CAP 1)7700
-
nyunyu
félisten
Valahogy nem gyozott meg, hogy most azonnal lecsereljem ra a 2 eves GTX460 768MB-t.
-
Oliverda
félisten
-
Loha
veterán
Ezt milyen statisztika alapján mondod?
Mert ha 20 kommentből 1 erről szól az egyáltalán nem ezt jelenti...a most alkalmazott alacsonyabb felbontás és részletesség mellett a korábban látottakhoz képest fordult a kocka a HD 7850 - GTX 660 viszonylatában, mivel utóbbi nem csak megelőzte, de alaposan el is lépett a szóban forgó Radeontól.
Tehát előzőleg jól kiteszteltétek, hogy lehet olyan körülményeket teremteni, ahol megfordítható az állás, de akkor kérdem én, melyik teszt alapján válaszon kártyát az ember?
-
kovsol
titán
VRAM szépen húzható, bár gondolom a teljesítményre nem sok hatással van.
-
Male
nagyúr
Elég jól sikerült kártyának tűnik ez a 650Ti... az ASUS hűtője is tetszik ezzel a nagy túlnyúlással, mert így nem a NYÁK-ra nyomja vissza a forró levegőt (a házamba pont ideálisnak tűnik).
Ennél a kártyánál mit lehet tudni az 1 - 2 - 3 kijelző aktív <-> idle órajel viszonyról?
Az ASUS kártyáján mehet a DVI + DVI + D-Sub együtt? (gyanítom igen) Illetve itt is csak az egyik DVI DL-es?
-
Taranti
senior tag
"Az Asus kártya 28,1centiméter, az MSI kártya 232 milliméter."
Kis következetesség nem ártana. (De csak ebbe tudok belekötni a cikkben)
A jövevény bizony tarolhat a középkategóriában, és ha az AMD nem ad ki erre alternatívát, akkor árakat kell igazítania, tehát kellemes hónapok jöhetnek... -
Retekegér
MODERÁTOR
Kellemes kis kártya lett, kár a szűkös gyártókapacitás miatti problémákért, akkor talán hamarabb jöhetett volna.
(#21) Sondi1986: nem ugyanazokkal a játékokkal és csak egy felbontáson tesztelték
-
elmelet45
tag
A legjobban az járt aki 3 éve HD5000-es szériában levő karit vett. Pl.: az én HD5850-esem még mindig jól végzi a dolgát magas grafikai beállítások mellett full HD-ben a mai játékok még vígan elfutnak rajta. HA az akkori árákat nézve 65-70k-ért is volt 5850, most még egyáltalán nem lenne indokolt cserélni karit, max egy HD7950-est vagy GTX670-est tudnék elképzelni, de még az is kevés lenne.
-
csaabz
őstag
Lassabb lett, mint az 560Ti?
Noob... -
nem lett rossz kártya valóban, de szerintem az ilyen legendás státuszhoz gyenge / elkésett. valamivel a gtx560 (nemTi) teljesítménye alatt muzsikál, egy generációval később ez már csak belépőszint, nem középkategória.
@#12: igen, ez nekem is feltűnt - pedig a TDP-k között hivatalosan van 30W...
a cikk pedig jó lett, köszönjük!
-
hackeeeee
Jómunkásember
Ahhoz képest, hogy nagyobb a sávszélesség értéke a HD7770-hez képest, nem sokkal veri el...
Viszont hasonló árban mozog, ami pozitív lehet, viszont cserébe, annyival nem hoz többet, mint amennyivel többet fogyaszt.
Ehhez képest, nem lett rossz kártya.
-
Dagidög
senior tag
Úgy érzem, hogy 1-2 éven belül lesz egy ilyen kártyám.
-
Tomix24
addikt
Jó cikk, tényleg segíti az embert a döntésben/vásárlásban.
Kicsit Off vélemény:
A végső konklúzió alapján nagyon ajánlott vétel lehet jelenleg az 1GB-os Sapphire 7850-es 44-47K körül, főleg ennek fényében: "ASUS VGA nagyjából 43-44 000 forint környékén vihető haza"
Mert ha az ár meg is egyezik, teljesítményben 35%-al lemarad a GF húzott változata kapásból, és 65%-al legalább ha húzva van a 7850.
És további %-kal ha magasabb felbontásokon játszik az ember >=1080p[link]
HD7850 - 140,66
ASUS GTX 650Ti 105,17 -
Ł-IceRocK-Ł
veterán
Jó lett a kártya, de még mindig várok a nagy csodára
-
Sondi1986
addikt
GTX650ti OC ellen itt van ez: HD7850 OC 44k
-
arpi6k
addikt
Ahogy nézem a jó öreg 6850-em nem erre fogom cserélni.
-
Oliverda
félisten
válasz
fatallerror #1 üzenetére
Ha tudod, akkor miért kérdezed?
-
Hát, ez valóban telitalálat lett. Picit még megy le az ára, és ez lesz az új 6600 vagy 9600.
-
fatallerror
addikt
az a batman-es ábra elég kusza
mi alapján van az sorbarakva?
(tudom h min fps alapján csak akkor is kusza)
egyébként ez 1 kellemes kártya a kategóriájában :]
ma olvastam kepler találgatást és állítólag sokat fognak még kicsavarni belőle a 700as sorozatra
Új hozzászólás Aktív témák
ph Leteszteltük az ASUS és MSI bőrbe bújtatott GeForce GTX 650 Ti kártyákat.
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Kerékpárosok, bringások ide!
- Ömlenek majd az iPhone-ok az indiai futószalagokról
- Óvodások homokozója
- gban: Ingyen kellene, de tegnapra
- Luck Dragon: Asszociációs játék. :)
- sziku69: Fűzzük össze a szavakat :)
- Politika
- Elektromos cigaretta 🔞
- További aktív témák...
- ELADÒ: MSI RTX 3060 TI GAMING X
- Asus TUF RTX 4090 24GB GDDR6X OC Gaming Videokártya! BeszámítOK!
- ÁRGARANCIA! Beszámítás, 27% áfa, összesen 5db RTX 5060 Ti 16GB 3 ventilátoros készletről BOMBA ÁRON!
- Gigabyte GeForce GTX 1060 3GB Mini ITX OC GPU
- XFX AMD Radeon RX6700XT 12GB / Újszerű állapotban / 6 hónap jótállással
- ÁRGARANCIA!Épített KomPhone i7 14700KF 32/64GB RAM RTX 5080 16GB GAMER PC termékbeszámítással
- Lenovo Thunderbolt 3 kábel (4X90U90617)
- Xiaomi Redmi Note 10 Pro 128GB Kártyafüggetlen, 1Év Garanciával
- Bomba ár! Dell Latitude 7280 - i5-7GEN I 8GB I 256SSD I 12,5" FHD I Cam I W11 I Garancia!
- AKCIÓ! Acer Predator Triton Neo 16 15 notebook - Ultra 9 185H 32GB RAM 2TB SSD RTX 4070 WIN11
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopszaki Kft.
Város: Budapest