- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Dell notebook topic
- Házimozi haladó szinten
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- OLED TV topic
- ASUS ROG Ally
- AMD Navi Radeon™ RX 7xxx sorozat
- Azonnali fotós kérdések órája
- Milyen notebookot vegyek?
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
Hirdetés
-
Robotkart irányított a majom a kínai Neuralink agyi chipjével
it A mindezt lehetővé tévő Neucybert a Neuralink kínai riválisa, a Beijing Xinzhida Neurotechnology fejlesztette ki.
-
Rövid előzetesen a S.T.A.L.K.E.R. 2: Heart of Chornobyl
gp Továbbra is szeptemberi premierrel számolnak a fejlesztők, reméljük több halasztásra már nem kell számítanunk.
-
Ülésezik a hardveregylet
ph Az irodai készülékek és monitorok társaságát egy ház, egy egér és egy DAC egészíti ki.
Aktív témák
-
rocket
nagyúr
válasz ulveczkii #798 üzenetére
Az, hogy kisebb meg onmagaban nem mutat semmit, nem tudjuk a kihozatali aranyokat, ugyhogy csak talagatni lehet, az biztos a HD3850 teljesitmenyben elmarad a 9600GT-tol, HD3870-et vehetjuk konkurens termeknek teljesitmenyben, ez meg arban marad el a 9600GT-tol a rossz iranyba.
Hamarosan beerik az ATi-t csikszelessegen a G92-vel, jelenleg ugytunik a RV740 lehet az elso 45nm-es diszkret GPU, de csak 2008Q4-ben jon, addig az RV670 maradhat a kozepkategoria ami mar a 65nm G94-gyel is nehezen veszi fel a versenyt minden szepontbol, az NV-nek meg ott lesz a lehetoseg 55nm-es G94-re, mig az ATi ellotte az osszes lehetoseget az RV670 kapcsan (ugye szo volt az A12 reviziorol, amivel esetleg javithatnak meg a dolgok allasan, de ugytunik nem lesz), persze azt azert belekell kalkulalni, hogy a kisebb csikszelesseg sokszor nem azt hozza amit varnak tole, de jelen esetben nem nagy highend GPU-rol van szo, igy az esely kisebb arra, hogy rossz dolgok tortenjenek 55nm shrink kapcsan.
Szoval lehet megint egy ideig hatranyuk szarmazik majd a kisebb csikszelesseg hajkuraszasbol, ahelyett, hogy augusztus vegen (fontos idoszak a back to school szezon)55nm-en kijonnenek az RV740-nel."A lower resolution generally means that there can be more quality per pixel."
-
ulveczkii
tag
Azért én nem mondanám hogy a 3850 512 alul marad a 9600gtvel szemben. Talán csak az álsimítás és az anizo okán egy hajszállal de aki egy kicsit is előrelátó az egyértelműen a 3850et választja. A 3870 meg minden szempontból jobb és talán 2-3 ezer fotintal drágább, amit már csak a klasszisokkal jobb hűtés okán is megérik kifizetni.
Nemrég volt rólla szó hogy az ATI-nál gyakorlatilag nincs selejt a strukstúra miatt. Ami kicsit kevesebbet bír az megy 3850 be és ennyi. Úgyhogy innestől csak a G94 kihozatala a kérdés. -
nagyúr
válasz ulveczkii #803 üzenetére
A 3850 realisztikus beállítások mellett bőven a 9600GT alatt teljesít (általában cca. 20%), kivételek egyedül az UE3 alapú játékok, ahol meg elsősorban az AA hiányának tudható be az RV670 jó szereplése (kivétel a Rainbow Six: Vegas, ott tarolnak a Radeonok).
És amúgy mennyire érdemes előrelátónak lenni? Én áprilisban úgy vettem a 9600GT-t, hogy jó, ha év végéig kitart - fog addig valami izgalmas történni?rocket: az RV670-esek kihozatala biztosan nagyon jó, mert ezért tudták az eredetileg tervezettnél hetekkel előbb kihozni a kártyákat.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Ahogy elnézem már a többi játék sem szereti az AA-t, nem csak UE3 szindróma sajnos.
Az Assassin's Creed-ben viszont van DX10.1-es Pre-Defined AA mintavétel. Azzal a 4x-es AA 5-8%-os teljesítménycsökkenést okoz maximum. Crossfire-ben meg észre sem lehet venni a deficit-et bekapcsolásakor. Jól tette az AMD, hogy nem támogatta tovább a Hardveres eljárásokat, kompatibilításuk és a sebességük sem elfogadható már.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Nemtom, az Assassin's Creed történetesen teljesen jól néz ki az én kártyámon maximális AA-val, nem tudom, hogy DX9-ben a bedrótozott MSAA-t használja, vagy mást. Szerintem az év végi játékdömping előtt nem billen még a mérleg az alternatív eljárások felé, úgyhogy piacilag tökönszúrta magát az ATI a HW MSAA kihagyásával, hiába volt műszakilag helyes döntés...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
A Bioshock kiváltotta nyavajgás után driverekkel megoldotta az nvidia hogy DX10 alól (defferend renderinggel) is működjön az élsimítás.
Azon lehet vitatkozni hogy ez sohol sincs a radeonok DX10.1-es élsimításához se minőségben se sebességben, de tény ami tény hogy működik, kevesebb a csíkozódás és játszható az UT3 meg az AC is 8xCSAA-val.
Sőtt, a radeonok azthiszem erre nemisigen képesek, hogy dx10 alól éltsimít (már driverből), csak dx10.1 alól ami meg csak AC-ben van egyenlőre.[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Abu85
HÁZIGAZDA
A DX10.1-es sebesség az AA nélküli eredményhez képpest van viszonyítva.
DX9-ben hackolt eljárás van, picit hibásan működik, de legalább van. Azzal viszont sokkal lassabb a Radeon (25-30% is van).Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz janos666 #808 üzenetére
Szerencsére az UE3, még csak Deferred Shadowing-ot használ, így az eléknel ha nincs árnyék, akkor jó az eredmény. Ha van árnyék akkor nyilván nem működik.
Call Of Juarez-ben, vagy a STALKER-ben Deferred Shading van, ott már marha nagy probléma a kényszerítés, mert sebességvesztéssel is jár, és lényegében semmi eredménye nem lesz. A COJ fejlesztői, ezért alkalmaznak SBAA-t saját kártyákra optimalizált algoritmussal. A STALKER a legújabb Patch-el amolyan Deferred Supersampling féle megoldást használ, mindegyik Render Targeten AA-t végez, ez is helyes eredményt ad, de a sebességet tulajdonképpen tizedeli.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Azóta figyelem, a mondatszerkesztésed mióta olvastam a DX10-es kártyákról szóló, cikked.
És nemtudom figyeled, e mire akarom felhívni a, figyelmed? Esetenként vagy rossz helyre rakod, de többségében inkább csak van egy felesleges vessző is olyan helyen a mondataidban ahova szerintem nem csak hogy nem kéne, de zavaró is mint itt az UE3 után.
Eddig azért vonakodtam ezt megemlíteni mert én meg gyakran elhagyom a vesszőket. (de célzatosan annak érdekében hogy úgy olvassák ki ahogy mondani akarom)[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
keIdor
titán
Az Nvidia pénze mindenhol ott van...
Ubisoft nixes first DX10.1 support
3Dmark Vantage doesn’t like DirectX 10.1
Nagyon nehéz dolga lesz így az ATi-nak... bár a 3DMark engem hidegen hagy, de ha ezt csinálják az AC-vel, akkor más játékokkal is meg fogják ezt csinálni.
¡GLORIA A LAS PLAGAS!
-
Abu85
HÁZIGAZDA
So, regarding DirectX 10.1 in Assassin's Creed two things are clear. It is obvious that DirectX 10.1 brings significant performance enhancement for AMD's ATI Radeon HD 3870 and Radeon HD 3870 X2, and likely for all of the other Radeon HD 3K series of video cards. It is also clear that DirectX 10.1 does not bring with it a visual upgrade worth getting excited about in this game right now. One lousy edge receiving multisampling is not worth writing home about. The ATI Radeon 3870 performance boost gained with DX10.1 certainly is though.
Rather less clear, however, is the fate of DX 10.1 support in Assassin’s Creed and whether ATI Radeon HD 3000 series video cards will maintain the performance results they currently exhibit when AA is enabled. One thing is for sure, DX 10.1 seems to be very positive for AMD. This is the first game to use it, and we saw positive gameplay results. Removing that support would be taking a step backwards instead of pushing the industry forwards. If it truly gets removed in the next patch, that would make absolutely no sense at all from a gamers standpoint.
Kyle’s note: We think we have done our homework here and don’t see any reason for DX10.1 support to be taken away from Radeon 3800 series owners. This is the first time we have seen the ATI Radeon 3870 benefit from the heavily marketed DX10.1 support. To simply take that away is a travesty and we think that Ubisoft should at least leave the choice up to the end user. Obviously you don’t have to patch the game, so Ubisoft can’t really take it away from you, but don’t expect continued support for the DX10.1 version of the game, at least not for the time being. And that time being is very likely till NVIDIA gets its own DX10.1 GPU considering it has a reported US$4,000,000.00 in deals invested with Ubisoft at the moment. Time will tell.
The performance gains seen by players who are currently playing Assassin’s Creed with a DX10.1 graphics card are in large part due to the fact that our implementation removes a render pass during post-effect which is costly.
We did not find it to be “costly,” but Ubisoft is the company that has to pay to support their users, not us. Surely if you are playing with an 3800 series Radeon and using AA, you might want to look before you accept the next AC patch from Ubisoft.
AA minőség DX10-ben:
HD3870x2
9800GTXMindenki eldöntheti maga, hogy fontos-e a DX10.1...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
-
Nem értem miért hagynak az ilyen képekben apró kételyeket.
Pl. a 4 kép (2x2) közül 3-on tök ugyanoda néznek, de a geforceos SP1-es lépen picivel el van fordítva a gyerek felye felfelé. Mondjuk ez kevésbée érdekes,
Másrészt a 2 radeonos és 2 geforceos képen kitudják nagyítani ugyanazt a 2-2 pontot, de ezek a pontok nem egyeznek a georceos és a redonos képeken.
Tudom hogy semmit se számít de miért csinálják így? Mindkettő olyan hiba ami csak figyelmetlenség, nem isgényelne túl sok plusz munkát rendsen csinálni.Azzal meg szerintem csak a szemem vagy a montirom csal, de mintha picit mindkét (geforce és radeon) esetben változna a pillérek textúrájának minősége. Az SP1-es képeken mintha picit halványabbak lennének az apró kis karcolások/árnyékok. És erről a képről nem is tudom megitélni hogy azért mert finomabban rajzolódnak ki, vagy mert elmosódnak egy picit.
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Hát nemtudom, de 1 keresztkérdés: mikor SM3.0-ás 6800GT és 2.0b-s X800XT volt piacon az aktuális 3DMark használta már a SM3.0-át, vagy mire kijött a 3DMark06 addigra volt már X1800XT is SM3.0-val? (én se emlékszem pontosan, kérdezem)
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
És akkoriban írkáltak E-mailt hogy a legújabb 3DMark miért nem megy még SM3.0-ban mikor a 6800GT már rég tudja?
Nem, szóval kicsit elkapkodott ez a felháborodás. Minek ezen sírni miko pl. az AC-n joggal lehet?TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
rocket
nagyúr
válasz janos666 #824 üzenetére
3dmark2k6 mikor megjelent mar volt az ATi-nak is SM3.0-at tamogato kartyaja, nem ertem mirol irtal a 6800GT es SM3.0 kapcsan
Ha mar mindenkeppen hasonlitgatni akarsz akkor emlekezzel meg a 3dmark2k6 altal hasznalt PCF-rol amit az R600 elott egyik Radeon se tamogatott, mig a masik oldalon G7x-tol mar tamogatva volt, lehet vitatkozni mifan terem a dio, de egyre jobban felesleges, a tortenesek elarulnak mindent meg annak is aki nem is igazan akar ebbe belelatni"A lower resolution generally means that there can be more quality per pixel."
-
rocket
nagyúr
-
leviske
veterán
Fog ez a helyzet még változni... Amint az Intel beszáll a VGA bizniszbe, már csak az AMD tud majd lépést tartani vele. Az nV vagy más vizek felé hajóz, vagy a VIA-val alkot valamit.
Nem hinném, hogy a játékfejlesztők mernének az Intel-AMD páros ellen szavazni egy olyan kétséges jövővel rendelkező gyártó mellé állni, mint az nV.
Bár ez mind csak az én véleményem. Nem mernék rá fogadni, hogy így is lesz.
-
Hakuoro
aktív tag
Az új 3dmark se támogatja a directX 10.1-et!?
[link][ Szerkesztve ]
-
Hakuoro
aktív tag
válasz VaniliásRönk #829 üzenetére
Nem volt rá idejük a pár millió nvidiaától kapott zöldhasú számolgatása közben.
Egy olyan szemét eszközöket alkalmazó cég ellen mint az nVidia csak hasonló magatartás lehetne sikeres. Ők is megvehetnének pár fejlseztőt kilóra. Teljesen át kellene alakítani az AMD marketingjét. -
leviske
veterán
Várható volt, hogy az új 3dmarkba is beleszól az nV. Túl nagy ütőfegyver eladások terén.
Bár mivel a Sapphire logója is helyet kapott, ezért némi esély talán csak van, hogy HD4-esek majd visszavágnak. Nem hiszem, hogy hülyeségből alakítottak át pár megszokott dolgot (pl: coreclock=shaderclock)
Én inkább arra leszek kíváncsi, hogy helyet kap-e a HD48-asok dobozában a vantage, vagy azokhoz is 06-ot csomagolnak?
-
dokar
addikt
-
Én még arra vagyok kíváncsi Hl2:EP3 CD-kulcsot csomagolnak-e mellé. Mert már a valve is az nvidiával haverkodik mostanában.
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
keIdor
titán
Bizony Általában nem vagyok kárörvendő tipus, de az Nvidia megérdemli!
janos666: Jah azokat is jól lefizetik... (ebben 100%-ig biztos vagyok)
Srácok az Nvidia a G80 eladásokból gazdagodott meg ennyire? Tudom, hogy annó is ilyenek voltak, de akkoriban (FX) nem volt ennyi pénzük. Egyébként HL2: EP3 kulcsot sztem majd a GT200 mellé adnak..[ Szerkesztve ]
¡GLORIA A LAS PLAGAS!
-
Amúgy szerintem ilyenkor nem az a lényeg ki áll erkölcsi vagy elméleti erőfölényben hanem ki a sikeresebb. Szóval én pl. gratulálok az nvidiának hogy sikeresen műveli amit csinál. (még a szarból is tud várat építeni ha az kell) Amúgy legközelebb 4870-es radeonom lesz (csak megjegyzem hogy elvakult azért nem vagyok, legfeljebb részlehajló).
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
keIdor
titán
válasz janos666 #836 üzenetére
Nem is lenne baj ezzel, ha nem venné el az ATi-tól azt a kis előnyét is ami van nekik... felőlem csináljanak még olyan grafikus motorokat, mint a CryEngine 2...
Ezzel, hogy most "kivetetik" az AC-ból a DX10.1-et, mert nekik olyan nincs most ez baszta ki nálam a biztosítékot... remélem az Nvidia tényleg kivonúl a PC piacról 1-2 év múlva, nekem nem fognak hiányozni... konkurenciának meg itt lesz a Larrabee.¡GLORIA A LAS PLAGAS!
-
Def26
félisten
Huhh, mi van itt.
Szvsz ahogy nálunk is, gondolom külföldön is ezerrel mehet a forrongás a megfelelő emberek agyában. A posztok olvasása után én is felb@sztam magam, és arra jutottam, hogy nem veszek nv kártyát, (pedig 2 hete terveztem). Kis porszem vagyok tudom, de biztos vagyok benne, hogy egyre több ember vélekedik igy...
[ Szerkesztve ]
Fanboy Status: PS4:On, Xbox:On, apple:On, samsung:Off, Microsoft:Off, Audi :On,
-
TTomax
nagyúr
En mar ezert vettem HD3850-et es a 4XXXX-ekbol ahogy kijon rogton veszek.Eredetileg 8800GT-t akartam 150fontrol indult,csak amire odajutottam 176font volt ugyanaz merthogy sikeres lett a kartya,erre fel is kaptam a vizet.Pont akkor jottek a HD-k par nap olvasas utan el is dontottem,hogy a 3850 eleg lesz nekem.Amikor vettem 102 font volt,most 95 ugyanez...
Azota csak erosodik a hitem,hogy nem kell Nvida★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Hát ha ugyanezt egy 3870-el és nem 50-el adod elő még találtam is volna benne realitást mert a 70-est nem hagyja ott olyan durván a 8800 mint az 50-est.
Én nyíltan nv párti vagyok ma is mint mindíg, de annakidelyén megvártam a HD2900-ast mielőtt megvettem a 8800GTS-t. És akkori teszteket mérlegelve pártatlanul nézve is jobb vétel volt a 10-15k-val olcsóbb és akkori játékokban picivel gyorsabb vagy egál 8800GTS-320 mint amennyiért akoriban adták a 2900XT-t (és a pro csak későb jött).
Aztán telt az idő, kicsit összeszedték magukat az ati driverek is mire kijött a 3870-es. Ekkor megint megnéztem megérné-e lecserélni a 8800GTS-t 3870-re? Válasz: Nem, ha valami öregebb kártyáról váltanék akkor is sokkal jobban megérné egy 8800GT. És nem csak aznap hanem előreláthatóan még életciklusa végéig.
Aztán most jött a Gef9800, erre is egyértelműen csak passzal tudtam válaszolni, de jön ez az ígéretes 4870.
Erre most azt mondom megveszem, mert jelenleg jobb lesz mint egy Gef9800-as és megéri majd a ráfizetést lecserélni rá a mostani kártyám. Aztán mire kintlesz a GT200 nemhiszem hogy pilnatnyi helyzetben is annyival gyorsabb lesz hogy megérné eladni a 4870-est és lecserélni, de már ott lebeg majd az ember szeme előtt az is hogy: na igen, most lassan tényleg nem árt már DX10.1-es kártyát venni a jövőre nézve.Nade még mostantól a jövőbe érheTI meg ilyen kártyát venni, szóval aki már a 2900XT-t is azért vette meg mert előrelátó az szerintem leejtette a szódásszifontalpat a fejéről és a fasza hegyéig se látott el. (már elnézést, csak sose birom mikor valaki marha okosnak hiszi magát mikor épp butaságot csinál és ezzel még erkölcsi előnyt is titulál magának a bölcsessége mellett - aki tudatos hülyeséget csinál húzza meg magát, ne ezzel villogjon, tudom ilyen a világ, de attól ez nem helyes magatartás)
Szabad csak azért ATI kártyát venni mert neked az tetszik és az nv-t utálod, ahogy fordítva is, csak ha ez épp egy valós helyzeteket mérlegelve rossz döntés akkor ne állítsd be se bölcseségnek, vagy erkölcsiségnek. Azért teszed mert téged boldogít, és ez a lényeg, de attól még a világ felé nézve hülyeség.
Azért vett 2900XT-t aki vett mert ugyan olyan olyan elvakult volt mint én mikor annak idelyén FX5800-ast vettem. Akkor tényleg 9800-as radeont kellett volna vennem, de senki se mondja hogy ma jobban járt egy 3870-essel mint egy 8800GT-vel, mert kb egy áron utóbbi mai játékokban lényegesen jobb.
Esetleg aki majd 4870-et vesz van esélye rá hogy még jól dönt (ahelyett hogy várná és megvenné a GT-200-ast), de nem biztos, csak most én így tippelek. (és nem jósolok, tippelek)
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
TTomax
nagyúr
válasz janos666 #843 üzenetére
Nem ertem miert kell messzemeno konzekvenciakat levonni.Az 50-es 100 font volt a 70-es 159font volt a 8800GT meg 176 font volt,azert valasztottam az 50-est mert a 70 meg nem tud 50%-al tobbet,inkabb megalkudtam egy gyengebb kartya mellett.Szerintem ebben semmi hihetetlen nincs,amugy jol tettem mert a 8800GT most 126font a 70-es 116 font az enyem meg 95font.Ha most vennek akkor lehet mar 70-est vennek de tavaly decemberben az Nvidianak a 8600-as szeriaja volt ugyanide arazva...
Az hiszem ki ismeritettem az offtopic fogalmat...read offba rakom magam,es varom a fejlemenyeket....★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Az első sor után nem konkrétban neked szólt a többi bekezdés.
Ez most tényleg EXTRAOFF lesz:
Amúgy úgy is nézhetem hogy te vettél volna egy 8800-ast, kerül amibe kerül, aztán jött egy olcsó radeon és az lett helyette. Most több pénzed maradt, de lassabb a géped, pedig azt a pénzt gondolatban rászántad már a gépre és nincs rá garancia hogy értelmesebb dologra költötted utánns (lehet hogy elittad, lehet hogy értékes dolgot vettél belőle, nem tudjuk) -> nem feltétlenül jártál jobban
EXTRAOFF vége...TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
-
samfishR
senior tag
Már én is eldöntöttem h nem fogok venni nvidiát, majd nyáron veszek egy 4870-et. bárki bármit mond, én az ár/érték arányt nézem, és remélem h ebben a 4800-as széria jobb lesz mint az "új" nvidia. lehet h az új nvidiával több pontom lenne vantage-ban, de lesz*rom, az a lényeg h akadjon a 250 fps cod4ben meg persze h ne kelljen fél év mulva kidobni a karit itt a május, dobhatják kifele a 4800-as sorozatot!
Vaniliás Rönk: én is remélem már h vagy jogi úton és/vagy teljesítményben keresztbe tesznek az nvidia gerinctelen önkényuralmának.
[ Szerkesztve ]
-
Kozmonauta
tag
www.guru3d.com/news/ati-radeon-hd-4870-vs-geforce-9800-gx2-benchmark-results/
Ha ez igaz akkor inkább a textúrázókban ugrik nagyot az új chip, shader teljesítményben az 50% növekedés bőven elég amíg nem lesz valódi DX 10-es játék
[ Szerkesztve ]
A HÁBORÚ: BÉKE A SZABADSÁG: SZOLGASÁG A TUDATLANSÁG: ERŐ
-
válasz Kozmonauta #848 üzenetére
Hmm. A legutolsó hírek szerint nem is lesz 512Mb-os 4870 és az GPU is 50Mhz-el gyorsabban jár. A másik meg hogy a 3870-ből kiindulva ha 3DMarkban "csak" ennyivel veri meg a 9800-ast akkor Crysisben kb. egálban kéne állniuk.
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
PPSH
őstag
válasz Kozmonauta #848 üzenetére
eleg szepen elveri 1 maggal a duplamagos megoldast aztan meg a 4870 X2
Cort Z40(EMG 81+85)+Marshall MA100H+Marshall M412A 300W
Aktív témák
- Vallás
- Politika
- Anime filmek és sorozatok
- GoodSpeed: SAMSUNG Galaxy Buds FE (SM-R400NZAAEUE) a 9 éves SONY SBH20 utódja (nálam)
- Huawei P30 Pro - teletalálat
- Győr és környéke adok-veszek-beszélgetek
- Luck Dragon: Asszociációs játék. :)
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Autós topik
- Formula-1
- További aktív témák...
- GIGABYTE RX 6700 XT 12GB GDDR6 AORUS ELITE Eladó! 102.000.-
- PowerColor RX 6700 XT 12GB GDDR6 RED DEVIL Eladó! 105.000.-
- GARANCIÁLIS! MSI SUPRIM RTX 3080 Ti 12GB GDDR6X Videokártya! BeszámítOK
- MSI GTX 1080 OC AERO
- BESZÁMÍTÁS! Gigabyte AORUS MASTER RX 6800XT 16GB GDDR6 videokártya garanciával hibátlan működéssel