- Kábeleket és csövezést rejtő "kirakatház" a GameMax logójával
- Felvarrták az Arctic rackmount rendszerekhez szánt CPU-hűtőjének ráncait
- Háromféle kivitelben, és nem kis kapacitásokkal jönnek a Micron 6550 ION SSD-i
- Már a Samsung sem szolgálja ki modern AI lapkákkal Kínát
- Havazáshoz igazított kiadás kap a Steam Deck OLED
- Milyen monitort vegyek?
- Asztrofotózás
- Intel Core Ultra 3, Core Ultra 5, Ultra 7, Ultra 9 "Arrow Lake" LGA 1851
- Milyen processzort vegyek?
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Milyen egeret válasszak?
- Milyen notebookot vegyek?
- OLED TV topic
- Kormányok / autós szimulátorok topikja
- Amlogic S905, S912 processzoros készülékek
-
PROHARDVER!
AMD Radeon™ R9 290 / 290X / 390 / 390X téma összefoglaló
Új hozzászólás Aktív témák
-
hermanyi
addikt
"Ja, a hatalmas város alatt is leszámoltatták a hullámzó tengert, és aztán persze nem jelenítették meg"
De hát ha hullámzott akkor hullámzott Ha háttal állsz a tengernek akkor is hullámzik
Aláírás (nem kötelező megadni - minden hozzászólásnál automatikusan az üzenet végéhez íródik)
-
HSM
félisten
Ott valami nem volt jó. Sanszosan a Phenom proci. Nálam volt rajta élsimítás, és 100X jobban ment, mint a videón, 30-50FPS magasságára emlékszem játék közben, teljesen jól játszható volt, gyönyörű grafikával.
Itt anno ezt írtam róla: [link].(#23453) asdxv: Ahogy nézem, a BF3 is szépen ment rajta, igaz, MSAA nélkül. [link]
Nem BF-eztem abban az időben, így én nem próbáltam.[ Szerkesztve ]
-
Joshi
titán
De nálad nem FHD-ban ment azért nem mind1. Általában mindig a jó emlékek maradnak meg ami nem baj, de az tuti biztos hogy ez a kártya se volt 3 évig csúcs kártya ahogy egyetlen egy kártya sem. Szerintem ne offoljuk szét a topikot, rég volt szép volt ennyi.
[ Szerkesztve ]
-
lowzor
veterán
-
sixpak
nagyúr
válasz Grave_444 #23461 üzenetére
Nekem ennyit fogyaszt alapórajelen (1000mhz):
Nekem is volt 5850-em annak idején, nagyon jó kártya volt, emlékszem több mint másfél évig megvolt, de a mai napig használja a kollégám, akinek odaadtam. Azóta én már a harmadikat használom. 6950-7950-r9 290.
https://www.flickr.com/photos/86396338@N05/
-
HSM
félisten
1680*1050 volt, ahhoz képest a FHD nincs 10%-al nagyobb terhelés. Annyit hozott volna a tuning. Nem volt 3 évig csúcs, ez tény, 2 év után már felmerült, hogy vennék erősebbet, de mégis remekül el lehetett vele lenni, mire nem 120 000 volt egy 7950, és ez a lényeg. Azt a minimális kompromisszumot az utolsó évben bőven megérte a pénz, amit spórolt még nekem.
(#23461) Grave444: Az csak a GPU, arra még rá kell számolni a memóriát, ami még kb. 50W.
(#23464) asdxv: Én se tudom, honnan szopták, nem is érdekel. Az AMD 250W-ot közölt, ami tuning nélkül reális is.
-
lowzor
veterán
Nem volt ott a megközelítő jel?
Mert ahol a 250W-ot olvasom, ott szinte mindenhol ott van, néhány helyre oda is írták, hogy források híján csak a tippjüket írták oda.
Ellenben ahova 275W-ot írnak (ez a több), ott egyértelműen kijelentik.
Amúgy akkor a 290X TDP-je is 250W?[ Szerkesztve ]
-
Werkly
őstag
Kösz akik meggyőztek! Mégsem adom el a Lightningot. Azért, hogy zöldre váltsak plussz 50-60-ért nem ér annyit! Tök mindegy, hogy teszem azt 66 vagy 76 az FPS mondjuk valahol! Marad tehát a piros tábor!
-
MiklosSaS
nagyúr
válasz Werkly #23473 üzenetére
Jo dontes. Azt a kartyat meg nem erdemes eladni....esetleg majd ha olcsobb lesz a 980 vagy kifogsz apron egy olcso 780Ti-t..
Ha igazi elorelepes lesz majd a 380/390X akkor az is biztosan eleg draga lesz az elso ket-harom honapban.~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
Dark KillerX
addikt
Új béta urak!!!! [link]
Ez kimondottam laptokhoz való,bocsi
[ Szerkesztve ]
-
MPowerPH
félisten
En mar nem lepek vissza, de kicsit banom, hogy valtottam. 980-as erosen tularazott, es hiaba szakit nagyot FHD-ban, ha kozben 3 monitoron alig hoz pluszt. Egy dolog viszont mellette van, megpedig, hogy OC-val azert megindul rendesen. 970-rol ne is beszeljunk, 3 monitoron doglodik. Es elnezve a 290X arakat, siman vehettem volna 2db DCUII-es Asus-t, es a ket blokk ingyen lett volna ra.
Don't Tread On Me
-
MPowerPH
félisten
válasz CsonkaImo #23487 üzenetére
SLi-vel semmi gond, legalabbis mindenki ezt mondja...(no mikrolag, input lag rendben, nincs akadas, anomaliak, amik sajna AMD oldalon nagyon megvoltak, igaz az elozo generacioval) CF-el nekem sajnos nincsenek jo tapasztalataim, ez teny, de talan javult valamit a dolog az uj generacional. Most varom a 2. GTX-et, blokk ha minden igaz ma jon meg, kartya meg kerdeses. A hutes miatt nem akarom mar cserelgetni, pedig igy utolag belegondolva, lehet jo dontes lett volna. Most mar mind1, egy darabig eleg lesz ez a felallas, aztan majd ugyis jonnek ki erosebb variansok, akkor talan eleg lesz 1 vga is erre a felbontasra.
asdxv: Mivel 980-ast vettem elsore, bizva, hogy birja a felbontast, igy mar nem akartam duplan cserelni. Mint kiderult, nem birja, igy kellett egy masik. Eleg nagy bukta, meg akkor is, ha olcsok voltak a 980-ak. Ha bevalik, akkor le sem cserelem, 1 evig elegnek kell lennie.
[ Szerkesztve ]
Don't Tread On Me
-
Abu85
HÁZIGAZDA
válasz MPowerPH #23489 üzenetére
A CrossFire most egyértelműen jobb, mint az SLI. Egyszerűbben jobban használható az AFR interframe kommunikációja egy XDMA típusú összeköttetéssel. Nyilván nem mindegy, hogy 500 MB/s az adatátviteli tempó, vagy 16 GB/s. Az AMD ezért dobta el a hidas megoldást, hogy ne legyen korlátozva ez a sebesség, így a teljes PCI Express sávszélesség hozzáférhető. Ezzel lényegében a CrossFire olyan helyeken is alkalmazható, ahol az SLI nem skálázódik.
Persze ettől a CF és az SLI a már megszokott gondokkal továbbra is küzd. És igazából mindegy is, hogy melyikre költesz, mert a DX12 jelenlegi specifikációjában nincs definiálva a multi-GPU, így csak dísz lesz a második VGA.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MPowerPH
félisten
Skalazodassal eddig sem volt nagy problema. Meg a 3. GPU is 80% korul hozott legtobb esetben, ami brutal jo. Ellenben hiaba volt majdnem minden game-ben boven 60+FPS-em, nehol meg a 120+ is megvolt, nem volt soha folyamatos a kep. Megfajdult tole a szemem, es teljesen elmenyrombolo volt. Crysis 1-2-3, Bioshock Inf., BF4, FC3(ez konkretan jatszhatatlan volt, mind a ketto, mind a 3 GPU-s rendszeremben ki kellett lonom a tobblet gpu-(ka)t, raadasban a HUD merete is megzavarodott CF-ben), GTA IV, Metro 2033/LL(Metrot e miatt ki sem jatszottam, az elejen hagytam az egeszet, mert 1 kartya keves lett volna), es AC. FPS mindenhol eleg volt, nehol boven sok is. Szoval nem ez volt a gond... Most felsoroltam itt par nagyobb cimet. Az AC miatt aztan vegleg elegem lett, mert ott nem megengedheto, ha egy kicsit is akad a kep.
Szoval a skalazodas csak egy dolog, mas gondjaim voltak.Kozben meg haverom roccenes mentesen futtatott mindent a 780 SLI-vel, ez volt a legfajobb. Szoval NV oldalon azert messze nincsenek ilyen gondok, igaz skalazodas teren a 2. GPU is olyan 80% kornyeken teljesit csak, ami AMD-hez kepest maximum atlagos.
mod: Valszeg DX12-ben mar nem lesz problema 1 GPU-nak sem megbirkozni FHD-n tuli felbontasokkal. Bar ez erdekesen hangzik, hiszen a 4K egyenlore tavol van attol, neha meg a 2 GPU is keves. Kicsit fura is lenne nekem, ha teljesen melloznek ezt a technologiat.
[ Szerkesztve ]
Don't Tread On Me
-
Abu85
HÁZIGAZDA
válasz m0h0senator #23491 üzenetére
Ha nem teszik explicit detektálhatóvá a GPU-kat, akkor biztosan nem lesz multi-GPU. Az a trükk, ami a DX11-ben működik a driveres hackekkel a DX12-ben használhatatlan, ugyanis a driver csak egy bazinagy bináris információhalmazt lát a memóriában, de fogalma sincs arról, hogy a több GB-nyi adatból melyik a frame buffer. Explicit memóriavezérlést lehetővé tevő API-kban csak az alkalmazás képes multi-GPU-s rendszert működtetni, de csakis akkor, ha az API engedélyezi, hogy a gépben szereplő hardvereket explicit detektálhassa.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz MPowerPH #23492 üzenetére
A HardOCP friss elemzései szerint a CF most jobb a smoothness szempontjából is. De ez valószínűleg azért alakult így, mert az AMD-t nem érdekli az, hogy az MS mit dönt. Ha a DX12-ben nem lesz multi-GPU, attól még nekik van erre API-juk, tehát nem fenyegeti őket az a veszély, hogy az MS kirántja alóluk a talajt a multi-GPU szempontjából. Ezért is fejlesztik a hardveres szempontból a rendszerüket. Az NV valszeg azért nem állt át az XDMA-szerű koncepciókra, és került hátrányba a friss alternatívájuk a folyamatosság szempontjából, főleg 4K-ban, mert előbb tudni akarják, hogy az MS mit akar, mert ha nem lesz multi-GPU a DX12-ben, akkor felesleges megújítani az összeköttetés formáját, ami amúgy kellene majd a 4K-hoz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MPowerPH
félisten
Amit irtam a gamekkel kapcsolatban, az a driverre vezetheto vissza, vagy a CF rendszer egyik gyengesegere? SLI-n miert nincsenek ilyen negativ tapasztalatok?
Oksa, akkor most elolvasom a valaszodat.mod: Most nagy dilemma ele allitottal.
[ Szerkesztve ]
Don't Tread On Me
-
Abu85
HÁZIGAZDA
válasz -Solt- #23494 üzenetére
Ez attól függ, hogy miképp van implementálva a VR. Ha nem használnak trükköket, mint az async warp, vagy a viewport index, akkor elvileg DX12-ben is lehetséges a két GPU-s leképzés, mert a két szem számára adott információ a feldolgozás szintjén teljesen elkülöníthető, de erre majd kell egy olyan VR eszköz is, amelyet mindkét GPU-ba be lehet kötni, ha ez nem lesz megoldva, akkor így sem működhet. Async warp és/vagy viewport index mellett már kell az GPU-k explicit elérhetősége, mert adatmásolás fog történni. Egyrészt az MS azért hagyta meg a DX11-et, illetve fejleszti tovább DX11.3-ra, hogy ha esetleg nem tartják fontosnak a multi-GPU-t a DX12-ben, akkor még mindig legyen egy régi alternatíva hozzá. Ez egy menekülőút, bár akkor meg elavult lesz az API.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz MPowerPH #23496 üzenetére
Érdemes megvárni, hogy az MS mit dönt. Nyilván van ezernyi más gondjuk, amit meg kell oldani, és a multi-GPU valszeg ott van, de csak a sor végén. És ha logikusan mérlegeled a lehetőségeket, akkor a multi-GPU tényleg az a terület, ami a legkevesebb felhasználót érinti. Sokkal nagyobb gond például a noti esetében a szoftveres átkapcsolás. Ugyanaz a probléma, mint a multi-GPU-nál. A DX12 drivernek fogalma sincs arról, hogy a nagy bináris információhalmazban melyik a frame buffer, így nem tudja átmásolni az IGP memóriájába. Egyszerűen az, ami a DX11-nél agyonhackelhető driverből, mint a CF/SLI, az Optimus/Enduro működésképtelen a DX12 alatt. Erre be kell építeni a megfelelő funkciókat, és akkor is a fejlesztőnek kell gondoskodnia róla, mert csak a program látja a memória layoutját.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MastR
tag
Új hozzászólás Aktív témák
Hirdetés
A topicban tilos bármilyen offtopic hozzászólás írása!
Ilyen célra használjátok a Lokál fórumban található offtopicot.
Állásajánlatok
Cég: HC Pointer Kft.
Város: Pécs
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest