- Steam Deck
- RX 6600 Aktív Displayport-VGA átalakító probléma
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Házimozi haladó szinten
- Bambu Lab 3D nyomtatók
- Vélemény: nem úgy tűnik, de Lip-Bu Tan most menti meg az Intelt
- Hisense LCD és LED TV-k
- Dell notebook topic
- Házimozi belépő szinten
- Amlogic S905, S912 processzoros készülékek
Új hozzászólás Aktív témák
-
Asbee
veterán
válasz
Malibutomi #7546 üzenetére
Halk sem lehetett ilyen fordulaton.
-
#85552128
törölt tag
válasz
Malibutomi #7543 üzenetére
1080 az amúgy sem stock, de ha már 3DMarkot nézünk akkor linkelhetnék olyan eredményeket is ahol, jó ha 10%-ot gyorsul 29%-os (9% GPU, 20% MEM) tuninggal... Ezért is mondtam már az elején, hogy nem mérvadó.
-
#35434496
törölt tag
válasz
Malibutomi #7543 üzenetére
Ezért kell a legfrissebb gpu-z-t használni. Az megmutatja a pontos órajelet.
-
#85552128
törölt tag
válasz
Malibutomi #7540 üzenetére
Miért is ? nV-nél írhat kevesebbet mint amilyenre valójában boostol, de AMD-nél fix. az utolsó Pstate.
Az átlag egy dolog, de 17k-t elértek gyárival is nem egyszer, hanem ezen kívül van még vagy 2 eredmény.
Itt egy 17.3 más usertől: [link] -
#35434496
törölt tag
válasz
Malibutomi #7520 üzenetére
-
#85552128
törölt tag
válasz
Malibutomi #7520 üzenetére
Attól, hogy pár chip nem bírja nem tiltják globálisan az OC-t. Mi értelme lenne ? Mindenki tudja, hogy az nem garantált.
Érdemes lenne megnézniük mennyit gyorsul játékban. -
daveoff
veterán
válasz
Malibutomi #7504 üzenetére
Lényegében ezt írtam én is, ez volt a mondandóm második fele, csak lehet kicsit máshogy fogalmaztam....
Szóval az előny az, hogy a konzolokban is GCN van, ha jobban rámennek a fejlesztők, hogy kihasználják a konzolokban lévő hardvert, akkor a PC-s portok jobbak lehetnek AMD-n...
(#7503) HSM: Ugyanígy lesz a DX12-vel is, eleinte csak kapargatni fogja az API tudását, aztán ha kiismerik a fejlesztők egyre jobb lesz. Én csak arra próbáltam célozni, hogy a BF4-be ugye egy patchel került be a Mantle(de egyébként már pletykáltak róla a játék megjelenése előtt is, hogy támogatni fogja), és vannak játékok, amiket már úgy írtak, hogy adott volt a Mantle. Még sincs nagy különbség közöttük.
-
imi123
őstag
válasz
Malibutomi #7504 üzenetére
Lehet rosszul tudom de konzolokon is csak a BF4 Ps4 verziója használja az async-et.
Ha valami könyörög az optimalizálásért az a konzolok hardvere.Ha ott ennyire terjed akkor azért nem olyan egyszerű megcsinálni.Pedig ott aztán full fix a hardver. -
imi123
őstag
válasz
Malibutomi #7494 üzenetére
Nekem igazából mindegy is.
Én örülök annak is ha AMD-n jól fut.Mondom ezt úgy hogy most éppen Nvidiám van.
Legyen verseny!
Én csak ezt a nagy számokkal dobálózást nem szeretem.
A nagy elvárásokból általában nagy pofára esés van. -
daveoff
veterán
válasz
Malibutomi #7481 üzenetére
Ez a hozzászólása pl üti az async compute-os GCN reményeket.....ha jól értettem...
-
imi123
őstag
válasz
Malibutomi #7481 üzenetére
Ismered személyesen?
-
válasz
Malibutomi #7471 üzenetére
Ez elméletben igaz, de ehhez erre designolt motor kell.
-
lowzor
veterán
válasz
Malibutomi #7424 üzenetére
Az 50-100 mhz-es alapfeszes tuningolhatóságáról ítélve jó, ha agyonfeszelve 1250, jó esetben 1300mhz elérhető lesz (már ha bírja majd a VRM). A Ti eközben kényelmesen agyonveri majd alapfeszen.
-
TTomax
félisten
válasz
Malibutomi #7424 üzenetére
Nem mintha a Ti/TXeken fel lenne oldva a fesz,söt bármelyik maxwellen... amúgy meg ugyanilyen proci mellett 20K GS-t kapnak a Ti-k [link]
-
Asbee
veterán
válasz
Malibutomi #7349 üzenetére
Nem érv? Akkor mi? A 970-nél sem volt érv (negatív) a coil whine? Amennyi kártyát kiadtak tesztre abból többen is panaszkodnak erre. A cooler master kompaktok közül is sok vinnyog. Egyébként a 970-nél szinte teljesen eltűnt a coil whine már nagyon ritka. És újra, a coil whine idle nincs, terhelésre van hogy elnyomja a hűtés. Itt nem. Hallani idle és terhelésre is.
A vrm-el annyi a bajom itt venti fel tekeréssel, mint egy léghűtőnél nem tudsz segíteni. Csak ha hátulról megfújod. Az meg vicces lenne egy ilyen árú kártyánál.Egyébként egyik dolgot sem akarom ennyire felfújni, csak megint nem tudjátok elfogadni, hogy bizony ezek jelen vannak úgy néz ki és nem pozitív oldalra döntik a mérleget. Ezért 20 hsz-en keresztül magyarázni kell, utána meg jön, hogy fel van nagyolva...
(#7357) Milka 78: Pontosan ez a véleményem. Ez egy nem olcsó kártya, a nv jelenlegi csúcs ellen jött, ráadásul egy olyan újdonság amire mindenki nagy elvárásokkal várt. Ne keressünk már kompromisszumokat, csináljunk elnézéseket. Ennek a kártyának most is ott kell lennie minden körülmény között a ellenfél szintjén, ezek a kis negatív dolgok nélkül. Ha meg nem akkor csökkentsenek 50k-t az árából.
-
daveoff
veterán
válasz
Malibutomi #7236 üzenetére
Én ezt értem, de tudod milyen a 290-es széria, a vízhűtés azért van hogy ne legyen megint szívás a melegedéssel, nem másért. Nem tudom mekkora tuning potenciál van a Furyban, de eddig nem úgy fest, hogy egy oc király kártya lenne, még így vízzel sem. Azt se gondolom, hogy a HBM miatt kellett rá.
-
daveoff
veterán
válasz
Malibutomi #7223 üzenetére
Szerinted miért tettek rá vízhűtést? Ez a kártya víz nélkül ugyanolyan lenne, mint a 290X(vagy inkább rosszabb a nagyobb teljesítmény miatt), egy sima mókuskerekes hűtéssel képtelenség lenne meghűteni. Ezért gondolom, hogy a léghűtéses változatok ugyanúgy szenvedni fognak a hőtermeléssel, mint a 290 széria, lesz egy-két használható modell, aztán kifújt....
-
daveoff
veterán
válasz
Malibutomi #7105 üzenetére
Szerintem bőven volt idejük felkészülni driverrel, meg mindennek, most megint jön a várás.....ás most már nem csak CF rendszernél kell várni a megváltást, hanem single GPU-nál is, egyre rosszabb a support.
-
#85552128
törölt tag
válasz
Malibutomi #7105 üzenetére
És ezt most pozitív mondanivalójú
kifogásnakmagyarázatnak kellene értelmezni ?Nem mondhatnánk, hogy elsiették a dolgokat, de ha ennyire szarul álltak driverekkel, akkor el kellett halasztani őszig a megjelenést, nem július/augusztusban fognak bevásárolni az emberek VGA-ból, főleg nem Fury-ból ezek után...
Ha tényleg szoftveres gond az egyrészt jó (bár azért az ellenfélben 20-30% tartalék még így is van...), másrészt ezzel felemás megjelenéssel lejáratták magukat a nagy hype után. -
#35434496
törölt tag
válasz
Malibutomi #7033 üzenetére
Engem nem igazán érdekel mennyit fogyaszt egy vga. (1350w-s Enermax Platimax tápom van
)
De ment az okosítás, hogy milyen keveset fog fogyasztani Fury a HBM miatt. -
daveoff
veterán
válasz
Malibutomi #7021 üzenetére
Mobilról vagyok, csak azt láttam, amit belinkeltek...
-
#35434496
törölt tag
válasz
Malibutomi #7021 üzenetére
Persze de ez maximumnak is brutális basszus. 432W Nem úgy volt, hogy a HBM miatt keveset fogyaszt a kártya stb....?
-
rocket
nagyúr
válasz
Malibutomi #7005 üzenetére
Semmi meglepo nem tortent driver fonton, papirforma.
-
Asbee
veterán
válasz
Malibutomi #7005 üzenetére
Sajnos ezen már meg sem lepődik az ember. Pedig szinte biztos ez van a háttérben.
-
Whysperer
addikt
válasz
Malibutomi #7005 üzenetére
+1
-
-Solt-
veterán
válasz
Malibutomi #7005 üzenetére
Ha ezek driver gondok, akkor az nagyon amatőr húzás... én nagyon drukkolok nekik, sokkal szimpatikusabbak mint az NV, de ha egy cég ennyire önmaga ellensége...
-
válasz
Malibutomi #6883 üzenetére
A játék kicsit bugos még... lesz mit javítani.
Amugy áttettem SSD-re és (elvileg leszedett valami +100MB patchet is??
) így már "elfogadhatóan" fut.
De ha esik az eső és sok a füst meg a gameworks cucc akkor beesik bizony huszon fps-ekre még mindig (GTX 970-en, de ahogy nézem a külföldi fórumokat még Titan X esetén is, szóval biztos lesz javítva picit a dolog.).
De ha nincs ilyen akkor 40+ megvan azért majdnem mindig és nem szaggat.Kilépéskor meg AMD és nVidia kártyán is crash van. Szóval semmi újdonság.
-
#85552128
törölt tag
válasz
Malibutomi #6883 üzenetére
Tekintve, hogy AMD-vel még mindig szarabbul fut (letiltott CF, a benchmark mód is crashel) így továbbra is helyben vagyunk "a melyikkel jobb" kérdésben.
A port "minőségét" meg maga a 30 FPS lock is mutatja (ami egyébként feloldható)...
970-el játszottam kb. 20 percet, 40-60 FPS megvan, pár néhány droppal, ha valamit lejjebb veszek/javítanak lenne még jobb is... -
cyberkind
félisten
válasz
Malibutomi #6883 üzenetére
Annyira nem szar az a 30 fps, de maga a port viszont igen, erősen gondolkodok a Ps4-es változaton.
-
Yllgrim
őstag
válasz
Malibutomi #6883 üzenetére
Amig nem lesz kijavitva addig lapulas lesz mint szar a fuben aztan meg jon King Kong fele melldorgetessel az egesz banda hogy"Ez a support!", Meg "Meg is csinaltak!" meg.... uncsi primko banda...
-
Laja333
őstag
válasz
Malibutomi #6883 üzenetére
Biztos a táp, meg az alaplap...
-
#35434496
törölt tag
válasz
Malibutomi #6881 üzenetére
Inkább úgy fogalmaznék 8pack pro oc míg Gibbo egy mezei halandó.
Nick Shih meg egy földönkívüli lény! -
zoli7903
csendes tag
válasz
Malibutomi #6873 üzenetére
-
#35434496
törölt tag
válasz
Malibutomi #6875 üzenetére
Inkább hiszek a pc iparban egy Taipei-nek mint egy Angolnak!
-
#35434496
törölt tag
válasz
Malibutomi #6873 üzenetére
Láttad a képet amit linkeltem? Hidd el van szoftver a Fury x kàrtyához.
Vicces, hogy a TEK-9 Fat pot színte lefedi a kis Fury x-et.
-
daveoff
veterán
válasz
Malibutomi #6867 üzenetére
290X vs 780ti féle párharc kezd körvonalazódni, csak most az AMD-n is normális hűtés lesz, végre. Innentől kezdve megint a terméktámogatás fog dönteni, hogy melyik lesz jobb választás.
-
Laja333
őstag
válasz
Malibutomi #6862 üzenetére
Nem tudom már ki volt, aki postolta (ő épp tesztelgeti már a Fury-t), hogy szintetikus tesztekben a G1 980ti a "king". Viszont játék benchekben már fej-fej mellett vannak. Ki is emeli, hogy kap egy G1 teljesítményt olcsóbban, halkabban és hűvösebben.
Mi az érv a Maxwellek mellett? Ugyan az a teljesítmény halkabban, hűvösebben. Most ez megfordult a Fijivel...
Komolyan kíváncsi vagyok most mi lesz a kifogás a Radeonnal szemben. -
westlake
félisten
válasz
Malibutomi #6847 üzenetére
Az a baj, hogy még mindig túl sok az ismeretlen tényező. Meg túl sok a ha. Számomra például csak akkor lenne vonzó a Fury X, ha minden említett dolog pozitívan alakulna. Arról nem is beszélve, hogy az AMD pártiak nem annyit vártak az új kártyától, hogy esetleg jobb választás lehet a 980 Ti-nél. Ők azt várták, hogy a TX (is) meg lesz alázva. Persze tagadni lehet, de a legtöbben így gondolkodtak. Véleményem szerint az AMD a Fiji magos kártyákat csak a jövő ígéreteivel (DX12) tudja értékesíteni. Az NVIDIA pont elég Maxwell GPU-s kártyát adott el azalatt az idő alatt, amíg az AMD a Fiji-n dolgozott. Ezeket a vásárlókat már elvesztették. Biztos vagyok benne, hogy aki megvette a GTX 900-as szériát, nem akarja majd lecserélni egy Fiji-re. Vagy vesz mellé egy másik ugyanolyan kártyát, vagy megvárja a jövő évet. A jövő évben viszont megint csak az NVIDIA fog kijönni az új generációval, és megint csak az ő vagyonukat gyarapítják majd a vásárlók.
Ha egy teljesen független embert kellene meggyőzni arról, hogy miért vegyen Fury X-et, én nem nagyon tudnám mive promótálni. Ha leraknánk elé egy Fury X-et, és egy Gigabyte G1-et, hogy próbálgassa egy-két napig őket, akkor sanszos, hogy a specifikációk és a tudás (plusz tuning) alapján az NVIDIA termékét választaná.
-
westlake
félisten
válasz
Malibutomi #6839 üzenetére
Nem lesz.Out-of-the-box biztos, hogy nem. Maximum akkor, ha a tuning is képbe kerül.
Egy referencia TX 10.93 MH/s-os tejlesítményre képes, egy referencia Ti pedig 10.40 MH/s-osra. Egy egyedi hűtéses Ti (EVGA SC ACX) pedig 11.2 MH/s-osra. Ez pont annyival magasabb érték, mint amennyivel a Fury X elverte az előzetes tesztekben a TX-et. Ott a plusz 2GB VRAM és a tény, hogy a Ti-n nem lóg egy kiegészítő elem. Ráadásul mi van akkor, ha valaki két kártyát akar beszerelni a gépébe?
Hogy beszéljünk egy kicsit a tuningról is. Ha jól olvastam, akkor az AMD a gyári 275W-os TDP-t (ami ugye nem is biztos. hogy valóban "csak" 275W) maximum 375W-ig engedi kitolni. Ez ~36.5%-os többlet. Az NVIDIA-nál nincs ilyen limit. Mármint van, de néhány kattintással kiiktatható. Egyáltalán nem biztos, hogy az AMD-nél kiiktatható lesz. Még nincs sok egyedi hűtéses Ti eredmény (tuning), de az 1400MHz majdnem mindig megvan. Fogja ezt bírni a Fury X?#6846: A két GPU-s 295X-et leszámítva nem is jöttek kötelező vízhűtéssel. Az AMD valamiért tart a magas hőtermeléstől. Ha félnek valamit miatt, akkor elképzelehető az is, hogy a Fury X-nél valamilyen módon limitálják a fogyasztást 375W-ban. Gondolom abban egyetértünk, hogy a gyártók (ha akarnák) meg tudnák akadályozni a TDP-vel való játszadozást.
-
Asbee
veterán
válasz
Malibutomi #6839 üzenetére
Azért még várjuk meg a rendes teszteket de megvan rá az esély.
-
Feen
csendes tag
válasz
Malibutomi #6834 üzenetére
Igaz, én ilyen 700 dollárt láttam, de azóta láttam hogy vannak frissebbek. 429 lesz, a 980 meg 500 körül jár. Így már más a dolog
-
#85552128
törölt tag
válasz
Malibutomi #6782 üzenetére
Egyfolytában azt halljuk, hogy az AMD-nek mennyi fejlesztőt sikerült magához csábítania.
Teljesen jogos kérdés, hogy miért nem látjuk ennek eredményét, ha az nV jóval kevesebb kiadóval képes azt hozni, hogy szinte havonta jönnek az általuk támogatott AAA játékok....
A másik dolog megint ezen játékok természete, egy Dying Light, Far Cry 4, Mordor, Witcher, Batman nem összevethető egy olyan okádékkal mint a Hardline, vagy az egyelőre fenntartásokkal kezelt NFS... Az egyetlen valamire való AMD-s játék az éven talán a Battlefront lesz az év végén... -
#85552128
törölt tag
válasz
Malibutomi #6778 üzenetére
Az új driverrel 0.6 FPS a különbség a 290X javára a 780Ti-vel szemben, úgy hogy több ROP-ja van és a játék eléggé ROP intenzív.
Szerintem elég jó munkát végeztek, ennyi különbség a megjelenéskor is volt a két kártya között. -
#85552128
törölt tag
válasz
Malibutomi #6775 üzenetére
Örüljetek, hogy van a Gameworks mert ha nem lenne akkor nem tudnátok mire fogni, hogy szarul megy
Witcher 3-ban GW effektek nélkül is lassabb volt a 290X mint a 970 pedig ugye elvileg fordítva kéne lennie...(#6777) rocket: Most épp a low-levelen van a hangsúly, ha ott is lesz valami a driverrel (elvileg nem kéne) tényleg vicces lesz.
-
#85552128
törölt tag
válasz
Malibutomi #6771 üzenetére
Nem nagyon érdekelnek a "miértek" ugyanúgy mint ahogy jó néhány vásárlót sem....
Ismét egy olyan játék jön ami nV kártyával jobban fog futni pedig állítólag az AMD mögött fejlesztők és kiadók hadserege áll csatasorban (a valóságban meg egy Hardline-on kívül más még nem jött ami AMD-s és vége az év első felének...).Ja és nyilván nem most kaptak az AMD-sek sem hozzáférést a játékhoz, csak szokás szerint megkésve jön a support...
-
cyberkind
félisten
válasz
Malibutomi #6771 üzenetére
Az is csoda hogy konzolokon megy rendesen, bár a Ps4-en bezuhangat 26-27 fps-re néha, ez elég karcsú.
-
Asbee
veterán
válasz
Malibutomi #6637 üzenetére
TPU szerint azért nem halk. Egyébként overclock3D.net-en pl újramérték a hőmérsékleteket, annyira rosszul volt pasztázva a kártya. El is volt csúszva...
-
Asbee
veterán
válasz
Malibutomi #6635 üzenetére
Ne csak a hőmérsékletet nézd. A hangot, mi a gyári temp limit pl. Számokkal fölösleges dobálózni. Miattam lehet 90 fokos is ha ezt totál csendben teszi, bírja és a vrm sem 110 fokos.
-
Locutus
veterán
válasz
Malibutomi #6586 üzenetére
Sokkal elterjedtebb a 4K TV, mint a 4K monitor... Bárki aki elgondolkodik rajta, inkább egy legalább 55-ös 4K TV-t vesz, mint egy zsepi méretű monitort feleslegesen sok pixellel. Az egész quantum projektes living room téma sem a monitorokról szól, hanem a TV-re kötésről, ahogy a nano htpc piaca is. A HDMI2 hiánya bizony óriási részesedés-veszteség lesz, nem tudom mi állhat a döntés hátterében...
(egyébként meg nem létezik jelenleg dp-hdmi2 átalakító) -
proci985
MODERÁTOR
válasz
Malibutomi #6586 üzenetére
4k monitorokon szokott lenni DP. tvken nem, de ott amugy se mindig megy 30Hznel tobb.
daveoff: a 43 minimum nem rossz, high/very highon meg kene lennie a fix 60 fpsnek, eyefinityben szinten majdnem. es az FC4 azert eleg rendesen zabalja az eroforrasokat, en azzal futottam bele a GTX970 3.5GBjebe es ott melegedett tul leghamarabb a 290xemen a memoria.
-
Valdez
őstag
válasz
Malibutomi #6513 üzenetére
Az viszont kedvezőnek számít egy ilyen kártyánál.
Amúgy most megint nem lesz teljes értékű Tonga?
-
rocket
nagyúr
válasz
Malibutomi #6426 üzenetére
Szerintem a versenykepesseg miatt a hatarra tolta az AMD a GPU orajelet a Fury X-nek, es nem a hutes fog korlatot szabni, hanem a rohadt nagy 28nm-es chipek nem fogjak birni a magasabb orajelet, meg nagyobb feszultseggel se.
Szoval en azt mondanam 50-70mhz lesz amit kilehet hozni a gyari hutessel, tuningolva mindket kartyat a leghuteses 980TI siman elfogja verni.
-
rocket
nagyúr
válasz
Malibutomi #6421 üzenetére
Kicsi az esely arra, hogy a Fiji-ben barmilyen komolyabb tuning lehetoseg lesz.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #6391 üzenetére
Nehéz megmondani, mert ilyet PC-n még senki sem csinált. Csak konzolon volt bevett szokás újraírni a szoftverinfrastruktúrát a hosszú életciklus miatt. De a konzolokból kiindulva reális lehet a +5-30% konfigurációtól és programtól függően.
Kérdezd meg Laja333-at, neki úgy néz ki, hogy van valami előzetes tapasztalata.
Egyébként ez is szerintem egy egyszeri alkalom. Általában a PC-kben hiába van 70-80%-nyi kihasználatlan teljesítmény, akkor is mire abból valamennyit befognak a driverben már rég itt az új architektúra, tehát meg sem próbálják azt, amit a konzolokkal csinálnak a nagyobb frissítésekkor. Az AMD is csak azért tette, mert tudták, hogy legalább 5 generációt építenek GCN-re. Megéri az életciklus közepére újraírni a szoftvereket, immáron tapasztalattal.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #6387 üzenetére
Ja. Meg új shader fordító. Majd a Windows 10-zel lesz itt a teljes csomag a nyár folyamán. A bátrak a Windows 10 drivert felhackelhetik Windows 8.1-re.
-
#Morcosmedve
veterán
válasz
Malibutomi #6322 üzenetére
De jó sorok!
Viszont ez hasonló lehet mint az NFL meccsek előtti gyülekezés a parkolóban. Van akinek egy jó kis kiruccanás, feeling, időtöltés, stb...
Viszont, VGA-ért sose állnék sorba, ráadásul most (is) inkább kivárni érdemes, konkurencia, játékok, azaz szeptemberig uborkaszezon/beállnak az árak...
Szvsz iPhone-ért is brahiból, de sokan azért állnak sorba, mert utána hetekig-hónapokig nem fognak kapni (a nyomik meg nyomik mindenhol).
-
kovsol
titán
válasz
Malibutomi #6322 üzenetére
Valaki szólhatna nekik, hogy neten is meg lehet venni, és akkor a futár házhoz hozza.
-
keIdor
titán
válasz
Malibutomi #6322 üzenetére
No ebben egyetértek veled.
-
mlinus
őstag
válasz
Malibutomi #6322 üzenetére
Évi iphone koppi... bocsi, Galaxy S-ért is mindig sorbaállnak az emberek
[link] -
MiklosSaS
nagyúr
válasz
Malibutomi #6310 üzenetére
Amit en irtam az 100 % -ban hiteles, hiszen a legnagyobb ceg marketingese az ismerosom.
-
rocket
nagyúr
válasz
Malibutomi #6292 üzenetére
A multban tortentekbol (a tortenelem nagy mertekben ismetli onmagat a DGPU piacon) es a jelen helyzetbol, plusz hozza vettem, hogy a biztosabb 16nm helyett a TSMC-nel, a 14nm-et valasztottak a GF-tol, akik minimalis tapasztalattal rendelkeznek GPU-k gyartasaban.
Nem tunik nyero dontesnek, es mivel a multban is csak gond volt az alacsonyabb csikszelesseg uldozesbol a highend GPU-knal, raadasul kevesebb problemaval kuzdottek akkoriban meg a bergyartok, nem latom okat a hurra optimizmusnak.
Persze megvan a lehetoseguk, hogy ram cafoljanak
-
rocket
nagyúr
válasz
Malibutomi #6286 üzenetére
Gondolod a mar alapbol is nagyobb eroforasokkal rendelkezo NV malmozott az elmult 9 honapban? (ugye azota van piacon a kis frisstesen atesett Maxwell2)
#6287:Azzal, hogy 28nm-en rekedtek a GPU-k plusz evekre, eleg nagy teljesitmeny ugras varhato 16nm-tol, es ha csak nem kell az NV-nek 2-3 plusz tapeout, akkor biztos, hogy nagy elonnyel fog piacra szallni, mikozben a tuloldalon 4+ eves architektura probalja allni majd a sarat.
Azzal, hogy az NV a highend GPU-kkal kezd majd 16nm-en arra lehet kovetkezteni, hogy arra jatszanak amivel a G80 es a G204-el.
-
mlinus
őstag
válasz
Malibutomi #6263 üzenetére
Szerintem nem nagyon találnál olyan fejlesztőgárdát, aki belemenne, hogy amd specifikus optimizációkat tartalmazzon a játéka (ami nvidián rosszul megy) amikor a játékosok 70-80%-a nvidiás. Nem az amd szívná meg közvetlenül, hanem a játékot húznák le /nem vennék meg, de nyilván végeredménye az amd-re menne a fújjolás.
Aki ténylegesen játszik, a legfrissebb címekkel, AAA játékokkal, az tudhatja hogy sokkal kevesebb a fejfájás az Nvidia kártyákkal manapság. Rengeteg játékfórumon ha valaki kiposztolja hogy lassú, vagy bugos a játék, az első kérdés az, hogy AMD kártyát használsz-e... ha igen a válasz, akkor pedig jön a kismillió 1.0, hogy ne csodálkozz, mert szar az amd. Szóval itt tartunk, és azt gondolom hogy az amd-nek ugyanazt csinálnia mint az NV-nek a jelenlegi pozicióból nem lenne túl okos döntés.
-
Asbee
veterán
válasz
Malibutomi #6263 üzenetére
Milyen személyeskedés?
Azért mert az a véleményem, hogy nem normális a megállapításod? Miért szivassam magamat egy gyengébb kártyával, ha az összes játékot nézve végeredményben egy ideje jobb az NV? Vannak az NV-nek olyan húzásai amiről ugyanúgy megvan a véleményen, de jelenleg ez a helyzet és puszta fanságból vagy ilyen olyan technológia mesékre meg elképelésekre nem fogok kártyát venni és általánosságban nem is vesznek. Ezért is meg lehet nézni a sokszor emlegetett piaci helyzetet...
Majd ha változnak az erőviszonyok akkor miattam lehet AMD vagy akár Intel.(#6265) huskydog17: Mesének jó. Csak lassan nem lesz erőforrás.
-
huskydog17
addikt
válasz
Malibutomi #6261 üzenetére
Nem kell, mindössze annyit kellene tenniük, hogy leállítják az NV architektúrák visszafejtését. Ez nem kevés erőforrást visz el, továbbá ha leállítanák, akkor utána az NV kapkodhatná a fejét, hogy a legdrágább kártyájukat elveri egy középkategóriás AMD VGA.
Emlékszünk mi volt kezdetben a Ryse PC verziójánál? Pontosan ez történt, a Crytek jók csinálta. Nem voltak hajlandóak visszafejteni a zöld architektúrákat, így az NV kártyák teljesítménye a béka segge alatt volt. Ahogy megjelent a játék, az NV rögtön ment a Crytek-hez segíteni.Majd kíváncsi leszek, hogy Jim Anderson mit fog kitalálni.
-
axton
tag
válasz
Malibutomi #6261 üzenetére
Ilyen piaci reszesedes mellett ongyilkossag lenne.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #6253 üzenetére
Olvasd a GeForce fórumot, hogy milyen felháborodás van a GameWorksből. Abból, hogy a Radeonok egy szimpla driverbeállítással minőségvesztés nélkül nagyon gyorsan tudják futtatni a HairWorksöt, és abból, hogy a Kepler a TWIMTBP játékokban, miért van ennyire leszakadva a Maxwelltől. Ezt baromira el akarja kerülni az AMD, mert ez nem üzlet. Az NV-nek az, mert átállítja az embereket a felhőbe.
Kínálják majd a GRID-et előfizetéssel, és mehetsz oda játszani. Sőt, alapvetően vannak olyan GameWorks effektek fejlesztés alatt, amelyek nem is a kliensgépen futnak, hanem a felhő kiszámolja az aktuális részinformációkat, és visszaküldi az adatot a kliensgépnek, ami összerakja a képkockát az adatok alapján. Ez a jövőkép az AMD szerint nem jó, mert nagyon kevés hely van a világon megfelelő internetinfrastruktúra az effekteket a felhőben számoltatni.(#6255) wjbhbdux: A Frostbite a PC számára fontos, mert az EA akkora lépésekben halad előre, hogy a többieknek mérföldes lemaradásuk lesz sebességben és minőségben a Frostbite új verzióihoz képest. Csupán abból származik majd a Frostbite előnye, hogy az EA-nek van egy valag pénze kutatni, fenntartanak egy teljes stúdiót csak motorfejlesztésre, és mindent saját maguk írnak meg. Ezzel gyakorlatilag lekövetik azt a modellt, amit a Sony felvázolt még pár éve, hogy grafikai áttörés nagyrészt ebből lesz. Ezért kampányolt az EA elsőként a low-level irány mellett, mert szükségük van a nagy kontrollra a hardver felett, hogy kiépítsék az előnyöket. Valószínűleg nem sok kiadó lesz, aki képes majd követni őket. A Squate Enix EIDOS divízió már elindult utánuk, illetve a Capcom is, de az, hogy ők csak később fedezték fel a 100%-ban saját kód jelentőségét időhátrányt jelent az EA-vel szemben. Az Ubisoft még esélyes lenne erre, ha figyelmet fordítanának a PC-re, de annyira ezt a platformot nem tartják fontosnak.
-
wjbhbdux
veterán
válasz
Malibutomi #6253 üzenetére
Én szeretem max beállításokkal tolni a játékot, de a physx szikrákat is leszartam, és a gameworks esőcseppjeit is leszarom, ha ezek miatt 60-ból 30 FPS lesz ha bekapcsolom, mint az Ubi tavalyi játékaiban. Amíg valós kinézetet nem befolyásolnak, csak egy kis extrát adnak hozzá, addig kibirom nélküle, akár vinné a kártya akár nem, fel se merül hogy egy ilyen miatt SLI-t vagy Titant intézzek.. és a többség még lejjebbi beállításokon játszik sztem, ez a top top GW bekapcsolás max 5%-át érinti a usereknek, akiknek 970/980+ van.
A Frostbite meg egy huszadrangú motor PC-n, a legnépszerűbb BF4el annyian játszanak hogy épp hogy csak beférne a Steam top20-ba (hardline top100ba se
), ha ott lenne fent.
-
Televan74
nagyúr
válasz
Malibutomi #6253 üzenetére
Amíg NV -n jól futnak a mai játékok,addig az AMD nem tud mit kezdeni.Akármilyen jövőbelátó is az új játéktechnikai elképzelése.
-
#85552128
törölt tag
válasz
Malibutomi #6192 üzenetére
Ugyanez terjed visszafelé, az RB Tier 3-al, főleg mivel pH-n minden egyes cikkben ez van kihangsúlyozva...
(#6191) Televan Ez most nem teljesen igaz, mivel így az XO sem támogatja így ez őket is érinti, legalábbis jobban mint eddig.
Nyilván nem lesz belőle akkora érvágás vagy megoldhatják emulációval is, de ezért mondják sokan, hogy nem DX12-t kell szem előtt tartani kártyavásárlásnál... -
rocket
nagyúr
válasz
Malibutomi #6187 üzenetére
Kapitalizmus ez, nem szivatas.
Piacra kerult a 980TI 6GB VRAM-al High-End VGA-hoz jobban illo arcedulaval, innentol a cel, hogy ehez legyenek optimalizalva a GW jatekok, es ne a ~9 honapos 980GTX-re.
Az NV nagyon okosan kitalalta a GW-t, es jol is mukodik, az AMD oldalarol jovo kritikak ellenere egyre tobben csatlakoznak. -
Televan74
nagyúr
válasz
Malibutomi #6187 üzenetére
Valahogy el kell majd adni a 980Ti meg a TitanX -t.
(#6190) Szaby59 M$ csak a saját érdekeit nézi.Nem nagyon törődik egyik nagy gyártóval sem.Ha tudják a kártyáik akkor jó. Ha egyes típusok nem támogatják,akkor így járt a felhasználó.
-
#85552128
törölt tag
válasz
Malibutomi #6189 üzenetére
Az MS hozott létre annak a két dolognak egy külön Feature levelt...
Simán mehetett volna a 12_0-ba mint opcionális funkció, főleg ha olyan "jelentéktelen".
Az MS-es GDC prezentációban is benne volt.Nekem is mindegy, nem DX12-re vettem a kártyát...
-
#85552128
törölt tag
válasz
Malibutomi #6187 üzenetére
Nem az nV hanem az MS csinálta, ugyanúgy ahogy a 10.1, 11.1, 11.2-t - amikor is ugye az AMD volt előnyben...
A Shader model 3 meg a DX10.0-nál az nV-nél volt hamarabb, van ilyen -
#Morcosmedve
veterán
válasz
Malibutomi #6052 üzenetére
Köszi, közben a megfelelő(bb) helyen is rákérdeztem!
-
keIdor
titán
válasz
Malibutomi #6015 üzenetére
Kényszer helyzetben. Mert én csak arra gondoltam. Jelenleg nincs is értelme, de ha fordított lenne a helyzet, meg tudnák csinálni.
HSM: Üzleti szempontból.
-
wjbhbdux
veterán
válasz
Malibutomi #6012 üzenetére
Gyakorlatilag ma az Nvidia csökkentette a Titan árát 35%-al, ennek miért ne örüljünk
-
keIdor
titán
válasz
Malibutomi #6013 üzenetére
Az oké, de át tudnák (valószínűleg) tervezni, hogy fogadja a GDDR5-öt.
-
Asbee
veterán
válasz
Malibutomi #6007 üzenetére
A birka tömegnek egy jól használható kártya kell nem egy kazán amivel 10 ből 9 embernek gondja van. Ledöbbenve olvassa az ember a mai napig a melegedés és BS problémákat....
-
keIdor
titán
válasz
Malibutomi #6002 üzenetére
Ezt csinálták a Keplernél is, az olcsóbban legyártható terméket előbb eladják a nagy kártya árán, ezzel egy generációban kétszer kaszálnak ugyanannyit. Legalábbis akik mindig váltanak, azoknál. Szerintem zseniálisan csinálják. De mivel 28nm sejthető volt, hogy vissza van csak tartva, mert már rég tudják gyártani.
-
keIdor
titán
válasz
Malibutomi #5998 üzenetére
-
MiklosSaS
nagyúr
válasz
Malibutomi #5890 üzenetére
Szerintem direkt nem, engem is erdekelne a tema.
-
Malibutomi
nagyúr
válasz
Malibutomi #5881 üzenetére
Nem kapok valaszt...vagy direkt nem?
-
#85552128
törölt tag
válasz
Malibutomi #5881 üzenetére
Lehetne, de annyi HBM nem lesz
(#5880) Abu85: Ha nem kapcsolnám ki és fullra optimalizálva lenne, akkor nem 40-re hanem mondjuk 45-re esne be. Minden játékot úgy állítok be, hogy 50 alá ne menjen, de az 55-60 a cél tehát nekem édes mindegy, valaki ezért vesz +1 VGA-t én nem fogok max nem kapcsolom be...
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #5875 üzenetére
Ez egy ballansz probléma. Mennyi processzoridőt igényel a játék és mennyit vesz el a driver. A mai multiplatform címek szándékosan rendkívül butítottak a játékmenet szempontjából, hogy maga a szimuláció kevés processzoridőt igényeljen, és az NV driverének is legyen elég szabad erőforrás. Az AMD és az Intel drivere ezzel biztosan jó lesz, mert kevesebb szálat futtatnak.
(#5877) Szaby59: Ez a lényeg. Azért kapcsolod ki, mert nagyon zabálja a géped, pedig valójában ugyanehhez a minőséghez nem kellene ennyi veszteség. És akkor már átgondolnád, hogy mást kapcsolj ki például.
A Frostbite 3 egy deferred MSAA technikát használ. Minden render targetet leszűr, vagyis más játékokhoz mérten az MSAA munkája 4-5x-ös.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #5872 üzenetére
A D3D driver egy komplex probléma. Amit sokan nem vesznek figyelembe, hogy itt nem csak a megjelent játékokat nézik a cégek, hanem a megjelenés előtt állókat is. Alapvetően az Intel D3D drivere a legjobb. Messze az látszik a legrosszabbnak a tesztekben, de reálisan felhasználható processzoridő jut a programnak. Az NV drivere a másik véglet. Iszonyatosan zabálja az erőforrást, míg az AMD drivere a kettő közötti átmenet.
Hogy ez miért fontos? Bizonyos konzolra írt játékokban az AI és a fizika komplexitása a PC-s játékokon túlmutat. Viszont a D3D driverek miatt ezeket nem lehet PC-re portolni, mert túl sok erőforrást elvesznek a driverek. Ezért kér a Microsoft thin drivert, mert a grafikát képes skálázni a fejlesztő, de az AI-t és a játékmenetre ható fizikát nem. -
#85552128
törölt tag
válasz
Malibutomi #5872 üzenetére
Nem lesz semmilyen alázás mert a tesztekben 8 magos i7-ekkel mérnek, hogy semmiképp se legyen CPU limit, sőt ha "átlagos" CPU-k lennének nagyobb lenne a különbség a jelenlegi driverekkel...
Olcsóbb CPU-val jön elő és nem csak PC-ban: [link]"On the plus side, the GTX 750 Ti fares much better when paired with a budget CPU than the rivalling AMD R9 280. Despite costing £30-40 more, the card is a write-off for 60fps performance at 1080p, even with all settings and sliders at their lowest. Left at high settings, spikes down to 35fps are common, again pointing to an issue with AMD cards when paired with weaker CPUs. Unlike the Nvidia 750 Ti, a 30fps lock is needed here when targeting 1080p and anything close to current-gen console settings."
Nem hozzáállás kérdése, mert látszik, hogy máshol is megvan + W10 alatt a WDDM2.0-s driverben már jobb eredményeket ér el az AMD is PC alatt, azonkívül az AMD is közölte, hogy dolgoznak a hibán, miután a PC fejlesztője elég egyértelművé tette, hogy driverhiba...
-
#85552128
törölt tag
válasz
Malibutomi #5851 üzenetére
Nem az nV van "védve" hanem a fejlesztő okolva, mellesleg a fejlesztők mondtak ilyet is olyat is, ennek ellenére a HW AA is állítható mint ahogy a HW "optimalizálások" is jönnek patchként...
Egyértelmű válasz/cáfolat még egyik féltől sem jött, az biztos, hogy van olyan konstrukció ahol a forrást nem kapják meg - és ez valószínűleg olcsóbb is - ha ezt választják az megint kinek a hibája ?Ugyanúgy felelősségre lehetne vonni az AMD-t, hogy miért hanyagolja el a DX11-es driverét és az nem 1-2 játékot érint hanem mindet főleg akinek még AMD CPU-ja is van a VGA mellett.
Amíg az egyik gyártónál magasabb a megelégedés addig hajlamosabbak elnézni 1-2 stiklit mint egy olyannál ami hibát hibára halmoz... -
#85552128
törölt tag
válasz
Malibutomi #5847 üzenetére
Ha tényleg olyan rossz a GW mint ahogy azt pár nem-GW-s fejlesztő (
) állítja akkor igen a fejlesztő a hülye, hogy ebbe belement. Az nV pedig addig nem fog változtatni ha így is van rá kereslet, neki win-win mindenképp...
Viszont ott vesztették el végleg a hitelességüket amikor a W3 fejlesztője fórumon még a megjelenés előtt pár héttel is azt írta, hogy reprodukálható a 2013-as effektek és látvány a végleges játékban - ami ugye elég nagy bs.Más játékkal meg mi volt a baj ? A Unity konzolon is bughalmaz volt, a Dying Lightnál a látótávval volt csak baj mert túl nagy volt az alap ez javítva is lett, de egyik sem GW specifkus dolog...
-
stratova
veterán
válasz
Malibutomi #5842 üzenetére
Erre válaszolhatok?
A magasabb ROP teljesítmény miatt. Gbors is említette korábban, hogy kimondottan díjazza ezt a játék.GTX 980 [64 ROP 1126-1266 MHz]
peak: 81.024 GP/sGTX 970 [56 ROP 1050-1250 MHz]
peak: 70.000 GP/sR9 290X [64 ROP max. 1000 MHz]
peak: 64.000 GP/sR9 290 [64 ROP max. 947 MHz]
peak: 60.608 GP/sGTX 780 Ti [48 ROP 875-1020 MHz]
peak: 48.960 GP/s(legmagasabb boost órajellel számolva)
Maxwellben Nv megduplázta a ROP-okat.
-
#85552128
törölt tag
válasz
Malibutomi #5842 üzenetére
A kepler rosszabb teljesítményét elismerte az nVidia és más is megmagyarázta.
Az AMD elismerte, hogy miért lassabbak a saját kártyái ?
Nem, megy a szokásos sopánkodás, hogy az nVidia szabotálja őket...
A 280X 15%-al gyorsabb mint a 960, ellenben a 960 most 20%-al gyorsabb, ezt nem lehet arra fogni, hogy "nV játék".
Főleg, hogy a 290X és a 970 között sincs ennyi különbség...A másik dolog: a HairWorks-hoz használt MSAA is maxra van állítva (8x) ami a konfig fájlból módosítható, tehát nem forráskód kell hozzá hanem egy jegyzettömb amivel az egyszerű user áttudja írni nemhogy a fejlesztő.
Ezek után még kérdés, hogy nem a fejlesztő szarta el az optimalizálást ? Rátették mindenből a maximumot jó lesz az alapon oszt kész, akinek nem bírja vegye lejjebb/kapcsolja ki... -
Asbee
veterán
válasz
Malibutomi #5817 üzenetére
Első 970-emmel mikor megjelent, Mordorban teszteltem vram tuningot, ultra textúrával mert szépen használta. Semmi szaggatásom nem volt, vissza lehet nézni topikban.
-
#85552128
törölt tag
válasz
Malibutomi #5817 üzenetére
Nálam nem szaggat 1080p-n nem is ment 3.5 GB fölé...
-
Egon
nagyúr
válasz
Malibutomi #5700 üzenetére
Eeegen...ahol meg 5FPS el gyorsabb a TX mint a 290X ott meg orommaglyakat gyujtunk, hogy szennealazta.
Neeeeeem, ahol a 290X az gyorsabb, az egy jól optimalizált program, és kijön az AMD technikai tudása. Ahol a GeForce nyer, ott szarul van megírva a játék, api korlát/DX11 limitáció, drawcall-probléma, gameworks blackbox (hogy Szaby-tól idézzek), vagy szimplán az nV lefizette a fejlesztőket, hogy lassabb legyen AMD-n.
Há' persze... -
Rasiel
senior tag
válasz
Malibutomi #5700 üzenetére
-
#85552128
törölt tag
válasz
Malibutomi #5702 üzenetére
"Ha nv optimalizalasrol diskuralunk, akkor a "de az amd meg..." az nem relevans erv, nem kell befuzni minden hozzaszolasod vegere."
Miért is ? Lovagolsz pár FPS-en a 780 és 960 között egy olyan játékban ahol a 780Ti és TX között sincs jelentős különbség. Azt már csak extrának említettem, hogy a 290X még a 770-et sem tudja befogni mert ez tipikusan a "Más szemében a szálkát, a sajátjában a gerendát sem veszi észre" esete...
Ilyen alapon azt is kilehetne emelni, hogy a 780 Ti alig marad el a Titan X-től ami nagyon jó optimalizálást jelent- csak nézőpont és viszonyítás kérdése...
-
#85552128
törölt tag
válasz
Malibutomi #5700 üzenetére
A német teszt megjelenés előtti review verzióval készült itt már más eredmények jöttek ki...
A project carsnál meg a 970 - 980 - TX között sincs jelentős különbség, de pl . az AMD kártyák sem szerepelnek valami fényesen... -
#85552128
törölt tag
válasz
Malibutomi #5696 üzenetére
DA:I-ben 2 FPS-sel gyorsabb a 290X, most W3-ban 4-gyel ennyi szerintem simán elvárható ha azt vesszük új széria híján mást nem kell támogatniuk. Megjelenéskor sem volt mindenben gyorsabb a Ti játékfüggő...
Az új WHQL-ről meg annyit, hogy senki nem mondta, hogy az nV soha sem hibázhat, most besikerült egy hónapok óta nem volt gond és egy teljesen új szériát adtak ki...
Csak amikor GTA V-ben 1 hónapja nincs javítva a Tahiti-s grafikai MSAA-bug, a Project Cars 2 hete játszhatatlan akkor nem biztos, hogy egyetlen rossz nV drivert kéne kiemelni -
do3om
addikt
válasz
Malibutomi #5694 üzenetére
Az NV aki azonnal reagál mihelyt kijön valami játék.
Az AMD aki leszarja és hónapokig bugosoka a gamék.Persze hogy gyorsul a radeon ha megjön a játék ami lagol akad mint állat pár hónapig, lemennek a tesztek aztán később egy újabb mérésnél meg hú milyen jó már mennyit gyorsult. Csak ezt kezdettől elvárná az ember.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Beszámítás! Apple Mac Studio M2 MAX 2023 32GB 512GB SSD számítógép garanciával, hibátlan működéssel
- Azonnali A320 B350 X370 B450 X470 A520 B550 X570 chipset alaplap felvásárlás személyes/csomagküldés
- AKCIÓ! Dell Latitude 5440 14 FHD üzleti notebook - i5 1335U 8GB RAM 256GB SSD Intel Iris Xe
- LG 48C3 - 48" OLED evo - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - A9 Gen6 CPU
- Eladó szép állapotban levő Huawei P30 Pro kék 6/128GB 12 hónap jótállással!
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest