- Fejhallgató erősítő és DAC topik
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Milyen egeret válasszak?
- Végleg lemondott a régi gépekről a Steam
- LG LCD és LED TV-k
- Akciókamerák
- Kompakt vízhűtés
- Épített vízhűtés (nem kompakt) topic
- Napokon belül mindenki megkapja a GeForce Now időlimitjét
Új hozzászólás Aktív témák
-
nonsen5e
veterán
Szerinted igaz lehet az, hogy ezt tényleg a semmiből építették fel külön PC-re?
Mr. Producer ezt mondogatja, de ahhoz képest elég konzolport szagú trehányság érződik a benchmarkon.
Esetleg a Gameworks miatt tényleg újra kellett írniuk az egészet?---
Intruder2k5:
-
nonsen5e
veterán
Amikor a trailer felében a grafikai effekteket promózzák, akkor eléggé úgy tűnik nekem, hogy igenis az a lényeg.
Ne hozzunk már fel trailert példaként, mert nézzük már meg úgy az elmúlt 5 év játékait, hogy hány volt grafikailag akár a közelében is annak végül amit a trailerekben mutogattak.
Több ezeken az utólag rátett post-processing, mint az átlag hollywoodi színészen a smink. High-on is nagyságrendekkel rondábbnak találom a benchmarkot, mint a linkelt trailert. -
nonsen5e
veterán
Szedhető a Final Fantasy XV benchmark. Lássuk, hogy verik tönkre a teljesítményt a Gameworks effektek.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
nonsen5e
veterán
Az AMD bérgyártói is 101%-ban le vannak terhelve mint a TSMC, hogy az AMD nem képes 4GB-os kártyákat készíteni, avagy szimplán csak nem érdekük, mivel nincsenek is kisebb méretű memóriachipeik, és úgyis csak letiltott 8GB-os kártya lenne az összes, ezért inkább vegyék az emberek a nagyobbat drágábban?

A 4GB-os verzió jelenleg elég paper launch szagú. Letiltottak 4GB-ot worldwide nagyjából 1000 darabot, hogy elmondhassák, hogy van, aztán end of story - de legalább a hype körbement a világon, hogy kéccáz dollár lesz a 480.
-
nonsen5e
veterán
Akkor megint csak ott vagyunk, hogy minden évben vegyél új kártyát, ha játszani akarsz?
Másfél év múlva meg jön az XYZ játék, ami csak a Volta / Vega-n fog futni, mert tettek az új architektúrákba két apró eltérést, amit a fejlesztők rögtön hardveresen le is kezeltek és sosorry a többieknek.Lehet, hogy nekem rossz az emlékezetem, de DX11 alatt mintha nem lettek volna olyan címek amik ne futottak el bármilyen DX11 kompatibilis kártyán (az adott kártya teljesítményt figyelmen kívül véve).
Már látom előre, ahogy a kártyák dobozán a hatalmas DX11 / DX12 matricák helyett az általad linkelt táblázat TIER szintjei lesznek nyomtatva, mert minden második "DX12-t támogató" játék más feature-öket fog igényelni a különböző kártyáktól.
"Ilyenek a jövőben is lehetnek, ahogy fejlődik a rendszer. "
A logika nem pont azt diktálná, hogy DX13-ig ez pont fordítva legyen? Megvannak a (végleges?) specifikációi a DX12-nek, minden szoftver támogassa és kész. -
nonsen5e
veterán
válasz
Laja333
#18751
üzenetére
Hát ja. Most egy legolcsóbb kategóriás Giga B75M-HD3 lapban van a 280X, és tervez(t)em is még a 480-ra váltást, de kérdéses, hogy mennyire szeretné a lap hosszú távon az extra terhelést.
Mert végülis engem az extra funkciók nem érdekelnek, a dobozára meg sehol nem volt ráírva, hogy X kártyánál erősebbet/újabbat nem tehetek bele. Szerintem joggal feltételezhetem, hogy bármilyen kártyát beletehetek és elvárhatom, hogy ne legyen tőle semmi baja. -
nonsen5e
veterán
-
nonsen5e
veterán
válasz
t72killer
#18669
üzenetére
Azt megerősítették, hogy ez ténylegesen minden végfelhasználói kártyával így van, vagy csak ők mint teszterek kapták a tesztkártyát és azon?
Mert az hivatalos, hogy a tesztelők mind 8GB kártyát kaptak, mellé spéci BIOS társaságában, amivel igény szerint tudták állítani az engedélyezett VRAM méretét. -
nonsen5e
veterán
válasz
#85552128
#18621
üzenetére
A Fury X-et, 1080-at vevő emberek elég nagy százaléka olyan, hogy amint kijön a legújabb és legdrágább kártya adja el az előzőt. És ha már ennél a csoportnál tartunk, akkor miért vettek volna mind Fury-t, amikor addigra már kint volt a 980 Ti?
wjbhbdux: amazon.co.uk-n az első helyen egy Sapphire RX 480 áll. Overclockers.co.uk szerint meg szintén nem várt mértékűen nagy kereslet van az új Radeonokra.
-
nonsen5e
veterán
válasz
Malibutomi
#18472
üzenetére
Szimpla dolog. Amíg van a 970, ráadásul annyiért amennyiért most adják, addig igenis fogom hasonlítgatni hozzá a 480-at, tekintve, hogy jelen pillanatban az A konkurenciája a 480-nak. Nem számít, hogy 2 éves fejlesztés (lehetne 8 éves is), amennyiben még forgalmazzák és összehasonlítható a kettő és közel is vannak teljesítmény, fogyasztás, ár és ár-érték alapján is.
Ha két hónap múlva elfogynak a boltok polcairól a 970-ek, akkor majd nem fogom őket hasonlítgatni. -
nonsen5e
veterán
Megint csak túl lett hypeolva az egész...
Miután átváltják 1:1-ben euróra, megszorozzák 1.27-tel, rátesz mégegyszer annyit a kisker, nagyker, közepesker, annyiért veszek 390-et, amit esetleg unlockolhatok is ha jót fogok ki. Fogyasztás sosem érdekelt különösebben, le van hűtve jól a ház... -
nonsen5e
veterán
válasz
#85552128
#13926
üzenetére
Messze még a release, megeszem a kalapomat ha érdekes módon nem butulna rendre le minden AMD kártya teljesítménye a release-re.
De amúgy ez a játék most miért áll ennyire az AMD-nek? Főleg úgy, hogy semmi hozzá optimalizált driver sem érkezett (egyik oldalról sem?), mikor GW is van benne. Más játékok meg GW-vel miért mennek akkor olyan szörnyen? Érdekes.
-
nonsen5e
veterán
válasz
füles_
#13924
üzenetére
Azért az nem semmi, hogy a 280X (olyan driver support mellett mint amilyen) a 780 Ti nyakán mennyire ott van, a 7970 meg, hogy otthagyja a régi ellenfelét, a GTX 680-at.
Ezek az eredmények meg annak ellenére, hogy a Division is tele van dobva GameWorks effektekkel és NV cím. -
nonsen5e
veterán
válasz
Crytek
#13358
üzenetére
Pont erre gondoltam én is.
Mondjuk notebookcheck alatt az Iris Graphics 5200 az 1024*768 low alatt 26 fps-re volt gépes, akkor gyanítható, hogy az Iris Pro 580 már egy játszható szintet tud kitolni magából.
Csak kérdés, hogy mi értelme van az egésznek, hogy van kb. 2 darab Intel IGP, amin el lehet szenvedni krumpli felbontásban a játékkal épp 30 fps fölött.Pont mint amikor a Grid? alatt is volt olyan beállítás, ami csak Intel grafika alatt futott el (elbírta egyáltalán az Intel grafika akkoriban azt a játékot?)
-
nonsen5e
veterán
Zömében mobilhoz használják?

Nem vagyok nagyon otthon mobilban, mikre használják?
Bárhányszor körülnézek előadáson, buszon, villamoson, csak a Flappy Bird, Candy Crush, 2048, (hülye példák, de a lényeg szerintem érthető) vagy valami semmi játékot nyomogat mindenki. Azoknak annyira kell az UE?imi123: Nem kellenek verhetetlen AI-k, de néha olyan eszméletlen hülyék a gépi karakterek a játékokban, hogy azt nézni is rossz.
Amikor meg verhetetlen az meg nem az "intelligencia" miatt van, hanem mert láthatja a gép a térképet, az ellenség által gyártott egységeket, átmegy a falon, duplát sebez, háromszoros élete van, stb.. -
nonsen5e
veterán
-
nonsen5e
veterán
válasz
#85552128
#13181
üzenetére
Az önmagában nem, de valószínűnek, hogyha csak Win10-re jön ki akkor az a DX12 miatt lesz. Aztán lehet, hogy csak másodjára is előhúzza a pénzes exkluzivitás kártyáját az Microsoft, és szimplán azért lesz Win 10 only, mert csak. (ha egyáltalán az lesz)
A Winstore a másik eshetőség amire gondolok, majd meglátjuk hamarosan. Kéne már egy épkézláb DX12 játék.
-
nonsen5e
veterán
Bringing the game’s thrilling narrative and perilous environments to PC in stunning new detail, developers Crystal Dynamics® and Nixxes Software added numerous features, including Windows 10 support and 4K resolution. Rise of the Tomb Raider® was nominated for Best Action/Adventure for The Game Awards and follows the critically acclaimed, award-winning Tomb Raider®.
Most akkor mégis Nixxes port lesz, vagy csak írnak mindent össze vissza?
Square Enix® today announced that the game will be available for Windows 10 and Steam on January 28, 2016.
Windows 10 & Steam? Most akkor vajon Win 10 exkluzív lesz-e vagy sem? (dx12 only miatt megérné)
-
nonsen5e
veterán
válasz
daveoff
#12942
üzenetére
A cikkből és ebből a kezdeményezésből, hogy jött le az, hogy azt azt sugallják, hogy "vegyé konzolt!"?
Ez egy jó dolog lehetne, ha nem ütközne bele majd úgyis az Nvidia által állított falba.
Miért is rossz kezdeményezés az effekteket nyílt forráskódúvá tenni, hogy mindenki szabadon igazíthassa a saját játékához?
A mellé kapott zsák pénzen kívül miért jobb egy fejlesztőnek zárt, gyenge minőségű és szarul futó effekteket alkalmazni gyorsabb, szebb és nyílt effektek helyett? Nagyjából semmiért.Ha bárki felhasználhatja a github-ra feltett effekteket, az nekünk usereknek miért rossz?
A napokban sem arról beszéltem, hogy a GE játékok hibátlanul és jobban futnak AMD-n (szar a driver support ez tény), de ha a GE játékok gépigénye azonos (vagy szebb) látványvilág mellett jóval alacsonyabb mint a GW játékoknak, akkor az sokat elmond a témáról.
-
nonsen5e
veterán
válasz
#85552128
#12879
üzenetére
Az egy dolog, hogy az AMD retardáltakkal van tele, akik nem tudnak drivert írni, de ennek ellenére a Gameworks effektek sem segítik a teljesítményt, és csak tetézik a problémát.
Szóval az, hogy az AMD nyomorék driver írásban nem jár automatikusan azzal, hogy a GW effektíve fel van jogosítva arra, hogy tönkrevágja a teljesítményt még jobban.Lehet ezt ragozni tovább, csak nem érdemes. A tényállás az az, hogy mindkét oldallal vannak problémák (más szempontokból), csak egyesek hibátlan dolognak akarják titulálni a GW effekteket és az NV által "szponzorált" programokat.
Mellékesen nekem GTX 950M mellett bármilyen drivert használok, bármilyen Win verzió mellett (friss telepítés), naponta összeomlik átlag 1x a csodadriver. Havernak meg a Witcher 3 lép ki magától 980 mellett 1-2 naponta.
-
nonsen5e
veterán
válasz
#85552128
#12877
üzenetére
Csak akkora a terelgetés, ahogy az máshol is szokott lenni.
Ha az AMD ígérete nem jön be (és ugye nem tudhatjuk miért nem) akkor biztosan az AMD csinált valamit rosszul, és nem a szegény fejlesztő volt a barom.
Ha pedig a GameWorks játékban van rossz teljesítmény, akkor meg 23 indokot talál mindenki arra, hogy igazából a fejlesztők rontották el, és bizonyosan nem a GameWorks meg az Nvidia miatt van a katasztrofális teljesítmény.Én mint mezei játékos ezt látom a játékokban és a fórumokon is. Lehet, hogy ártatlan a szegény GameWorks (nem), de ha 10-ből 9 GW játéktól hangos a net hónapokig, mert kritikán alul fut, ha nincs az embernek 2 milliós gépe, az AMD-s címek meg pazarul futnak az NV kártyákon is, akkor ott van valami probléma.
VendorID-s kódokat azért nem tesznek bele, mert a hülye is kiszúrná, hogy két teljesen azonos kártya közül miért megy mondjuk a MSI 40%-kal jobban az Asus-nál az esetleges alacsonyabb órajelek ellenére is.
Viszont ha Nvidia és AMD között lenne ez a dolog, akkor mindenki csak betudná annak, hogy a rosszabbul teljesítő kártya a rosszabb, bármi is legyen a háttérbe, amit nem reklámoznak olyan hangosan. -
nonsen5e
veterán
válasz
FollowTheORI
#12860
üzenetére
Legyen igazad

Én is arra gondoltam, hogy hiteltelenné válna a benchmark egy ilyen húzás után, de az elmúlt év játékai, és játékos botrányai után PTSD-m van az Nvidia logós szoftverektől, és félve nézek rá minden játékra, hogy vajon fog-e normálisan futni.daveoff: Milyen sok mindent? Egy dolgot állítottam / vetettem fel: azt, hogy az Nvidia logó ott van, és ha ott van az általában nem jelent jót az AMD tulajoknak. Minden további dolog automatikusan erre a feltevésre épül(ne).
-
nonsen5e
veterán
válasz
#85552128
#12857
üzenetére
Az, hogy Nvidia rendezvényen demózták az sok mindent jelenthet, mert általában nem az új Battlefieldet vagy Sniper Elitet (vagy hatalmas Gaming Evolved logós) címet szoktak demózni az Nvidia eseményeken.
Az API overhead tesztbe pedig került be dx12 is (de volt dx11 is), így mindenki meg tudta állapítani, hogy mennyi a különbség. Az a teszt pont az egyes API-k közti különbségre épült, elsődleges célja nem a kártyák egymáshoz hasonlítgatása volt.
Egy "rendes" benchmarknál, mint amilyen lesz, és amit minden tesztoldal le fog közölni minden egyes kártyával (az API overhead teszt nem éppen ilyen dolog volt) senki sem azzal fog törődni, hogy na most kapcsoljuk ki szépen egyesével lassító effekteket / benchmarkoljuk az AMD kártyát nélkülük (teljesítményben megelőzné az Nvidiát kikapcsolt effektekkel, amennyiben nem tesznek bele kikapcsolhatatlan kódokat is) hanem mindenki bekapcsolja az extreme presetet, aztán sokadjára is elkönyvelik, hogy az AMD "szar".
Lehet az AotS-nál és egyéb AMD oldali játékoknál is más lenne a helyzet, ha teljesen zárt forráskódú a konkurencia lassításán kívül másra nem jó effektekkel tömnék tele, a mostani nyílt és korrekt hozzáállás helyett.
-
nonsen5e
veterán
válasz
Kicsimix
#12854
üzenetére
Itt mi a mentségük az nvidia partnerségre? (a pénzeszsákon kívül
)
Egy szintetikus benchmarktól pont az objektív teljesítményképet várnám, amiktől a játékok majd úgyis eltérnek, mert jön beléjük mindenféle szeretetcsomag.
Erre a benchre sem fogok sokat adni, úgy látom.Bárki ír egy programot, amiben az ősrégi 3dfx kártyák jönnek ki "legjobb" kártyának, mert a mai gyártók kártyáit érzékelve a vízben tesszelálja a hajszálakat, és háromszor kiszámolja a végtelen ciklust, mielőtt kirenderelne egy 2*3 pixeles négyszöget és nyugtázná magát, hogy lefutott a program.

Kb. ennyire lesz objektív a teszt ha gameworks szarságokat fog tartalmazni, esetleg direkt 10x jobban optimalizáltak x cég kártyáira mint y cégéire. -
nonsen5e
veterán
-
nonsen5e
veterán
válasz
#52815360
#12781
üzenetére
Hát a legtöbb 2015-ös játékban ha felhúzom maxra a grafikát, még a 30 fps is nehezen van meg 1080p-ben 280X mellett, akkor, hogy teljesítene 1440p-ben 30-at a nélkül, hogy levenném a grafikát? Ha meg leveszem akkor miről beszélünk? Ha minimumot állítok be és downsampling helyett upscalet, akkor bírja a 4K-t is..
-
nonsen5e
veterán
-
nonsen5e
veterán
válasz
Locutus
#12636
üzenetére
Bizonyos szempontokból érdekelnek a háttérben lévő újítások, amiket itt is, meg más topicokban hallok, de a végeredményt nézve egyáltalán nem tud meghatni, hogy adott játékban milyen új és jövőbemutató fejlesztéseket tettek:
(i) ha grafikát illetően - ha látszatra kicsivel sem szebb mint a régebbi
(ii) ha teljesítményt illetően - ha nem fut látványosan jobban mint az adott technológiát nem használó program.Végeredmény szempontjából legyen szép és/vagy fusson jól, és ne csak azt ígérgessék, hogy majd szép lesz és/vagy fusson jól, hanem történjenek is meg a változások, és legyen kézzelfogható eredménye.
Manapság meg pont azt az esetet látom (látja mindenki) évek óta, hogy ígérnek fűt meg fát, de még nem láttunk belőle semmi olyat, ami demonstrálná is a fent említett két pontot.
Van egy szem Ashes ami se nem szép, se nem fut jól (dx11 ugyanott van, ha nem előrébb mint a dx12).Az új Frostbite mikorra várható?
-
-
nonsen5e
veterán
válasz
gtamate2
#12607
üzenetére
Ezek szerint mégsem olyan ártatlan a GameWorks, mint ahogy itt időnként szeretik beállítani?
Azzal egyetértek, hogy sokmindent elb*szott az AMD, de a vak is látja, hogy általában ha egy játékban megjelenik a GameWorks, az biztos, hogy rosszabbul fog teljesíteni minden kártyán (AMD-n meg külön rosszabbul).
És az, hogy az adott játék jól fut 5960x és Titan X mellett, nem feltétlen jelenti azt, hogy a játék jól optimalizált. -
nonsen5e
veterán
Lehet, hogy én emlékszem rosszul (javítsatok ki ha tévedek), de amikor kijött a Fury X, a mostanában érkező eredményeknél azért jobban szerepeltek a Fiji kártyák (meg az összes többi AMD is), nem?
Mi történt azóta, hogy egyre gyengébben teljesítenek? -
nonsen5e
veterán
válasz
gtamate2
#12506
üzenetére
Automata ventillátorszabályzással maximum a szőrös fánk vagy hibás hűtés mellett mehet 90 fok fölé.
/r/pcmasterrace subredditen is írta egy csávó, hogy lefüstölt a kártyája, mert nem ment 25%-nál följebb a ventillátor ő meg nem figyelte.
Akkor annak nem kellene érintenie. Nekem Tahiti alapú kazánom van.
![;]](//cdn.rios.hu/dl/s/v1.gif)
update:
Elvileg csak akkor "kellene" megsütnie a kártyát, ha OverDrive beállításokat piszkálok aCatalystCrimsonban. Na én azokat nem piszkáltam, mert az Afterburnert preferálom. -
nonsen5e
veterán
Na most jött el az a pillanat, hogy pipa vagyok én is az AMD-re.
Ha nem monitoroznék minden játékot, és nem pillantottam volna véletlenül rá a RivaTuner overlay-re, akkor megsült volna a kártyám mint a szemét.
Crimson óta nem mindig és nem jól kezeli a ventillátorokat a kártya, AMD-nél tudnak a problémáról, majd javítják...Egészen 95 fokig hevült a gép mikor észrevette a hatalmas értékeket a kijelzőn, felforrósítva az amúgy jéghideg i5-öt is...

-
nonsen5e
veterán
Igazából akkor miért is kerül mindenbe GameWorks effekt?
Régen simán meg tudták csinálni az adott fejlesztők a jobb minőségű / kisebb erőforrásigényű effekteket.
A GameWorks a fejlesztők által történő teljesen önkéntes választásában nem feltétlen kellene korrelációban lennie azzal, hogy hogyan teljesít az AMD. -
nonsen5e
veterán
Most tök komolyan kérdezem, hogy mit is szeretnétek?
Ha nem ad ki az AMD drivert akkor az a baj, ha meg kiad akkor az?

-
nonsen5e
veterán
válasz
wjbhbdux
#12292
üzenetére
Az, hogy egy játék késik, miért jelentené a dx12 végét?
Utóbbi 1-2 évben 10 AAA játékból 8-at halasztottak legalább 1x...Arkham Knight-ot leszedték ideiglenesen a Steamből? rip dx11
Witcher 3-at halasztották? rip dx11
Hátrább tették a Syndicate PC-s megjelenését? rip dx11 -
nonsen5e
veterán
Ez jogos, de a kettő között szerintem még bőven lenne átmenet.
Hát [ itt ] ha nem is beleolvadnak a környezetbe, de a robbanásokba és lövedékekbe eléggé beleolvad minden.Lehet technikailag egyedülálló, ezt nem tagadom, viszont csillió fényforrás ide vagy oda, én mint a mezei gamer jancsi szebbnek találom az SC2-t, és egyáltalán nem jelent nehézséget az egyes egységek beazonosítása és megtalálása. [link]
-
nonsen5e
veterán
Mellékes dolog, de a művészeiket nem tervezik teljesen átírni?
Szép dolog, hogy hűdemilyenokos a motor (mondjuk egyre kevésbé látszik meg a dx12 előnye, ezt a kritikát még reménykedő szemmel is egyelőre jogosnak érzem), de kinézetileg még az öregecske SC2 színvonalat sem üti meg. -
-
nonsen5e
veterán
válasz
bombibmw
#12113
üzenetére
Az ár-érték arányt én sem azért hoztam fel, mert a szerint kellene nézni.
A Ram kérdése irreleváns, egy ref. Titan X nem amiatt gyorsabb egy ref. 980 Ti-nél.De akkor ahogy látom abba, hogy e szerint az oldal szerint a 980 Ti lett a legjobb kártya az évben, az is közrejátszott, hogy custom kártyákat is belevettek. Én csak a ref. vs ref.-ről beszéltem.
-
nonsen5e
veterán
A legjobb alatt mit is értünk?
Mert ha a nyers teljesítményt nézzük, azaz a legerősebbet, akkor a Titan X egy leheletnyivel nem gyorsabb? Ár-érték arányban persze a Titan X sehol sincs, de ha az ár-értéket nézzük, akkor a 980 Ti sincs sehol. -
nonsen5e
veterán
Syndicate gépigény: [link]
Recommended:
NVIDIA GeForce GTX 760 (4GB), GTX 970 (4GB), vagy AMD Radeon R9 280X (3GB)Let the flames begin!
![;]](//cdn.rios.hu/dl/s/v1.gif)
Komolyra véve a szót, hogy lehet, hogy az egyes architektúrák így viszonyulnak egymáshoz? Esetleg csak az Ubi fogott 3 kártyát random és betette őket gépigénynek?
-
nonsen5e
veterán
válasz
daveoff
#11874
üzenetére
Az esetek 90%-ában nem mindenkit érintő problémákról van szó.
Nem hiszem, hogy kedvtelésből sírnak az emberek.
Lehet, hogy 980ti, 16gb ram és 4770k mellett tökéletesen fut a játék, de akinek meg csak 970 van 12gb ram mellett viszont 5960x procival annak össze-vissza szarja magát a játék, viszont a harmadik embernek aki i3 + 6gb ram és HD7850 kombóval játsszik meg vígan megy.Ezzel a játékkal kimondottan nincs tapasztalatom, de nem egyszer volt, hogy haverokkal játszottam GTA V-t vagy Dying Lightot, és a gyengébb konfiggal ilyen meg olyan (nem-teljesitmenybeli) problemak voltak amik az erősebbel nem, vagy éppen Fordítva.
-
nonsen5e
veterán
válasz
FollowTheORI
#11819
üzenetére
Nem kell Gameworks ahhoz, hogy egy játék megegye a konzolokat.
De egy pillanatra megijedtem, hogy PC-n lesz az fps lock. Nagy reeményeket fűzök a DE:MD + az új TR portjához.
-
nonsen5e
veterán
válasz
#85552128
#11810
üzenetére
+ ez is egy érdekes videó, hogy mennyit kell gányolni és butítani mindent, hogy menjen normálisan: Halo 5: The Price of 60 fps.
-
nonsen5e
veterán
válasz
jacint78
#11774
üzenetére
Majd' 10 éve kínai telefonokat plusz AMD kártyákat használok. Ismételten lehet csak én vagyok az egyetlen (Meg a hasonló topikokban előkerülő pár tucat ember, a világ maradék 50 millió AMD felhasználója meg gondolom mind csak szop velük. Mondjuk az is érdekes, hogy csak az AMD-ről váltott NV fanok szidják a drivereket, akik meg napi szinten használják, azok semmivel sem tartják rosszabnak mint az NV drivereket.), akinek soha egyikkel sem volt egy játékkal sem baja.
2 Nvidia kártyám volt rövidebb ideig (GTX 650 Ti Boost és GTX 750), viszont mindkettővel voltak driveres problémáim, viszont annak ellenére nem könyveltem el az NV-t "szar" cégnek, mert simán elhiszem, hogy csak keveseket érintett az adott probléma, és nem az egész driver volt szar. Ugyanez van az AMD-vel is. Valószínűsíteni merem, hogy volt egyszer egy AMD kártyád, kifogtál egy drivert ami a userek 1%-ánál problémát okozott, és azóta szarnak titulálod az AMD-t.
csak úgy eleve inkorrektnek, de azt már régesrég az egész piachoz való hozzáállása alapján, -
nonsen5e
veterán
válasz
jacint78
#11770
üzenetére
Az is legalább milliószor le lett írva, hogy miért "az" / "nem az" (utolsó pár hozzászólást ajánlom figyelmedbe).
Fordított esetben az NV lenne a "szar" rajta kívülálló okok miatt?
Mindig ilyen kirívó játékos esetek után megy a szardobálás.Válaszolj akkor erre a kérdésre: Ha kijön holnap egy játék amiben direkt olyan kód van ami NAGYON nem kedvez a Maxwellnek (szándékosan) és a Fury X mindent elverne, akkor az NV-t szaroznád, vagy berögződésből akkor meg köcsög lenne az AMD (viszont amikor ugyanezt csinálja az NV, akkor az nem köcsög?) mert gonosz kódot tetetett a játékba?
-
nonsen5e
veterán
válasz
rocket
#11742
üzenetére
Szerintem simát át lehetne nevezni "Miért utáljuk az AMD-t" topikká az egész témát.
A játékok többségében szinte fej-fej mellett vannak a kártyák, aztán amikor évente kijön 1-1 ProjectCars vagy most az Anno 2205 akkor meg megy a fujjolás, hogy ilyen meg olyan béna az AMD.Ha én ma írok egy játékot, amin egy pixelt lehet mozgatni középpen, de van egy slowNvidia(); függvényem, ami elszámol végtelenig 3x, ezért 60%-kal elhúz minden AMD kártya a zöldektől, akkor már rögtön szar lenne az Nvidia?
Elismerem, a 980 Ti az esetek többségében tényleg gyorsabb mint a Fury X, de csak pár %-kal, ezt látni a legtöbb játékban. Ez a teszt jelen pillanatban mindent tükröz, csak a kártyák valódi erejét nem.
Tegyük fel, hogy az AMD rontotta el.
A leghangosabb Nvidiás megmondóemberek keresnék először a szándékos lassítást, amennyiben a tesztben pont fordítva lennének az eredmények, hogy egy 380 állva hagyna egy 980 Ti-t.
"Mert az biztos nem lehet, csalás az egész, az AMD lefizette, stb..."-----------------------
A Catalyst nekem most is 2-3 mp alatt tölt be és betonstabil. Ezt viszont nem tudtam soha elmondani az NV Control Panelről, ami fél perceket tud gondolkozni meg befagyni másodpercekig ha valami opciót megnyomok. Friss Windows telepítésnél is.
Lehet ez 1 embert érint 1000-ből, de Nekem ez a személyes tapasztalatom velük. -
nonsen5e
veterán
válasz
he7edik.
#11720
üzenetére
És itt visszatérhetünk egy másik témára. A Square-t elég AMD-s cégnek ismer(t)em. Viszont idén az FFXIV kieg kapott Gameworks HBAO+ -t. Ilyeneket szoktak cégeken belül, hogy egyik játék ilyen, másik olyan? Vagy szimplán a Square japán részlege az eddig nem pártolt nagyon sehova és a nyugati (Eidos, és leányvállalatai) részek csak AMD-sek?
-
nonsen5e
veterán
válasz
FollowTheORI
#11711
üzenetére
Az első két rész tényleg jól fut ( a siralmas CPU használattól eltekintve), de béta nagyon sokaknál a végén is (tegnap lett vége asszem) összeszarta magát 32/64 bit esetén is. Belépek a menübe és 100%-ra lefogja az i5-öt, ezzel együtt beáll a kép 5mp-t. Mint a régi szép időkben amikor a WoL kijött.
Az gyilkolta a gépeket már a főmenüben is. -
nonsen5e
veterán
válasz
imi123
#11684
üzenetére
Miért érezze rosszul magát? Örüljön neki, hogy szebben és jobban fut neki minden, mint bárki másnak. Viszont ne tegyen úgy, mintha az lenne a "belépő" kategória ahhoz, hogy valaki tudjon játszani (meg a fejlesztők se), és ha szakmai topikba ír, akkor ne úgy álljon hozzá az optimalizálatlan trágya játékokhoz, hogy semmi probléma velük, mert neki a milliós gépén megy.
Különben eljutunk konzumer szinten is az Ubisoft effektusig "akinek nem megy jól a játék, az csak elmegy a boltba és vesz egy új kártyát fél millióért".
Bárki bármit mond, régebben nem ez volt a norma, hogy minden random "AAA" játék össze-vissza szarja magát, ha nem 2 milliós vasat dobnak alá. Ha meg ez történt pár évente 1-1 kirívó esetben, az olyan grafikát is nyújtott, hogy a gépigény volt.
-
nonsen5e
veterán
válasz
imi123
#11676
üzenetére
Az a probléma, hogy általában akinek csúcs kártyája van, az úgy tekint az egészre, hogy vagy mindenkinek olyan kártyája van, s nem ismer mást, vagy akinek nincs olyan kártyája az ne is játsszon. Az meg csak tetőzi az egészet, hogy már a játékfejlesztők is így gondolkodnak, hogy akinek nincs i7-e gtx 99990-e meg 64gb ramja annak még minimumon is szaggasson.
-
nonsen5e
veterán
válasz
wjbhbdux
#9502
üzenetére
Igen. Az Ashes egy AMD-s cím, ezt tudjuk. És?
Ennek ellenére érdekes azt olvasni, amit írtam.
Azt továbbá meg kell hagyni, hogy az AMD-s címeken általában nincs szándékosan gyengítve minden Nvidiás termék, sőt, ahogy az Oxide-ék nyilatkozták, külön dolgoztak az Nvidiával is teljesen más módszereket kidolgozva, hogy azokon a kártyákon is tök jól futhasson a játék (és nem direkt bennefelejtettek mindenféle scriptet, amivel mondjuk csak a legújabb Fiji-s GCN fejlesztések tudnának épp játszható sebességet produkálni.) -
nonsen5e
veterán
Oxide: Ashes of the Singularity [link]
"Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD."
"In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, wink.gif)"
-
nonsen5e
veterán
válasz
guftabi96
#6669
üzenetére
Belenéztem én is, hát valami katasztrófa.
De családon belül is azt látom, hogy a 15 év alatti korosztályba igenis van erre igény, csupa ilyen youtube-os "videósról" beszélnek állandóan, állandóan azt tárgyalják ki, hogy melyik éppen mit mondott és eszik minden szavukat. -
nonsen5e
veterán
Úgy látszik a Heavenswardba is belenyúlt az nVidia a Gameworks szeretetcsomagjával. A Witcher 3-hoz hasonlóan itt is amennyiben leveszem a tesselationt Catalyst-ből elég szépen megnövekszik az fps szám, miközben nagyítóval kell keresnem a különbséget.
Olvastam vissza a témában, láttam szóba került a Square és az nV helyzete, de ott az FFXV volt a célkeresztben és a Luminous. Az FFXIV (Realm Reborn / Heavensward) is arra a motorra építkezne valamilyen szinten, avagy szimplán csak pénzeszsák és itt is áttértek a nVidia oldalára?
szerk: A benchmarkban nem jön elő úgy a különbség mint ingame.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: Laptopszaki Kft.
Város: Budapest



![;]](http://cdn.rios.hu/dl/s/v1.gif)

Miután átváltják 1:1-ben euróra, megszorozzák 1.27-tel, rátesz mégegyszer annyit a kisker, nagyker, közepesker, annyiért veszek 390-et, amit esetleg unlockolhatok is ha jót fogok ki. Fogyasztás sosem érdekelt különösebben, le van hűtve jól a ház...

Esetleg arról sem szabad, vagy előre nem meghatározott ideig van NDA?






