Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
TTomax #14866 üzenetére
Mivel ez nem olyan hiba, hogy napokon belül lehessen javítani, így biztosan észrevették a tesztelésnél, csak képtelenség volt a megjelenésre kijavítani. Az MS ezt PR szempontból közelítette meg. Valószínűleg mindenképpen ők akarták az első DX12-es játékot, ami nem early access, nem is egy elbaszott alkotás, hanem kész AAA játék. Ezért mindenképpen a Hitman előtt kellett megjelenni. Ha ez nem számított volna, akkor nyilván eltolják a megjelenést áprilisra, amikorra jön a multiadapter támogatás is, a Hitman pedig elvihette volna az első, ténylegesen kiadott AAA DX12-es játék címét.
-
Abu85
HÁZIGAZDA
válasz
TTomax #14855 üzenetére
A kód mindegyiken hibás, csak az első GCN-en nem okoz túl nagy lassulást. A javítástól mindegyik gyorsulni fog, csak nem ugyanolyan mértékben. Ugyanez a kód fut majd a jövőben érkező architektúrákon is, immáron gyártóktól függetlenül, ezért fontos megjavítani.
A program úgy oldja meg egyébként a multi-engine és single-engine közötti választást, hogy a futtatás elején van egy feltételes elágazás, ami bekéri a deviceID-t. Ha a deviceID megegyezik a listában lévővel, akkor a korlátozott single-engine kód fut. Ha eltérő, akkor a szabványos multi-enigne kód fog futni. Jelenleg a listában Skylake IGP-k, illetve Kepler és Maxwell GPU-k vannak, és ez nem is fog már változni. -
Abu85
HÁZIGAZDA
válasz
TTomax #14524 üzenetére
Én annyit tudok, hogy az NV jön még egy olyan meghajtóval, ami megpróbál javítani az async compute rontáson, és gyakorlatilag szintbe hozni, vagy 1-2%-os pluszt kihúzni a rendszerből az async off opcióhoz képest. Ez az ahol ők egy picit vesztenek, de az a modell, amit az AotS alkalmaz kedvez a GeForce-nak.
DirectFlip +1-2%-ot hozhat, ha beépítik, mert nem kell sávszélt pazarolni. De ennél többet nem fog hozni.
(#14525) Szaby59: Megcsúsztak egy picit, így szétszedik a frissítést. De márciusban megkapjátok ezt a press frissítést is, természetesen a ma még nem publikus driverekkel együtt.
-
Abu85
HÁZIGAZDA
válasz
TTomax #14520 üzenetére
A DirectFlip nincs beépítve, ezért viselkedik furcsán. Többek között az AMD-n ez hátráltatja némileg a sebességet, de egy későbbi verzióban beépítik. Ettől jöhet még egy kis gyorsulás neki. Az NV ezt már beépítette a meghajtóba, és le is profilozta az AotS-t rá. Az AMD még erre a zárt benchmarkra még nem adott ki teljesen optimalizált meghajtót.
Ezek a driverek egyébként márciusban publikusak lesznek, amit megjelenik a publikus frissítés a játékhoz.
-
Abu85
HÁZIGAZDA
válasz
TTomax #14446 üzenetére
A Glacier 2 nem használ konzolon alacsony szintű elérést. Elképzelhető, hogy visszaportolják oda is, de a startra biztosan nem. Inkább valamelyik év közepe felé érkező csomagba.
A Deus Ex nem a Glacier 2-re épül, hanem annak egy átalakított verziójára, aminek a neve Dawn.
Tipikus overhead para, ha az egyik irányba nézel, akkor jó a sebesség, míg ha a másikba, akkor visszaesik. Ugyanebben a gonddal küzd a Rise of the Tomb Raider a soviet installation és a geothermal valley pályákon. Ezt a DX11 limitjei okozzák.
A Hitman esetében az embertömeg a probléma és a kapcsolódó AI. Ez a Glacier verzió több munkát végez, mert az NPC-k nem csak állnak és néznek, hanem reagálnak rád, megjegyzik az arcod, stb. Ez bonyolultabb AI-t igényel, mint az Absolution esetében.
-
Abu85
HÁZIGAZDA
válasz
TTomax #14434 üzenetére
Nincsenek még. Igazából nem is AMD effektek lesznek benne, hanem GPUOpen effektek. Ezeket a Square Enix R&D csoportja a LABS fejleszti, akik csinálták a PureHairt. A mostani béta egy decemberi build.
A játék az elkövetkező hónapokban is fog fejlődni, ahogy jönnek hozzá a tartalmak. A megjelenésre kiadandó kód egy alap annak érdekében, hogy számos effektet hozzáadhassanak az év során. Ez az alap tartalmazza a normál DX11-es leképezőt és a DX12-nél a multiengine optimalizálást. A multiengine adja az effektek alapjait, mivel minden effekt, amit hozzáadnak compute, és szimplán párhuzamosan futhat a grafikus vezérlőn.
Az AMD azért promózza, mert a Glacier 2 továbbfejlesztése lesz a Square Enix multiengine implementációinak alapja. Ezt a koncepciót kapja meg az új Deus Ex is a Dawn motorban. Gyakorlatilag ez egy olyan implementáció lesz, ami megmutatja, hogy milyen, amikor a GPU nem sorosan, hanem párhuzamosan dolgozza fel a feladatokat. -
Malibutomi
nagyúr
válasz
TTomax #14434 üzenetére
Mert szerinted nincsenek amd effektek benne
[link]
Mi koze az amd-nek a grafikahoz? Max effektek amit adnak, a grafika minosege es stilusa a fejlesztokon mulik.Latom az olvasas nem megy
Szerintem hagyjuk, igy nem sok ertelme van ha el sem olvasod miket ir a masik, csak hajtod a magadet.
-
Malibutomi
nagyúr
válasz
TTomax #14423 üzenetére
Mi koze az amd-nek a grafikahoz? Max effektek amit adnak, a grafika minosege es stilusa a fejlesztokon mulik.
(#14421) bombibmw
Elég lenne egy FHD teszt is, hiszen ki az, akinek elég a 25-30fps?Ez igaz az elmult 2-3 evben megjelent osszes benchmarkra gyakorlatilag. Kb. minden jatekban 30 fps amit tudnak a csucskartyak 4k-ban.
-
-
Abu85
HÁZIGAZDA
válasz
TTomax #14257 üzenetére
Alapvetően a Vulkan nem rossz. Sok szempontból kedvezőbb API a piac számára, mint a DX12. Nem annyira GCN centrikus a működése, mint a Microsoft API-jának, így a jobban átgondolt specifikáció miatt sokkal inkább illik a többi architektúrához is. Nem véletlen, hogy az NV ennyire tolja a Vulkánt. Nekik is jobb, ha egy DXKG nem kényszeríti a hardverüket lehetetlen szituációkba. Aztán persze lehet, hogy ez a fejlesztők jó részét nem fogja érdekelni, de szerintem ez mindenképpen az előnye.
Ha a fejlesztőnek nem elengedhetetlenül fontos a DX12 fejlettebb bekötési modellje, akkor mindenképp a Vulkan API-ra érdemes dolgozni. -
Laja333
őstag
válasz
TTomax #14257 üzenetére
Nekem már az is jó lenne ha behozná a dx11-et. Egyedüli problémám vele, hogy sok idő, mire jelentős számú támogatott játék lesz rá. Arról nem is beszélve, hogy az eddig megjelentek soha nem lesznek Vulkan readyk, ami azt jelenti, nem a közeljövőben költözök Linuxra. Pedig dejó lenne.
-
Abu85
HÁZIGAZDA
válasz
TTomax #14226 üzenetére
Ez nem attól függ. A legfőbb tényező a konzoloknál a felhasználóbázis. Minél nagyobb ez a szám annál célszerűbb egy konzolt sokáig piacon tartani, mert a fejlesztők számára ez egy fontos szempont lesz. A PS2 is ezért maradt nagyon sokáig piacon. Egyszerűen a fejlesztők számára baromira fontos tényező volt, hogy rengetegen vették. A PS4 is hasonló helyzetben lehet azzal, hogy az eladásai egységes időintervallumra levetítve jobbak a PS2-nél. Nyilván a fejlesztők is fasza dolognak fogják tartani az esetleges új generációt, de mire jön, addigra minimum 70 milliós PS4 bázis épül ki. Hülye az aki nem készít nekik játékot.
-
Abu85
HÁZIGAZDA
válasz
TTomax #14223 üzenetére
Senki sem állította, hogy nem lehet megcsinálni, csak kell hozzá kiadás után egy extra év, hogy amit nem tudsz normálisan optimalizálni az effekt átírásával, azt optimalizáld a leképező átdolgozásával. Házat is lehet úgy építeni, hogy előbb a tetőt húzod fel, csak marhára nem célszerű, mert sokkal nehezebb lesz a munkád. De ha megfizetsz egy építészt, és időt adsz neki, akkor megcsinálja.
Tényleg nem akarok azzal jönni, hogy ugyanezt konkrétan nem csak az AMD és az Intel, hanem az NVIDIA is elmondta, de elmondták az AndroidWorks esetében. Ott a GPUOpen-hez és az Intel névtelen rendszeréhez hasonló a konstrukció.
-
mlinus
őstag
válasz
TTomax #13816 üzenetére
a vicc az, hogy nem is olyan rég bejelentette a WB, hogy a Mortal Kombat X nem kap XL edition-t, és nem kap további DLC-ket PC-n. Ergo, megszüntetik az aktív támogatást.
bár nem volt akkora hírverése, de az MKX is egy katasztrófális PC port volt induláskor. Ugyanúgy kiadta a WB egy házonkívüli, kissebb studiónak, és hát olyan is lett a végeredmény. (ja és itt gameworks se volt!)
szóval a WB és a PC valahogy nem olyan nagy barátok manapság... én egy percig se kétlem hogy az Arkham Knight esetén ők a hibásak elsősorban. Valakinek látnia kellett launch előtt hogy milyen állapotban van. VAlakinek le kellett okéznia, hogy igen, így mehet steamre...
-
Abu85
HÁZIGAZDA
válasz
TTomax #13816 üzenetére
Amely stúdió egyébként egyáltalán nem béna, és ők csak segítették a portolast. De amúgy mindegy, hogy ki csinálja. Megjön a middleware csomag, azt be kell fordítani, és tesztelés utan le kell tiltani a nem kompatibilis optimalizálást, illetve létre kell hozni az effektekhez szükséges puffereket. Akárki csinálja ezt, ugyanarra kényszerül. Gondolom a fejlesztők az átlagnál magasabb logikai készség miatt nem hisznek az olyan technikákban, mint a ráolvasás, vagy az ima a gyorsabb kódért, más alternatíva pedig nincs a licenc megszegése nélkül.
-
Malibutomi
nagyúr
válasz
TTomax #13528 üzenetére
Szerintem kicsit tulreagaltad.
Eleg lett volna annyit irnod amit ugyis mindenki lat (meg fules is szerintem) hogy ez csak valami glitch.
Nem pedig belemenni megint a markaharcba, nyilvanvalo hogy egy 280x onerobol nem lesz egy Titan elott, akkor sem ha egy evvel kesobb jelent meg. -
füles_
őstag
válasz
TTomax #13505 üzenetére
Akkor a kedvedért vegyük a 7970-et,az is gyorsabb a táblázatba mint a Titan.Bezzeg máskor mindig az átnevezésekkel jöttök.Meg úgy is mostanság minden júzer tuningolja a kártyáját,vehetjük a 7950-et az is sokkal olcsóbb volt,egy picit meghúzod már is a Titan fölött van.
Egyébként ezen most mit kellett annyira felkapni a vizet?Lapozz vissza a topikba,minden egyes GamenotWorksos ganaj benchje belett linkelve,érdekes ott senki nem linkelt olyat ahol az AMD kártyák alázzák a konkurenciát...
Eljutottunk oda hogy egy rossz szót nem lehet szólni az Nvidiára,annyira istenítve van egyesek által
-
Malibutomi
nagyúr
válasz
TTomax #13505 üzenetére
Azta ez a tablazat nagyon kemeny.
Lehet nem szandekos (vagy rossz szandekos) de nem kicsit megteveszto elso ranezesre, hogy a zold csikok sokkal hosszabbak mint a pirosak.780ti 114fps hosszabb mint a Fury 121fps
970 108fps hosszabb mint a Nano 114fps
780 98fps hosszabb mint a 290x 118fps -
Abu85
HÁZIGAZDA
válasz
TTomax #13323 üzenetére
Azt tudom, hogy a Daylight mobil leképezőt használt és azon ment is az AFR. A többi játékot annyira nem követtem. A Daylightot is csak azért, mert az első UE4-es cím volt, persze akkor még nem volt igazán jól optimalizálva a motor a mobil leképezővel sem.
A DX12 csak a PC-es leképezőre készült el. A mobil leképező Vulkan alatt lesz használható. Egyedül Metal API-val választható meg a leképező. Persze a DX12-es mód az UE4-ben elég gyenge. Nagyon sokszor abnormálisan működik, valószínűleg az Epic is azt várja, hogy a Microsoft odaadja nekik a saját DX12 portját, és ezt biztos megteszik, így az Epic számára nincs különösebb szükség ebbe pénzt rakni. -
huskydog17
addikt
válasz
TTomax #13125 üzenetére
Na igen, ezt én sem értem, 5 év alatt nem sikerült DX11 támogatást rakni a motorba, amivel brutális gyorsulást lehetne elérni DX10-hez képest (pl.: DirectCompute)?
A fejlesztőnek amúgy nagyon érdekes szemlélete van a dolgokhoz, pl.:
"We have to fight with New or Updated products from Multi Billion $ companies which do not care about compatibility and compliance of their products. This is not only the case with graphic cards, but also with operating systems and drivers."
Inkompetens banda. A lényeg, hogy mivel ők leragadtak a DX10 éránál és nem képesek tovább lépni (még DX11-re sem!), ezért nem ők, hanem mindenki más a hibás, vagyis a hardver, OS és driver készítők! Ez aztán a professzionális hozzáállás! Hogy mondhatja magát egy ilyen valaki fejlesztőnek?
"probably I understand now the secret strategy of Chris Roberts. Deliver nothing, tell a lot of fullshit and make millions. And having an iron skin. (but the better idea is of course to deliver something great ... only problem is to make money with it)"
Itt meg csak a végtelen irigységet látom a hozzászólásában.
-
-
Abu85
HÁZIGAZDA
válasz
TTomax #13029 üzenetére
Hibátlan meghajtó természetesen sosem lesz, de a gond amiről beszélünk nem jött elő mindaddig, amíg nem volt aktív a tuning. És ez nagybetűs TÉNY.
Akár tetszik akár nem a tuning az tuning. A garancia a tuningszolgáltatások aktiválásával elveszik, vagyis minden, ami erre vonatkozik nem rendeltetésszerű használat. Természetesen megteheted, hogy úgy használod a hardvert ahogy neked tetszik, de semmi jogod nincs reklamálni, mert elfogadtad azt az EULA-t, amelyben erről a jogodról lemondasz. És ez független az AMD-től. Minden gyártó ezt fogadtatja el veled a tuningra vonatkozó EULA-kban!(#13031) ffodi: Mert a tuning az tuning. Értsétek meg, hogy a gyártók megkülönböztetnek rendeltetésszerű és nem rendeltetésszerű használatot. Előbbi esetben teljes a teszt, de utóbbi esetben nem lehetséges olyan tesztprotokollt készíteni, amely minden eshetőséget lefed. Éppen ezért kerül ez a nem rendeltetésszerű használat csoportjába egy saját felelősségvállalásra vonatkozó EULA mögé.
Attól, hogy valaki nem olvassa el az EULA-t nem jelenti azt, hogy mentesül a feltételei alól.
A termék beüzemelhető a manual nélkül. Bár nagyon ajánlott azt is elolvasni.(#13032) TTomax: Ez nem jó példa, mert ilyen nincs. De olyan egyébként van, hogy a kocsi motorja szoftveresen le van fojtva. Ezt sokszor fel lehet oldani egy szoftveres tuninggal, amit számos műhelyben megcsinálnak, de arra a kocsi gyártója nem vállal majd garanciát. Ez teljesen normális. És igen a szoftveres fojtással is addig van tesztelve a kocsi, ameddig a tartományig a szoftver engedi a motort működni.
Nem értem, hogy miért beszélünk ennyire specifikusan. Az AMD feltételei a tuningra semmiben sem különböznek más cég feltételeitől. Amint aktív bármilyen tuningszoftver a garancia a normális működésre elvész. Ha ezt egy felhasználó nem képes megérteni, akkor minden cég úgy van vele, hogy jobb, ha többet nem vesz tőlük hardvert, mert csak a baj lesz a userrel.
-
Abu85
HÁZIGAZDA
válasz
TTomax #13017 üzenetére
Az overdrive modul nem a meghajtó része. Le van lakatolva!. Addig nem is érheted el, amíg nem fogadod el, hogy a lakat kioldása után nem vállal felelősséget az AMD semmilyen hibáért. Ha elfogadod, akkor pedig minden a te hibád. Te döntesz. A meghajtó az overdrive modul nélkül hibátlanul is működik.
(#13018) Macka: A tuning üzemképtelensége nem meghajtóhiba! Az sem meghajtóhiba, hogy az erre szolgáló modul hibás. Ez vezérlőhiba, de eleve egy olyan felületen, amelynek a kilakatolásával elfogadtad, hogy a felelősség a tied.
(#13019) gbors: Az, hogy nem teszteli a tuningmodulokat senki? Bocs, hogy felébresztettelek, de a tuning nem része sehol sem a tesztprotokollnak. Ha tetszik, ha nem, ez így van.
-
#85552128
törölt tag
válasz
TTomax #12308 üzenetére
A bétában még rosszabb volt és ugyanez megvan pár másik játékban...
Nem kell ide GW/nV szarnak ezek rá még akkor is ha a "saját" játékuk.
Utána meg mossák kezeiket azzal, hogy hát "béta" driver...
Legacy of The Void-hoz még a 15.11.1-ben sem hoztak ki semmit pedig az is szarul megy, hamarabb befejezem a játékot mint ezek drivert frissítenek.100% hogy megint az a nyomorult PowerTune alszik el működés közben...
-
válasz
TTomax #12196 üzenetére
Generálkomment a linkelt tesztekkel kapcsolatban - mindenkinek. Nyilván minden oldal tesztjei hiányosak valamilyen szempontból. Lehet mindegyiket b***ogatni, de sokkal jobb megoldás, ha linkel az ember olyat, amit ő korrektnek érez. Miután az AOTS teljesítményét mindenki árgus szemekkel figyeli, talán nem csak az orosz oldalnak van új tesztje - ha valaki ismer másikat, ne tartsa vissza
-
-
cl.aci
aktív tag
válasz
TTomax #12137 üzenetére
Oké hogy itt gyorsabb az NV, de azt magyarázd meg nekem miért nincs a tesztekben amit erröl az oldalról linkelsz egyeteln egy darabb 300-as AMD kártya sem, nem futja az oldalnak rá vagy direkt felejtik ki öket?
Ez már régota érdekel, érdekes modon NV oldalról mindegyik újabb kártya szerepel, de se egy 380-at se 390-et vagy netán egy 390x-et sem láttam még ezeken a szép szép szines grafikonokn, de az is érdekes, hogy amiket linkelntál előzőekben és volt dual gpu is a tesztekben ott is csak NV kártyák szerepeltek, emiatt szerintem ellégé megkérdöjelezhető az oldal objektivitása, bár az eddigi hozászolásaidat elnézve ez téged nem nagyon érdekel, mert megfelel neked az ilyenfajta hozzáállás egy tesztoldaltól. -
-
imi123
őstag
válasz
TTomax #12137 üzenetére
Troll on
Még biztos nincs bekapcsolva az Async,vagy háttérben tengert számol mert az Nv lefizette őket.
És ez még nem igazi nexgen engine.Majd lesz jövőre egy sokkal jobb ami tényleg megmutatja hogy tényleg a DX11-el volt a gond.
Nem igaz hogy az AMD legalább egy játéknál nem tud többet fizetni mint az NV.Troll off.
Én arra leszek kíváncsi hogy egy nagy cég mit kezd a DX12-vel.
Talán a Rise of Tomb Raidernél kiderül.Amit kihoztak a X360-ból...le a kalappal.
Hátha ekkora figyelmet kap a PC-s port is. -
#85552128
törölt tag
-
Laja333
őstag
válasz
TTomax #11905 üzenetére
A Fury X-nek érdekes módon sikerült átlépnie azt a bűvös 93 Fps-t.
Minden esetre ott van a 280x, ami majdnem hozza a 780ti teljesítményét. Arról nem is beszélve, hogy a sima r9 290 lenyomja a 980-at. De tudom... a 980-ban van még 20% tuning. Azzal majdnem be is hozza min Fps-ben a 290-et. -
Abu85
HÁZIGAZDA
válasz
TTomax #11735 üzenetére
Nem. A Rocksteady dolgozott rajta és két külső stúdióból kaptak segítséget, illetve Tom Petersen az NV-től a legjobbakat adta oda nekik a második körben. Persze a megmaradt legjobbakat, mert a legjobbak, mint Timothy Lottes, Cass Everitt, John McDonald, stb. már kiléptek akkor, amikor kiderült, hogy a GameWorks tényleg megszületik, és nem sikerült megakadályozniuk ezt. Ők karrieristák voltak, nem akartak szégyenfoltokat az önéletrajzukban.
-
-
Laja333
őstag
válasz
TTomax #11269 üzenetére
Anno volt erre irányuló teszt is valamelyik oldalon.
Ugyan azt a képkockát majdnem hogy mikroszkóp alá tették, és pixel szinten nézték a különbséget. Akkor nem igazán volt különbség. Szvsz most a 4k-val több értelme lenne az ilyennek. De így sem hiszem, hogy a színtelítettségen kívül mást találnának. -
janos666
nagyúr
válasz
TTomax #11271 üzenetére
Ha VGA-kat szeretnél összevetni, akkor miért félsz Intel CPU-ra korlátozni a tesztet? De elvben nem is kell, mert az AMD APU-kban is benne van az AMD hardware-es video encoder-e, nem csak a dGPU-kban.
Szóval akár futhatsz is egy ellenőrzőkört: mindkét VGA mindkét CPU/APU-val...Nem tudom pontosan mennyi CPU erőforrást köt le a QuickSync, de szerintem elhanyagolható, főleg amíg bőven tartani tudjuk a tervezett fps-t (ha pl. 60-ra fixálod, akkor nem mindegy, hogy 130-ról, vagy 120-ról korlátozol 60-ra?).
HDMI 2.0? Miért kell ennyire erőltetni a 4k-t, mikor belátható, hogy még "kiforratlan" (legalább is ilyen szempontból)? Olyanra vadászol, ami 2k-n még nem, csak 4k-n kezd látszódni?
-
janos666
nagyúr
válasz
TTomax #11269 üzenetére
A ShadowPlay az nVidia GPU-kba integrált H264/AVC encoder-t használja.
Az iGPU-s Intel CPU-kban is van ilyen QuickSync néven.
A Sandy-é ilyeneket tud rögzíteni, a Haswell-é elvileg jobbat: BF_QS_test01Egyébként az AMD-nek is van ilyenje, csak "természetesen" megkérdőjelezhetőek a specifikációi is (1080p-ben nem támogat hivatalosan 30fps-től többet), illetve "nyilván" nincs rá megfelelő driver (15.7 óta halott) és "főleg" szoftver támogatás (tesztverziós opensource cuccok és az idióta RaptR), ezért sokak számára nem is létezik.
Mindháromnál kb. annyi a CPU terhelés, hogy vissza kell másolni a GPU memóriából a CPU memóriába a képkockákat, megetetni őket az encoder-es, aztán kiírni file-ba a végeredményt (csak az Intelt ismerem jobban, de ez tudtommal RGB-t eszik, a chroma subsample-t is a hardware-es egység csinálja, még talán át is tudja méretezni a képkockákat).
Látatlanban jobban bíznék ezekben, mint egy külső kamerában. Főleg, hogy két VGA összevetésére ugyan azt a QuickSync-es Intel CPU-t használjuk (akkor ha el is ront valamit, egyformán teszi mindkét VGA-nál).
Egyrészt, mert a nyersanyagot kapja meg a framebufferből, másrészt, mert egy ilyen H264/AVC eszköznél szigorúan veszik azt, hogy tartsa magát a szabványhoz, egyébként nem nyomhatja rá a gyártó a logót (lehet hozzá adni opcionális szűrőket, de maga a decode/encode az szigorú szabvány). És egyébként is nagyon könnyű ellenőrizni, ha pl. 3D gyorsított képszerkesztő programból rögzítesz vele videóként tesztábrákat (pl. szürke és színes gradienseket, amiken látszik, ha levág a dinamikatartományból, belenyúl a gammába, eltorzítja a színeket, stb, valamint ponthálókat, amiken látszik a felbontástorzítás, élesítés/homályosítás, stb). -
Abu85
HÁZIGAZDA
válasz
TTomax #11131 üzenetére
A Keplerrel akkor nincs és nem is lesz baj, ha a fejlesztő minden shadert rá tud optimalizálni. Mindenki ismeri ennek az architektúrának a gyenge pontját, és emiatt mindenki tudja hogyan kell kezelni. Lényegében arról van szó, hogy a multiprocesszoron belül normál ütemezéssel csak a magok 66,7%-a etethető, így a maradék 33,3%-ra független feladatokat kell találni. A legtöbb shaderben ezt viszonylag egyszerű kivitelezni. Egy DICE-nak ez nem jelenthet problémát, mert az elmúlt években már kitapasztalták. Ez csak akkor gond, amikor a shadert az NV szállítja és nem lehet optimalizálni. Az NV-nek az az érdeke, hogy a Kepler már ne teljesítsen. Alapvetően emiatt vezették be a GameWorksöt, ha jön egy új architektúra, akkor szoftveresen képesek legyenek mesterségesen kivégezni az előzőt.
-
Laja333
őstag
válasz
TTomax #10977 üzenetére
Erre ment volna a válasz. Ha a tartalmát is nézed a, akkor még ki is derül. Úgy gondolom nem az én kommentem kelti a hangulatot.
Szaby hsz-ében nincs semmi kivetnivaló. Csak annyit fűznék hozzá, hogy egy technikai hulladék játékban nem venném zokon a crasht. Legyen az bármely GPU-val. -
stoon
addikt
válasz
TTomax #10777 üzenetére
kicsit a fogyasztása aggaszt !minden más jónak tűnik
viszonylag elfogadható áron találni de ez gigaaz befolyásol valamit?
-
válasz
TTomax #10667 üzenetére
Az első bekezdéssel nagyjából egyetértek, nem minden játékban elég a High fokozat a 60 FPS-hez (bár elég sokban igen) - csak azért írtam, mert nekem igazából onnantól kezdődik a kompromisszum, hogy a High-ből engedek. Játéktól függően akár az FPS-ből is, de mostanság a DoF és az AO elég gyorsan repülni szokott - néha nem is a teljesítmény miatt.
A méreteknél kissé félrecsúszott a dolog - azért mondtam a 27"-et és a 48"-et, mert olyat láttam már élőben. 32"-nél talán, 36"-nél meg biztosan erősen számítana már a PPI differencia nekem is. Inkább az a kérdés, hogy egy 32"-es screent idetennék-e az orrom elé monitornak - a 27"-es játszani jó volt, de desktopnak nem volt igazán komfortos. Lehet, hogy nekem az ideális célfelbontás a WQHD, még nem vagyok 4K-Ready
-
válasz
TTomax #10653 üzenetére
Lehet, hogy nem pont ugyanazt látjuk nagy különbségnek
Futólag láttam 4K-s kijelzőt 27" vagy 28" méretben, annyira nem nyűgözött le - 48-50"-on annál inkább. Ill. a legtöbb játékban a High és a Very High fokozatok között nem sok különbséget látok - míg az FPS különbség akkora, hogy a WQHD-4K különbségnek legalább a felét megugorja, ha nem többet.
-
válasz
TTomax #10645 üzenetére
Pontosan erről beszélek,akkor minek a 4K?
Természetesen annak, hogy a jelentősen nagyobb PPI sokkal jobb képminőséget jelent...het. Persze ez függ a kijelző méretétől - 27-28"-en lehet, hogy nem hoz annyit, mint egy jó soft shadow implementáció. Mondjuk ebben a méretben eleve nem sok értelmét látom WQHD-nél nagyobb felbontásnak.
-
Yllgrim
őstag
válasz
TTomax #10641 üzenetére
Az a kategoria nem zavar, bar mivel a Dell monitor nem ment el, a hetvegen ujra uzembe allitom es megnezem ugyis a kartyat, hozzateszem az is IPS monitor, szoval 60FPS eleg, azt meg mindenhol hozza az FX...
4K-n nem ragaszkodom en a fix 60-hoz, de jo ha kozelit, max itt-ott alakitgatom a beallitasokat
Ez meg nem a vilag vege, de Star Citizen 4K az megoli a vasat, ezt is Ti-t is szoval oda vagy veszel 2 GPU-t vagy letolod a felbontast... Johetne mar a Greenland
-
Abu85
HÁZIGAZDA
válasz
TTomax #10433 üzenetére
Szerintem túlságosan csak a TFLOPS-okra koncentráltok. A DX12 és a Vulkan igazi célja nem éppen a teljesítmény drasztikus növelése. Az a DX10 és a DX11 célja volt, csak helyenként elhibázták a működést. Az ipar most a valóban új generációs konzolos motorokra koncentrál, amelyeket régi API-kra portolni sem lehet. Innen két választása van a PC-nek. Vagy leköveti a konzolos API dizájnokat, és hátrányokkal ugyan, de portolhatók maradnak az új játékok, vagy azt mondják, hogy a PC járja a saját útját a konzolra írt AAA játékok nélkül. Az iparág inkább a reform mellett döntött, mert az nem biztosított, hogy a top AAA játékok nélkül a PC-piacon el lehetne adni egy rakás gamer hardvert. Szerintem jó döntés született. IPhone játékok HD-sítéséből a PC nem élne meg.
-
Abu85
HÁZIGAZDA
válasz
TTomax #10417 üzenetére
Előfordulhat ilyen is. Nyilván az implementációtól nagyon sok függ. Azért a Frostbite-ban a Mantle implementáció a BF4 óta nagyon sokban változott, tehát lehet, hogy egy még újabb architektúrára már nem reagálna így. Önmagában a BF4 egy pilot projekt volt egy olyan ösvényen, amit a DICE előtt senki sem járt. Az optimális használatot pedig ilyenkor ki kell tapasztalni.
Egyébként ugyanezzel a gonddal a Thief is küszködött, és arra kiadtak egy javítást egy évvel később. Persze elsődlegesen nem a gondok korrigálása miatt adták ki, hanem ki akartak próbálni az async shadert élesben.
Viszont lehet vele mit kezdeni. Az AMD ezért ír GCN4 és GCN5 szimulátorokat, hogy a hardver hiányában is előre legyen optimalizálás. Ezt a lehetőséget a többi cégnek is érdemes észben tartani.
-
Abu85
HÁZIGAZDA
válasz
TTomax #10409 üzenetére
Ezt már többször elmondtam, hogy a low-level API-k alapvető hátránya lesz, hogy a kernel driver megszűnésével átkerülnek a menedzsmentre vonatkozó alapok a programkódba. Így ha érkezik egy új architektúra, akkor azon nem fut olyan jól a programkód, mint a kiadáskor ismert architektúrákon. A GCN3-ra nem jött ki BF4 javítást, mert túl nagy változást igényelt a motorban, de az összes későbbi Frostbite játék már GCN3 optimalizálással érkezett.
Ugyanez lesz a DX12 és a Vulkan. Sajnos előfordulhat, hogy ha veszel egy új hardvert, akkor azzal már nem tudod már olyan részletességgel játszani a kedvenc játékodat, mint az előzővel, mivel nem tudja a gyártó a driverben a megfelelő menedzsmentet ráerőszakolni a programkódra. Erre kell egy patch-et kiadni az adott játék fejlesztőjének. -
HSM
félisten
válasz
TTomax #10127 üzenetére
Tévedsz. Direkt nem azt írtam. Alulfeszelve, 900mhz-en ugyanez már csak 300w volt, kompletten a gép. Ha leveszed a platinum táp hatásfokát, akkor mondjuk olyan 280w lehetett, amit úgy leadott.
A DX12 pluszterhelése kompenzálható az áramfelvételi korlát lejjebb húzásával. És még úgy is gyorsabb lenne, ha ilyesmire kellene sort keríteni.
(#10128) Habugi:
-
HSM
félisten
válasz
TTomax #10120 üzenetére
Ilyen szemétrevaló hulladék alsókategóriás gagyi tápra építeni drága masinákat felsőkategóris VGA-val és procival...
Ez inkább elrettentő példának lenne jó.
Egy normális 390 nem eszik sokkal többet a 970-nél, +70W. [link]
Amelyik tápban nincs még +70W, azzal kár is foglalkozni.Nekem amúgy BF4 Mantle alatt a komplett gép evett 350W-ot a gyári órajelű 290-el, 4,4Ghz-re húzott i5-el, 4*4Gb 2133Mhz rammal, és ennél az értéknél csak kevesebbet láttam más játékok alatt, pedig én még a PowerLimitjét is felhúztam +50%-ra....
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- iRacing.com - a legélethűbb -online- autós szimulátor bajnokság
- ThinkPad (NEM IdeaPad)
- A fociról könnyedén, egy baráti társaságban
- Lexus, Toyota topik
- Luck Dragon: Asszociációs játék. :)
- XPEnology
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- sziku69: Szólánc.
- Xiaomi 15 - kicsi telefon nagy energiával
- E-roller topik
- További aktív témák...
- BESZÁMÍTÁS! ASUS B450 R7 2700X 16GB DDR4 512GB SSD RTX 2060 Super 8GB Zalman i3 FSP 600W
- Wilbur Smith könyvek (15 db) egyben
- Fujitsu USB Port Replicator PR09 docking station (1x5K vagy 2x4K felbontás) (DisplayLink)
- Dell USB-C dokkolók: (K20A) WD19/ WD19S/ WD19DC + 130W, 180W, 240W töltők
- Nothing Phone 1 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest