Új hozzászólás Aktív témák
-
Peat;)
veterán
DX12 alatt nincs driveroptimalizálás, meg lett mondva régen.
Persze AMD ebben is jobb: [link]Egyébként tökmindegy mi hogy megy ha elfogadhatóan gurul nekem mindegy melyiken lesz gyorsabb 20%-al. Én sokkal inkább azt várom hogy minőségben, látványban szakadjon el a dx12, mert ez így eddig totál komédia. Nem is emlékszem hogy volt-e olyan directx a múltban ahol látványban semmi előrelépés nem történt. Az hogy máshogy hívnak egy effektet, vagy új effektet csinálnak ami úgy néz ki mint az 5 éves baromira nem érdekel. A komplexitás sem változott, nem tudták megnövelni pl az objektumok számát mert dx12 alatt is úgy ingadozik általában az fps mint dx11 alatt. Így semmi de semmi értelme.
AMD oldalon is, aki a játékért vásárol most kivárna egy hónapot hogy 10-20%-ot gyorsuljon, tehát 6 fps-t jó esetben egy játék? Grafikonokkal lehet játszadozni de a valóságban kár időt pazarolni a dx12-re ha ennyit jelent. -
Malibutomi
nagyúr
Az nem mantra volt amit írsz, hanem a gyakorlati tapasztalat, és ez most sem változott.
Nem hat, a 390X mindig is a 980Ti szintjet hozta mint most nemely DX12 cimekben...ja nem megsem.
Az utóbbi idők AMD-s játékai jobban fekszenek az AMD-nek, DX11-alatt is.
A kerdes adott az elozo hozzaszolasombol tovabbra is: Miert? NV driver csapat lett hirtelen analfabeta, vagy esetleg javult az AMD (esetleg lehet most majd mondani hogy szemet AMD fizeti le a fejlesztoket)
-
Malibutomi
nagyúr
Es? Eddig az volt a mantra (DX11 alatt), hogy az Nvidia minden jatekban jol megy, sot amd jatekokban jobban mint az AMD kartyak, ez hirtelen elmult iden.
Akkor most melyik igaz? Tenyleg DX12 jobban fekszik az AMD-nek, vagy hirtelen lefagyott az NVszoftveres/driveres csapat, es elfelejtettek hogy kell optimalizalni (amit Abu elmondasa alapjan DX12 alatt annyira nem lehet, szovel ez akar igaz is lehet)? -
#65755648
törölt tag
Amit csinálsz azt szőrszálhasogatásnak hívják. Még 1x leírom: a sorrend sehol nem változott! Az egyetlen konzekvenciabeli különbség, hogy az idei játékokban az RX470 beéri a 970-et, az 1-2-3 évesekben pedig 10-20%-al lemarad. Óriási különbség tényleg! És nem tudom melyik relevánsabb.
-
#45997568
törölt tag
Ertem en h 6 jatek AMD tamogatott es ezt nehez elfogadni, ugyanezt a vehemenciat szeretnem megtapasztalni amikor 10 jatekbol 6-7-8-9 NV altal tamogatott jatek, mindjart helyre all a vilag bekeje.
De nekifuthatok masik iranybol is, minek merjen egy oldal olyan jatekokkal ahol a kuonbozo zart megoldasok egy bizonyos gyarto termekeinel kevesebb teljesitmenyt veszitenek mint a konkurencia termekei, eddig az volt a mantra hogy az AMD jatekok ugyis jol mennek az NV kartyakon, ergo ez nem lehetne gond NV oldalrol sem
Javits ki ha tevedek.
A Snipert en sem ertem, de ez az en muveletlensegemnek tudhato be, mar biztos leirtak a tesztelok miert van ott, Thief elso (?) Mantle jatek, kuka, mar regi, nem mer semmi ertelmeset, egyetertunk, A Dirt Rally-t nem ismerem, nem tudok nyilatkozni, a kovetkezo 3 jo esellyel a DX12 lekepzo miatt, ennek lehet letjogosultsaga, AotS inkabb techdemo mint jatekteszt, de egy jo peldaja lehet a DX12 technologiai lehetosegeinek, kb mint egy 3DMark. Total War es Hitman mar elterjedtebbek, ez annyira nem veszes szerintem.
The Division-t imadom, johet, mindegy ki tamogatja, nalam AMD-n sem szerepelt veszesen. GTA 5 allitolag az egyik legnepszerubb jatek, ha van kivansag musor akkor legyen. Mordor nem kedvencem, kicsit kakukktojas, de hat ottvan.
Ez az en velemenyem errol a listarol laikuskent NV kartyaval a gepemben. (Fury X-el is ez volt, bar ott picit szoritottam neki hogy gyorsuljon
)
Ahogy a Maxwell-ek hibai kijottek a DX12 teszteken ugy latszottak a Fiji hibai es gyengesegei a DX11 alatt, egal, a Pascal megoldja erobol meg nem veszit tempot DX11 alatt, illetve Vulkan alatt is jol teljesit. Szoval nincs gond, mindenki vesz maganak egy 4XX-es vagy 10XX-es kartyat es helyre all a vilagbeke.
-
#45997568
törölt tag
Mas jatekokkal is tesztelnek a ket oldalon ahogy elnezem. Ez igy nem jo osszehasonlitas. Ha megnezed a PH teszteken a 470 DX11 alatt mindenhol le van maradva par FPS-el a 970-tol, DX12 alatt meg par FPS-el megelozi. Ez igy fair, a TPU meg 90%-ban DX11-el mer, a Batman, BF3 az vizz hogy meg a tesztben van, Anno is, meg az Assasins Creed is, Fallout is egy eleg fos megoldas 10 eves grafikus motorral.
A PH felhozatal sem tokeletes de sokkal jobb, azt a Sniper 3-at nem ertem, de osszesegeben lenyegesen korszerubbnek hat mint a TPU-s, az egy vizz szerintem.
szerk: hozzateszem nekem mindegy a sorrend, ami engem erdekel mar fent leirtam, egy ertekelheto, hiteles erosorrend erdekel, par FPS/% kulonseg nem, nem veszed eszre jatekok alatt.
(#21047) Malibutomi: meg az sem erdekes hogy osszesen 2, nem azt akarjak merni mi van most a VGA technologia teruleten, hanem tobbsegeben 2-3 eves jatekok sebessegnovekedeset par generacioval kesobbi kartyakon, teljesen ertelmetlen es csak felrevezeti a vasarlot. Az aranyokkal van a gondom. Ma meg nincs DX12-Vulkan domping, de a mar par megjelent jateknal ertekelheto kulonbsegek vannak attol fuggoen hogy mennyire melyedtek el annak implementaciojaban.
Az itteni forumozok tobbsge azt akarja latni hogy XY kartya par %-al felmossa a masikkal a padlot, az mar nem erdekes hogy ennek lenyegi, ertekelheto tobblete nincs.
Felesleges korok ezek, meg lesznek magyarazva ugyis, AMD-s oldalon sem lattam a "mikrolagg" halmot, nem ereztem, NV oldalon sem nem tudom akarmi tokeletes driver misztikum mert megdolt. Fury X sem volt a vilagmegvalto megoldas, a 1080-am is cicereg halkan az EVGA tap-al (Fury X mar abbahagyta pl a vegere)...
szerk-szerk: a kedvenc DX12 ellenes mantram az hogy szarul nez ki, vagy nem nez ki jobban, persze, ha tanulatlan kollega utananezne egyszer az eletben hogy mik a DX12-Vulkan API lenyegi ujjitasai, miert akartak bevezetni (!) akkor rajonne hogy nem is ezek vannak a fokuszban
A sotetseg azert neha nagyot ut, persze a Vulkan-ra epitett NV-n is hasito Doom-ot nem ertek ezek vadak, ezt sem ertem.
Nem az API-val van a gond, hanem egyes forumozok tudatlansagaval es egyes jatekok trehany DX12-Vulkan adaptaciojaval, csak nehez ezt megerteni...
-
Abu85
HÁZIGAZDA
Nem. Öt DX12-es játékot akarunk a következő körbe, és mellé öt DX11-est. A DX12-esek közé menne a Quantum Break. Mivel ma négy DX12-es játékot tesztelünk, így ez extra lesz. A DX11-esekből nem tudom, hogy melyik marad és melyik megy. Azt nem én intézem. Az biztos, hogy a Doom az egyik DX11-es játék helyére kerül. Az is lehet, hogy a Civ6 és a Deus Ex kerül be a DX12-esek közé. Mivel nem akarunk három stratégiát ezért az AotS vagy a Warhammer megy.
Ez lesz nagyjából az ősz. Míg télen átállunk teljesen DX12 és Vulkan játékokra. -
cyberkind
félisten
A Store-os meg nem kap több frissítést, ergo szar marad örökre, tiszta Best Buy volt a MS újabb ökörsége miatt...
A Steam-es meg mivel DX11-es is lesz és minden hibától mentes lesz nagyon is érdekelne, de most megint adjak ki ezért teljes pénzt, korrekt, ezzel azt érték el, hogy meg nem veszem a Forza-t a Store-ba, inkább várok. -
Puma K
nagyúr
Annyi még a történethez pluszban hozzátartozik, hogy a Youtube-ra feltöltött videók átdolgozásra kerülnek. Amivel ha meg van a YT, után lehet csak publikálni.
Az átdolgozás után a mindenki számára elérhető videó rosszabb minőségű-mosottabb és sötétebb az eredetihez képest.
Így minőségbeli összehasonlítást egy ilyen videó alapján értelmetlen.
Továbbá Nv driver-ben (ShadowPlay-től függetlenül mert az csak rögzít) a színhasználat alapból korlátozott opcióra van állatva, ezért is a fakóbb kép. Amit átállítjuk teljesre látványosan javul a képvilág.
-
Laja333
őstag
-
rocket
nagyúr
Ugynezki DX11 alatti CPU overhead problema Vulkan es OpenGL alatt is megvan.
Ezert felrevezeto a tesztek tobbsege, ahol 400+ euros procikkal tesztelgetik a kozepkategorias kartyakat, mikozben sokan orulnek, ha a kartyara tellik, nem, hogy uj CPU-ra.
Ez igy csunyacska.Egy tesztet nem lattam ahol mondjuk egy elterjetebb kozepkategorias non-k I5 4570/4590-en teszteltek volna, pedig az realisabb eredmenyt adna a tobbseg szamara a vasarlashoz.
-
Malibutomi
nagyúr
Pont ezert kellene annak a sok embernek most 1070-et venni.
Nvidiarol beszeltem, nem a fejlesztokrol. Oket meg miert erdekelne a hasznaltpiac? Nekik az uj katyakat kell eladni.
Innen nezve barmi amit a Padcal tud es a Maxwell nem az NV altal kivanatos beletolni az altaluk tamogatott jatekokba. -
Laja333
őstag
Azért ha termékkatalógusban feltüntetik az 1.1A-t, az közel sem a fizikai korlát, legfeljebb egy gyártó által hitelesített és ajánlott érték. Nem nagyon láttam olyan terméket, amiben nem számoltak volna biztonsági tényezővel.
Ha tényleg fizikai korlát lenne, már leégett volna az összes PCIe foglalat, amibe belerakták.
Ettől eltekintve ez tényleg egy hiba, de AMD reagált rá.
-
HSM
félisten
Másik topiba írtam: [link].
Mert amúgy ha előre láthat, hogy ennyit fog enni, akkor azt csinálták volna, amit írsz, többet vesznek fel a 6-os csatlakozóból. Az egyetlen értelmes magyarázat, hogy eredetileg azt sejthették, hogy be fognak férni, és akkor egyk csatin se lépik túl egy durván feles elosztással.Nem tudtam, hogy a csatlakozónál ez fizikai korlát, köszönöm a linket.
Ettől függetlenül érdekes, hogy még senkinél nem füstölt el tőle a lap, tehát valami mégsem stimmel az elmélettel, mert azért egy 20% túlterhelés ilyen esetekben nem éppen kevés.
Amúgy érdemes az ATX specifikált minimum fesszel számolni, az 11,4V. -
HSM
félisten
A sebességi adatok teljesen így vannak, tök jó gyors az új, meg szép, csak én jobban kiismertem magam a régiben. Mondjuk amilyen ritkén van szükség, nem zavart nagyon hogy lassan tölt be. 1s vagy 10s, nekem olyan mindegy havonta 1x.
Nézd, nem baj az, hogy rágyúrtaka driverre, mert jó dolog, hogy jelentősen gyorsult az utóbbi évben, és ehhez nyilván szükség volt komolyabb teszt bázisra.
Tehát nem, nem volt felesleges javítani a supporton. Ugyanakkor ezekre a fejlesztésekre nem a driver megbízhatatlansága miatt volt szükség, hanem hogy nagyobb tempóval tudják a sebességét fejleszteni.Remélem, így érthető.
(#18091) syberia: Én is végigjártam... 3870, 4850-ek, 4890, 5850, 7870, 7950, 7970, 280X, 290, most 7870 XT. Sosem volt komoly (élményeket lényegesen rontó) gondom driveresen. Amennyi zűr volt, annyit simán olvastam a zöld topikokban is....
-
#65755648
törölt tag
Maradjunk annyiban, hogy a Kepler és más Nv kártyák szándékos lassítása (nem kell driverből történnie, akár az újabb gameworks-ös játékok manipulálásával is mehet, amivel ugye már megbukott az Nv korábban), ugyanannyira létező jelenség, mint az AMD-nél a sosem konkretizált és misztikus "driver gondok".
Mindkettőt sok felhasználó tapasztalja, de a tesztekben valahogy sosem lehet kimutatni.Akárhogy is, a tények:
Megjelenésekor a 780TI $700 volt, a 290X pedig $550.
Megjelenésekor 10% volt az Nv javára, most fordítva.
Persze lehet mindez csak azért van, mert az AMD mindig kicsit a jövőnek fejleszt, amiért egyébként a legtöbben szidják őket. -
FLATRONW
őstag
Szerintem arról van szó, hogy a frissen megjelent játékok nem használják ki teljesen a Kepler képességeit és sok teljesítmény benne marad. Természetesen az újabb driverek hoznak 1-2 százalékos javulást.
Sajnos sokan ezt félreértelmezik és azt hiszik, hogy a játékok az új driverek alatt lassulnak.
Igazából a Keplerek gyengébb szereplése nem teljesen az NV sara. Keplereknél van ez a regiszterhiány probléma aminek következtében elveszhet a teljesítmény 1/3-a. Az NV driverből tud ezen egy kicsit javítani, de a probléma megoldása a fejlesztők kezében van. Azonban mióta megjelent a Maxvell, a Kepler már az ő szemükben sem elsődleges. -
... és már arról is volt szó, hogy a 980-ban nincs vapor chamber. Körbe-körbe
Értem amúgy, amit mondasz, csak nem fogadom el. Teljesen mindegy, hogy mi az ideológia a 100 dollárral magasabb ár mögött, én magasabb minőséget várnék érte. A 980-on jó kompromisszum volt a kisebb teljesítményű, de halk és a levegőt kifelé fújó ref modell azonos áron. Itt is jó kompromisszum lenne - de nem az, mert 100 dollárral többet kérnek érte. Ha ezek után tényleg 600 dollárért jönnek a szokásos hűtések minden gyártótól, akkor az a FE modell röhejesnek fog hatni.
-
Igen, összevetettem a 250W-os TDP-jű kártyával, amit nem adtak 100 dollárral drágábban, és tényleg hasonlít. Szóval akkor most... ?
Igen, mindegyik limit ki volt tolva az "Über" és az OC teszteknél is. Mivel az OC tesztek 200MHz-cel magasabb órajelen mentek, az "Über" teszteknek közük sem volt a power limithez, és minden bizonnyal hasonló órajelet mutattak volna 100%-os power limittel is. De ehhez kellene egy mérés, mert ez így csak educated guess.
-
mert nem melegítik fel bent a levegőt.
Nem (annyira), de ettől még nem szobahőmérsékletű levegőt szívnak be, hanem jóval melegebbet. Nem ok nélkül esett le a CB tesztben több játékban a base clockra a sebesség.
Ha nagyobb teljesítményt és egy közepesen hangos kártyát akartak volna, akkor a default power limitet 225W-ra állítják és a 780 Ti ventiprofilját alkalmazzák, de nem tették.
Ne komolytalankodjunk már, az ilyen ideologizálással mindent meg lehet magyarázni
Ettől még a tény tény marad: rossz esetben 10% sebességet elbukik a kártya a béna ventiprofil miatt, anélkül, hogy bármi köze lenne a power limithez. Ha ez szerinted így rendben van, fine, szerintem viszont shitty engineering.
OC-nál feltolták a power limitet?
A power limit ki volt tolva OC-nál is meg az "Über" teszteknél is.
-
Az eddigi kártyák mind 28nm-esek voltak, ez meg 16nm, tehát kisebb a hőleadő felület - ez kapásból elég nagy különbség. De az is lehet, hogy tényleg csak így állították be, akkor pedig balf***ok, mert így túl sok teljesítményt veszít zárt házban. Vagy ez egy újabb bench disznóság, mert azzal számolnak, hogy úgyis a tesztek úgyis open testbeden mennek, és úgy kevesebb órajelet ejt.
A hw.fr kártyája is 18xx MHz-et tud, pár másodpercig tudta is tartani. De egyébként elég azt a tesztet megnézni - ha az 1780MHz-en power limites a cucc, akkor hogyan megy OC-vel 1960-at?
-
proci985
MODERÁTOR
jaja, ezt mondom, hogy el is boostolt a kártya a temp targetig szívbaj nélkül GPUlimites helyzetben. a 250Wos limittel tisztában voltam, amiatt vettem azt, mert az nem futott fogyasztási limitbe háromkijelzős setup mellett sem. de ettől azért még meglepő volt, hogy gyakorlatilag egy tiernyi különbség volt a G1 és a ref között fogyasztásban és teljesítményben is.
gbors: blowerrel ha a hangerő is számít nem lehet csodát tenni. volt példa relatíve halk blowerre, de az a két és fél slotos HIS ICEQ variáns volt, ami minden irányban kilógott az ATX specből.
valszeg emiatt is 180W a thermal limit, olcsóbb a kártya (olcsóbb a VRM), plusz nem fog üvölteni alapbeállításokon, meg ugye multiGPUs rendszerre is jól néz ki a promós képen. már kérdés, hogy eleve a max 2GPUs SLIvel ott már jobb a házban keringetős megoldás, ATXen el is fér, meg egyébként is reálisan a jelenlegi csúcs 1GPUs kártyákat vizezni kell multiGPUhoz.
-
Ja, ez szépen hangzik, csak éppen ennek a hűtésnek ez az első "fellépése" egy 180W körüli kártyán, és ehhez képest ugyanazt hozza, mint a 980, amiben nem volt vapor chamber. Lehet ezt forgatni bármerre, ez akkor is kiábrándító. Akkor is, ha tényleg azért van, mert az nVidia szarul konfigurálta (amire továbbra is kellene bizonyíték - a fordulatszámot elhiszem, a belőle fakadó hűtési teljesítményt az 1080-on látatlanban nem) - miért nem hangolták be normálisan?
Többszintes a temp limit, 80 fokon messze nem engedi a maximális boost bint. Tök jól látszott a hw.fr és a linkelt pcgh video összevetéséből - a kitolt limitekkel a hw.fr-nél 1780 körül volt a max. boost, a pcgh-nál a custom hűtővel sokkal alacsonyabb hőfokon 1880 körül.
Marketing szempontból nem lenne túl okos dolog az NV-től, ha az arcodba mondanák az őszintét az FE feláráról, de utalgattak rá.
Yep, de akkor azt is tessék elfogadni, ha valaki gúnyolódik rajta. -
Természetesen a hűtésteljesítménye. Vagy talán az rendben van, hogy egy open testbeden sem tudja tartani a Boost clockot?
Nyilván ezen lehet javítani a zaj növelésével, de erre nem láttam tesztet - a 100%-os fordulat mellett [H]-ék igencsak hangosnak találták. Amit leírsz a 70%-ra, az puszta feltételezés, sorry, de nem elfogadható mérés nélkül. Szóval egyelőre annyit tudunk, hogy ootb gyenge a hűtés.
(abban amúgy abszolút nem vagyok biztos, hogy folyamatosan max. közelben volt a fogyasztás - erre is nagyon szeretnék mérést látni)A +100 USD az nVidia szerint azért van, mert prémium alkatrészekből készült a kártya, beleértve a hűtőt is. De amúgy nyilván 80%-ban early adopter tax.
-
sutyi^
senior tag
Ez papíron nagyon korrektül hangzik, a gond csak az hogy a már eleve felfújt árakon is ugyanaz fog lejátszódni a piacon. A különbség csak annyi hogy az első potenciális vevők még többet fizetnek érte. Paper Launch ez már így is, hogy majd egy hónapot kell rá várni. A magasabb áron is ugyanúgy elfogják kapkodni, legalábbis külföldön és ott fog virítani hogy OUT OF STOCK a Newegg-en.
Szerintem 699 USD alatt nem nagyon lesznek partner kártyák az szinte borítékolható.
-
sutyi^
senior tag
Számomra még mindig érhetetlen a megadott két MSRP, mert ha ez referncia akkor ennél a partner kártyák általában csak drágábbak lesznek, viszont akkor milyen GTX 1080-nak lesz az MSRP-je a beharangozott non-FE 599USD?
Számomra egyelőre csak alábbiak világosak:
1.) A FE kártyán már most elég nagy EAT™ (Early Adopter TAX) van.
2.) Azoknál csak drágábbak lesznek az STRIX, WF3, stb. partner megoldások nem pedig olcsóbbak.Ebből a második pont sajnos azt a következtetést veti fel bennem, hogy amint a partner megoldások megjönnek, a mostani FE kártyák egy huszáros mozdulattal és egy doboz cserével átvedlenek a prezentációs slideon látott 599USD MSRP "sima referencia" kártyává, és az újonnan érkező partner megoldások veszik át a mostani Founder's Edition-nek titulált ref. kártyák helyét a 699USD+ árkategóriában.
Egy-szó mint száz, szerintem azok akik arra apellálnak hogy majd 30-40e olcsóbban vesznek GTX 1070-et / GTX 1080-at custom hűtéssel sajnos koppanak majd.
-
Loha
veterán
-
Abu85
HÁZIGAZDA
Nyilván. Ez szükséges ahhoz, hogy a már kiadott alkalmazások kompatibilisek maradjanak. Aztán egyébként patchekkel azt lehet csinálni, amit akarnak.
(#16427) oAcido: [link] - szokásos kooperáció. Az AMD-nél a DICE top projektje a csúcshardver targetje. Jelen esetben a Battlefield 1. Aztán persze csúszhat, de a cél elérni azt az alkalmazást.
-
Abu85
HÁZIGAZDA
Nehezen tudnak bele olyan architektúrát rakni, amelynél hiányzik a MIN/MAX/CMPSWAP utasítás az LDS atomics-re. Az rendben van, hogy van helyettük más, csak csak egy csomó program le van szállítva ezekre optimalizált binárisokkal. Ez nem PC, hogy shadert vagy IR-t szállítanak, itt lefordítják GCN ASIC ID120-ra esetleg még beletúrnak assembly szinten és kapod a binárist a lemezen. Ki lehet egészíteni egyébként a dizájnt, de meg kell őrizni a legacy utasításokat, hogy a legacy programok futtathatók maradjanak. Szóval biztos nem Polaris lesz benne, maximum egy GCN2-GCN4 hibrid. A konzolon az is számít, hogy egy utasításnak mennyi a büntetőciklusa, mert arra is optimalizálnak. A már leszállított programok ezért futnak majd alap módban, mert ott vissza lesz véve az órajel is PS4 szintre.
-
Abu85
HÁZIGAZDA
A stúdióban ilyeneket nem lehet csinálni. Egyébként minden kikapcsolható igény szerint. Ezek felfogásbeli különbségek.
Az AMD nagyrészt annak köszönheti azt, hogy még ma is a legjobb képminőségű alternatívának tartják, hogy nagyon sok pénzt tolnak abba, hogy a képminőség már default szinten erős legyen. Például egyedül az AMD drivere tartalmaz kijelzőprofilokat, vagyis az elterjedt panelekhez egyedi paraméterezést rendelnek. Az Intel és az NV ezt nem tartja fontosnak. Én sem igazából, de tény, hogy sokan nem jutnak el a beállításokig, és úgy már nyilván az AMD-nek a képminőségét tartják majd a legjobbnak, hiszen gyárilag előkezeléssel érkezik.
-
Abu85
HÁZIGAZDA
Az első játék, ami kihasználta a BattleForge volt. A DX11 megelejenésenek héten jött. Utána igen gyorsan jöttek a DX11-es játékok.
Azt nem tudom, hogyan nézhette be ennyire a techreport, de a DCC-hez hasonló eljárások a textúrákra nem érnek semmit. A textúratömörítes az egy alternatív dolog. Ahhoz, hogy ezt elemezni lehessen látni kellene a forráskódját és a textúra formátumokat.
A DCC ellenőrzése persze elég bonyolult, de az NV ajánlott módszere a legjobb az átlagfelhasználónak, vagyis 3DMark Vantage Color Fill gyakorlat és elméleti max különbsége. -
huskydog17
addikt
"Quantum Break nagyon esélyes a közelmúlt legrosszabb PC-s portja díjra."
Szerintem a 2016-os évben simán elviheti azt a díjat. ma már az Ubifos is fényévekkel jobb PC portokat csinál, mint a Remedy. A finn csapat a Warner-rel akar versenyezni a citrom díjért.
Az arányok kb. ugyanazok, a Remedy ezzel a ballépésükkel jó mélyre elásták magukat a PC-s tábornál. Valami gigantikus nagy csodát kell műveljenek, hogy visszanyerjék a PC-sek bizalmát. Nem tudom, hogy Sam Lake-nek és csapatának megérte-e az MS-el való lepaktálás a nagyon rossz hírnév és végtelenül alacsony reputációért cserébe. Na persze biztosan mindenkinél megvan az a pénz, amiért elkurvul. Amúgy a legnagyobb gond a QB-kel - ahogy azt már többen is megjegyezték -, hogy alapból a grafikus motor egy nagy kaka, így utólag nem is tudnak mit tenni a PC verzióval.
-
oAcido
aktív tag
"Quantum Break nagyon esélyes a közelmúlt legrosszabb PC-s portja díjra."
Legalább elértünk a konzolok szintjére. Nem elég, hogy a FHD 60fps nincs meg, de ha nincs a gépedbe Fury Nitro/Fury X, akkor még a 30 fps-nek is búcsút mondhatsz
Még több copy-paste játékot a népnek. Ez a jövő
-
Abu85
HÁZIGAZDA
Mindegyiknél.
Elég a copy-paste plusz 10-15 sor. Ilyen a Quantum Break például.
DCC-hez hasonló technika először a TeraScale 2-ben jelent meg, majd a Fermiben. Amik most vannak, azok már harmadik generációs megoldások. Ezek a leghatékonyabbak, mert más kódolást használnak. Ezek a GCN3-tól és a Maxwell2-től vannak. Előtte a DCC-féle konstrukciók igazából nem segítettek a sávszélhiányon, mert nem minden formátumra tömörítettek.
A DCC hatékonyságát egyébként abból lehet a legegyszerűbben lemérni, hogy a 3DMark Vantage Color Fill tesztjében a gyakorlati eredmény mennyire van közel az elméleti maximumhoz. Nyilván minél közelebb van annál jobb. -
Abu85
HÁZIGAZDA
Számos motornak van valamilyen temporális élsimítási metódusa. Frostbite, ez a Snowdrop, és még sorolhatnám, de ez nem ad olyan jó eredményt, mint a Remedy konstrukciója. Persze nem is igényel annyi erőforrást, tehát megvan a pro-kontra érv mellette és ellene. A TAA leginkább a shader aliasingon segít, lásd a Need For Speed TAA-ját egy rakás specular map mellett.
-
janos666
nagyúr
Az ilyen jobb-bal oldal relatív, és sokak által kiszúrható mértékű eltéréseket azért lehetne minimalizálni, ha érdekelné a készítőt és tudná, hogy miként érhet célt.
Csak ritkán, és sohasem "publikáltam" belőlük, de szórakoztam már játékvideók rögzítésével. QuickSync-nél 1080p60-ban 50Mbps-el szinte alig lehet már megmondani, hogy nem lossless (ha csak folyamatában nézed, és nem lassítva vizsgálgatod direkt hibákat keresve, akkor teljesen jó). Persze az sokszorosa annak, amit egy youtube-ra feltölt az ember, de ez kiváló arra, hogy valós időben is kinyerhető, később pedig rá lehet küldeni egy 2-3 lépcsős szoftveres tömörítést, hogy emészthető legyen a mérete is, vállalható minőséggel (sokkal jobb minőség/méret arányban és abszolút értelemben is jobb minőséggel, mint ha a játékból valós időben felvett anyagot kódolták volna elsőre is ezen a végleges bitrátán).
Ez persze sokkal több idő és szükség van némi extra tárhelyre (ami elég gyors is, egy szál töredezett HDD beletörhet), de megoldható otthoni körülmények közt is.Egy ilyen videónak szerintem sem célja az ilyesmi (minőség összevetéhetőség), de szerintem elkerülhetetlen, hogy utána mégis legyen, aki firtatja, így érdemes lehet megpróbálni. Nem lepett meg, hogy volt, aki szóvá tette. Én láttam, de eszembe sem jutott, mert tudtam, hogy ezt tömörítették, vágták, újratömörítették, és mindezt úgy, hogy nem minőség összevetés volt a cél, így nyugodtan lehettek "hanyagok" e tekintetben.
Egyébként nem zárom ki teljesen a lehetőségét, hogy tényleg csúnyább Geforce-okon a játék. Sőt, BETA időszakban igazából még szavunk sem lehet emiatt. De ez szerintem itt konkrétan a tömörítés.
Láttam BF4 screenshot-okat is. Azokon "csak" a LOD skálázás tűnt másnak. Nem a teljes kép volt életlenebb vagy kevéssé részletgazdag, hanem pár távoli objektum hamarabb tűnt el, de a közeli tárgyak ugyan olyan élesek voltak.
Lehet, hogy tényleg vennem kéne egy használt GTX 970-et pusztán tesztelési célból, így hogy elkelt a "tartalék" 290-em.
-
#85552128
törölt tag
-
Ren Hoek
veterán
-
#45185024
törölt tag
-
tibcsi0407
félisten
Nem lehet mindent a pénzügyi válságra fogni. Egyszerűen nagyobb haszonkulccsal árulják a kártyákat. Ha valóban annyira ki van herélve a Maxwell, mint ahogy sokszor a PH-n olvashatjuk, akkor a gyártása sem lehet olyan drága, mint ami az árát megindokolná.
A 960 nem rossz kártya, nekem is az van, de szerintem régen ezért a pénzért komolyabb teljesítményt lehetett venni az akkori csúcs VGA-hoz mérten. -
#85552128
törölt tag
-
Abu85
HÁZIGAZDA
Ez nem függ a CPU-magok számától. Maga a multi-engine sem függ össze a többszálú parancskreálással. Aranyszabály erre nincs, de jelenleg egy compute, egy grafikai és egy copy motor az ajánlott, vagy elterjedt. Később a compute motorok száma kettőre nőhet, de csak akkor, ha több regiszter lesz a GPU-kban, vagy a jobb IR-ek alapján (pl.: SPIR-V) ezek allokációja javul. De ma biztos nincs olyan program, ami egynél több compute motort használ.
Azt hiszem, hogy a PS4-es Dreams lesz az első, de az full compute, hiszen signed distance fields ray tracinget használ.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Bomba ár! Dell Latitude 5310 - i5-10GEN I 16GB I 256SSD I HDMI I 13,3" FHD I Cam I W11 I Garancia!
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RX 7600XT 16GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
- Lenovo V130-15IGM laptop (Pentium Silver N5000/8GB/256GB SSD
- iKing.Hu - Xiaomi 14 Ultra - Ultra White - Használt, karcmentes
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: Promenade Publishing House Kft.
Város: Budapest