Hirdetés
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
-
Még egy Meizu készülék várható
ma Amit eddig láttunk, nyilvánvalóan nem a Meizu 21 Note, de akkor micsoda?
-
Újabb platformokra érkezik a Demon Slayer: Kimetsu no Yaiba – Sweep the Board!
gp Jelenleg csak Switch-en érhető el a játék, a nyár folyamán azonban PC-re és egyéb konzolokra is befut.
Új hozzászólás Aktív témák
-
Lacccca87
őstag
Lehet hülye kérdés de miért nem használja ki a DX12 összes képességét?
Tradicionálisan a 3dmark/futuremark nem csak sebességet mérő teszt volt hanem "feature" teszt is. Így gondolom azok a GPU-k amik profitálhatnánal a magasabb tier ből azok hátrányban lesznek. (már ha jól értelmezem).
Anno mindig az elérhető technika csúcsát használta, atán ha a gpu nem támogatta akkor le sem futott az adott teszt vagy el sem indult a program.
-
SaGaIn
senior tag
Tovább kéne már lépni a dx11_0 lvl-ről... Vagy nVidia nem engedi mert esetleg a legnagyobb szinten már az AMD lenne a gyorsabb ? Nem kéne mesterségesen rosszabb helyzetbe hozni a fejlettebb architeltúrát... De hát pénz beszél... sajnos
Nem lehet megtenni hogy a piac 80+% át uraló cég terméke esetleg lassabb legyen a magasabb szintre való optimalizálás miatt
[ Szerkesztve ]
"DOS addresses only 1 Megabyte of RAM because we cannot imagine any applications needing more." Microsoft in 1980 "We can" -said Google, than they made Chrome. What happend next is history.
-
Abu85
HÁZIGAZDA
Mert elég sokban eltérnek már hardveres szinten is az architektúrák. A bekötési modellnél a Microsoft két végpontot támogat. Pure bindless és CPU static binding. Bár van simán bindless is, de a legtöbb API implementáció már nem támogatja, mert nagyon korlátozott. Ha mondjuk váltanának a 12_0-ra, akkor azzal bevezethetnék a bindlest, de a gyártók implementációi nagyon eltérnek. Az NV emulál egy CPU oldali API-t rá, az Intel a megosztott gyorsítótárba dolgozik slotemulációval, míg az AMD lényegében egyedül igazodik az API-hoz hardveresen. A Vulkan ezért a széthúzás miatt nem hozta még be a bindlesst. Nekik se lenne egyszerűbb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A feature_level_12_1 nem igazán merül fel. Elég sok probléma van vele. A ROVs nagyon lassú a legtöbb hardveren, így hiába támogatható, akkor is használhatatlan. Még az Intel is elég sokat veszít rajta, pedig messze verik mindenki implementációját. A konzervatív raszterizáció reálisan a Tier3 szinttől használható csak, mert az hozza be az SV_InnerCoverage-et a HLSL-be. A Tier3 szintet alig támogatják a hardverek. A Volume Tiled Resources is használhatatlan megfelelő 3D-s textúraformátum nélkül. Eredetileg úgy volt, hogy lesz ASTC a DirectX 12-ben, de aztán a Microsoft lelőtte a tervet, pedig a Volume Tiled Resources képességet erre építették fel. A BC1/2/3/4/5/6/7 nem reális erre. ASTC is messze van, mert ezt a formátumot nagyon kevés asztali hardver támogatja.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Duddi
aktív tag
-
Igen, viccet félretéve pont így gondolom én is.
Esetleg úgy lehetne izgalmasabb a teszt, hogy a tesztnél választható lenne a Tier szint, de ez gondolom túl bonyolult, s félreérthető lenne a többségben lévő R=1 júzerek által.
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
FLATRONW
őstag
-
Tigerclaw
nagyúr
Kár hogy a játékok/szoftverek nagy részét továbbra sem optimalizálják rendesen a több mag rendes kihasználására. 6 magos CPU-m van és gyakran max. 4 magot használnak és azokat is teljesen heterogén módon, jellemzően túlterhelve 1 vagy 2 magot.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
-
Duddi
aktív tag
A problémám nem a futással van mert mint azt látni jól megy nekik. Hanem ha úgy döntenek a zöldeknél hogy a Maxvell vagy a Pascal kártyák miatt nem fogy a volta vagy az azutáni. Akkor nem trart semeddig az új driverekben megszüntetni hozzájuk a dx12 támogatást. És hupsz venni kell másikat.
Vagy sokkal árnyaltabb ha driveresen nehezítik az emulálást és így rontják a "régi" karik teljesítményét.
Persze az AMD karikat is vissza lehet hülyíteni driverrel de talán nem ennyire hisz a hardverben van ami viszi a Dx12 őt.Am remélem nem így lesz.
(#11) Tigerclaw
Mert az enginek amiken írták őket dx9 jobb esetben dx11 re és 4 mag ra készültek.
Hogy rendesen optimalizált játékok jöjjenek kellenek az új motorok amik a több magra és low level apir épülnek mint pl az Oxide Games Nitrous motorja[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nem ez a probléma. A bekötési rendszer úgy van kialakítva, hogy akármin le tudjon futni. A gondot az jelenti, hogy a gyártói implementációk eltérnek. Teljesen hardveres implementációt csak az AMD használ, míg az Intel slotokat emulál, az NV pedig egy teljes CPU oldali API-t használ.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Lacccca87
őstag
Nem is kellene választhatóvá tenni, egyszerűen detektálja a program hogy mi a legmagasabb szint amit támogat a HW és azon fut.
Itt nem a pollkorrektésg votl a fontos hanem megint a pénz. Legekevesebb munkával a legtöbb hasznot kihúzn ia rendszerből. Mert lássuk be ha bármelyik tábor éppen aktuális GPU-ján nem fut a software azt nagy valószínüséggel nem fogják venni.
Így meg mit cisnáltak? Feltolták a rendert 4K-ra amivel már felére csökkentették az FPS számot, növelték a modellek részletességeét vagy 30%-al pluszs a darabszámot is ahol lehetett, ehhez meg leég volt annyi hogy jóska kikeljen az ágyból nyomjon pár entert , újra fordítsák a programkódot 1 nap alatt és rdy to sell. -
BiP
nagyúr
Gyanús a dátum. Pont akkor volt valami steam-es 5 dolláros Time Spy upgrade.
Király, várom, hogy kipróbáljam. Bár maga a teszt elég uncsi már, de 4K-ban érdemes lesz egyszer megnézni.
(és még mindig nem annyira uncsi, mint a Unigine-féle Superposition vagy a Firestrike.)
Külön pluszpont a sokmagos támogatás meg az opcionális AVX. Eléggé Ryzen nyomulásnak tűnik a dolog, de jó, hogy végre erre is hangsúlyt fordítanak.Én a 3Dmark 2006-beli CPU tesztet nézném meg modernizálva, az nagyon tetszett.
Ill.
Meg anno az intel tervezett valami cpu benchmarkot (havas tájon valami mech nyomult), ami sosem készült el. Na, azt is szívesen megnéztem volna. -
atike
nagyúr
Brutálisan gépizzasztó teszt? Áááá, nem olyanok ők...
-
Abu85
HÁZIGAZDA
válasz Lacccca87 #14 üzenetére
Ez nem ilyen egyszerű. Az API-ban egy minimum detektálás van. Tehát a program megmondhatja, hogy ez a minimum, amin elmegy és kész. De maximumot nem lehet meghatározni. Az implementáció pedig hiába ad vissza magasabb szintet, ha az nincs kihasználva.
Nem csak a felbontást rakták 4K-ra. Sok újdonságot is hoznak, tehát nem kamufrissítésről van szó, hanem tényleg át lett dolgozva az effektek egy része, stb. Bár a legtöbb hardveren diavetítés lesz, de ettől függetlenül értékelhető a tesztprogram, és nem lesz rossz. Lesznek benne például olyan újdonságok is, amelyeket játékban még nem láttunk, és valszeg október 11-ig nem is fogunk. Talán a The Evil Within 2-be érkezik pár hasonló újdonság, de az is október 13 ugye.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
válasz Lacccca87 #14 üzenetére
Szerintem egy külön teszt kéne egy mostani HighEnd technikákkal.. Ha a hardver emulál, valamit akkor emulál (megszívta)..
Lehet segítene, hogy a felhasználók lássák, hogy X tesztben viszont az Y hardverek elvéreznek, ezért Z gyártónak talán tennie kell valamit..
De manapság egyik gyártónak se az elsődleges piaca a gamerek világa, így max minimálisan befolyásolná a dolgot... a játék készítők se fogják azokat az effekteket használni amíg csak a hardverek kis %-án futna a program (használhatóan)...attól még szerintem lehetne erre egy másik teszt
The human head cannot turn 360 degrees... || Ryzen 7 5700X; RX580 8G; 64GB; 2TB + 240GB + 2TB || Samsung Galaxy Z Flip 5
-
-
Tigerclaw
nagyúr
Igen ez a DX12, az elődei és utódai olyanok mint az autókiállításokon a koncepció autók. Megmutatják hogy mit lehetne kihozni a jelenlegi technikából, aztán a való életben a boltokban szinte semmi nyomát nem látod az egésznek hosszú évekig. A DX12 is már több mint két éves és a játékok többsége még DX9/10/11 -en fut. Mire elterjedtek lesznek a DX12-es engine-ek, már a DX14 is létezni fog.
Ezzel a fő probléma, hogy a jelen videokártyáit nem a jelen, hanem a még szinte nem létező jövőbeni játékokhoz optimalizálják, vagyis nem tudjuk kihasználni a benne lévő lehetőségeket... aztán jön a következő DX generáció és ugyanaz történik. Mintha külön vágányon futna a videokártyák és a játékok fejlesztése. A konzoloknál ez kicsit jobb mert ott jóval gyorsabban ki tudják használni és ki is használják az feature-eket.
Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.
-
Abu85
HÁZIGAZDA
De 12_1-et úgy sem fog megkövetelni egy tesztprogram, mert maguk az új funkciók a Gen9 és Vega hardvereken használhatók csak. Az meg túl kicsi bázis.
A konzervatív raszterizációt lehetne jól kihasználni, de nem nagyon tudsz vele mit kezdeni SV_InnerCoverage nélkül. Nem véletlen, hogy az NV-nek a VXAO-ja sem a feature_level_12_1-et használja, hanem egy külön szervizkönyvtárat, mert a DirectX 12-re átírva a funkciót már le sem futna a GeForce-okon, maximum az AMD Vegán és az Intel Gen9-en. Hasonló probléma a Volume Tiled Resources-nál a normális 3D-s textúraformátum hiánya. A DirectX 12 igazából feature_level_12_0-ig van jól elkészítve. Fölötte tele van hiányossággal, vagy rosszul paraméterezett minimum igényekkel.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
leviske
veterán
válasz Lacccca87 #14 üzenetére
Az automatikus detektálás azért nem jó megoldás, mert tudnod kell összehasonlítani az eredményeket. Hogy hasonlítasz össze két eredményt, ha a hardver megteheti, hogy gyakorlatilag egy egészen más programot futtat le magától?
Az már csak magánvélemény, hogy a 3dmark-féle programoknak DX12 és Vulkan API esetén már nincs annyi értelme se, mint eddig. Képtelenség egy ilyen programmal normálisan reflektálni az általános, játékokban nyújtott teljesítményre. És ezért elkérik egy drágább indie, vagy akciós AAA játék árát.
-
GodGamer5
addikt
Azért ilyenkor elgondolkodok milyen irtózatos fölénye lenne a Vegának, ha végre nem tartanák vissza NV miatt a fejlődést, a polkorrektséget meg lesz@rom, mert győzzön a jobbik és itt most a videokártyákról beszélek...
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
-
Duddi
aktív tag
válasz Tigerclaw #21 üzenetére
Igen a szoftver oldal nem tart lépést a hardver oldallal.
Csak egy példa a Far Cry 5 egy 2004 es Dunia Engine nevű motorra íródott ami a 2002 ben debütált CryEngine nek egy módosított változata.
Azóta kint van a 2016 os CryEngine V is ami dx 12 és virtuális valóság támogatást is kapott de ebből semmi nem került bele Far Cry 5 be mivel ahhoz az Ubisoftnak megint meg kéne venni / licencelni a CryEngine V-öt módosítani és arra játékot írni de minek ha már van egy motorjuk ami működik.
Szóval így legyen nekünk vulkán vagy Dx12 támogatás.Részben értem a kiadókat is hiszen a játékok ára java rész nem változott az elmúlt 10-15 évben. A AAA játékok akkor is és most is 60-80$ körül árulták viszont azóta egyre munkaigényesebb előállítani egy ilyen játékot mivel az elvárások jócskán emelkedtek. Viszont senki nem fizetne 120$ egy játékért. Ezért letek a dlc-k és a season passok, ezek kombinált árai hozzák ki a megtérülési bevételt és ha még 1-2 évente új motort is kéne írni vagy testre szabni lehet 250$ körül lenne egy játék elméleti ára.
Szóval úgy látom marad ez a mostani pár kivételtől eltekintve (főleg "kis" fejlesztők).
[ Szerkesztve ]
-
Duddi
aktív tag
válasz GodGamer5 #25 üzenetére
Nem a Dx12 apival tartják vissza. A Geforce széria egy röpke analízise az xx80 as kártyákból kiindulva:
400 as sorozat 2010 április 12. GTX 480 480 CUDA core-t tartalmazott Fermi architektúra ez volt a csúcs kártya.
500 as sorozat 2010 november 8. GTX 580 512 CUDA core-t a csúcs kártya: 590 1024 CUDA core-al fermi architektúra (1 kártya van a a xx80 felett)
600 as sorozat 2012 március 22. GTX 680 1536 CUDA core-t a csúcs kártya: 690 3072 CUDA core-al Kepler architektúra (1 kártya van a a xx80 felett)
700 as sorozat 2013 Május GTX 780 2304 CUDA core-t a csúcs kártya: GTX TITAN Z 5760 CUDA core-al Kepler architektúra (4 kártya van a a xx80 felett)
900 as sorozat 2014 Szeptember GTX 980 2048 CUDA core-t a csúcs kártya: GTX TITAN X 3072 CUDA core-al Maxwell architektúra (3 kártya van a a xx80 felett)
1000 as sorozat 2016 Május GTX 1080 2560 CUDA core-t a csúcs kártya: NVIDIA TITAN Xp 3840 CUDA core-al Pascal architektúra (3 kártya van a a xx80 felett)Szépen látszik hogy amíg 2010 ben a 480 as kártya $499 ért a a GF100 a csip sorozat legerősebb darabja volt addig 2016 ban a 1080 $699 founders edition már egy jelentősen megnyirbált videokártya (33% al kevesebb magja van). Ez 2010 ben a GTX 460 nak felelt volna meg (magszámok alapján) ami akkoriban $200 dolláron rajtolt.
Ha beleveszem hogy 40% ot drágult a xx80 as kari akkor a 2010 es 200$ az most 280$ Hát a 1060 rajtolt 240$ orn 1280 CUDA core-al ....
Tehát a kártya amiért ma elkérnek 6-700$ a csip mérete alapján 2010 ben Low mid range karinak számított volna...ezt neked vásárló
-
devast
addikt
Sztem kicsit naív vagy ha azt feltételezed, hogy a 2004-es Dunia engine az ugyanolyan, mint a 2017-es. A szoftver tipikusan nem olyan mint egy kapálógép, hogy ha készenvan akkor az aktuális állapotában lehet 20 évig használni. Az off the shelf engine-ek használata erősen korlátozott, ezért túr bele szinte mindenki, és készíti el a saját verzióját.
-
Lacccca87
őstag
Azért ne sirassuk már a kiadókat/gyártókat.
Attól hogy emelkednek az elvárások ők nem nagyon igazodnak hozzá, ugyanazokat a rókabőr gameket kapjuk már 3-4 éve. Elvétve 2-3 gyöngyszemmel de azok is inkább indie kategóriába tartoznak vagy függettlen csapat hobby projektje.A technológia háttér meg egyre egyszerűsödik, konzolra is meg PC-re is, főleg ha nem hoznak semmi újjító játékmenetet vagy megoldást. A FC pont kiváló példa erre, évenként annyi a dolguk hogy egy új alapsztorit alárakjanak meg hozzá a texutrákat modelleket elékszítsék és kész vége. A Primal nál még rendes befejezésre sem tellet, meg a történet és cselekményszál is csapni való volt. De sorolhatnám még a COD, BF, AssasinsCreed, stb.. vel a sort ahol csak "re-theme" megy.
#29: Nagy módosítás nincs a motorban, de látványra se különbözik FC3/FC4/Primal kb ugyanugy néz ki csak más világban.
[ Szerkesztve ]
-
Duddi
aktív tag
Nem állítom hogy ugyan olyan hiszen látszik hogy inhouse javítgatják és fejlesztik de szerintem csodát tenni nem lehet akkor sem. Pl a BigWorld nevű motor ami a World of tanks ot hajtja a fejlesztők már 2013 óta dolgoznak hogy "naprakészebb" legyen és talán idén be is fejezik. És most is csak Dx11 ig jutnak.
A ház alatt a fa cölöpöket nagyon nehéz kicserélni és mocsok drága.
Ha már kapálógép fából nem lesz vaskarika. be lehet aranyozni de attól az még fa. -
Duddi
aktív tag
válasz Lacccca87 #30 üzenetére
"A FC pont kiváló példa erre, évenként annyi a dolguk hogy egy új alapsztorit alárakjanak meg hozzá a texutrákat modelleket elékszítsék és kész vége." mert a vevő megelégszik ennyivel.
Azt csinálják amire vevő van ha az a COD 101 akkor lenyúznak róla még egy bőrt.És igazad van a 2007 ben kijött Crsys megevett mindent reggelire amit akkoriban a hardver piac adni tudott. Manapság ilyen nincs.
Nem siratom őket de mindenki úgy csinál mintha a low level api egy matrica lenne amit 100 sor kóddal bele lehet vinni egy játékba ami komplett közröhej. "de hisz már kint van vagy 2 éve...." egy AAA játk fejlesztése alsó hangon 3-4 év és az új apikhoz új motor is kéne ami megint 1-2 év körül lehet megírni és kitesztelni.
A dízel motorból sem lesz benzines csak mert más karburátort raksz rá -
Lacccca87
őstag
Mondjuk ha nem használják, vagy nem akarják kihasználni akkor úgyis mind1 hogy mióta van, de ha belegondolunk mióta elérhető a fejlsztők számára simán megléphették volna már. (illetve a legtöbb fejlesztő, és főleg az AAA címeket fejlesztő cég sírt érte)
Szerintem ez nem kifogás, ahogy az sem hogy a rókabőrökre van igény ezért csak azt gyártunk.
Ha nincs pénz AAA-s játéok fejlesztésére akkor ne csinálják, de akkor ne is adják 50-60EUR-ért.
Röhej például a PUBG is ami 30EUR early-acces ban tele buggal és kb 0 tartalommal jelenleg.
Az is vicces hogy ma már minden game early-acces ként érkezik és ugy is marad fél-1-2 évig aztán maikor nem tudnak több pénzt kihuzni belőle akkor lelövik a projektet, vagy leállítják a supportot alóla.Erről lehetne napokig beszélgetni, de ez már teljesen off lenne.
[ Szerkesztve ]
-
Cassi
senior tag
Van ahol már vannak eredmények:
1080: 3385
1080 Ti: 4331
Vega 64: 3519(i7-5960X CPU-val)
-
X2N
senior tag
Ezzel csak az a baj hogy a 1080-asban levő Cuda magok sokkal gyorsabbak mint a Fermi GTX480-asok. Ugyanannyi mag esetén is gyorsabb lenne a Pascal. Egyébként se az a baj hogy drágák a kártyák hanem h mi nem keresünk eleget. Máshol megtudják venni, még így a bányászlázzal felvert árakon is, szerintem nem itt van a probléma, az nvidia hülyére keresi magát ezen és jól csinálja, nem szeretetszolgálat. Ne USA árakat nézegess ami itthon amúgy is jóval drágábban lesz kapható. Én kb 1 éve vettem 980Ti-t(2816 cuda mag), egy GTX 670-est váltott, a 670 1280 cuda maggal csak szeretne úgy renderelni ahogy a 980Ti, nem 2x gyorsabb, legalább 4-5x.
[ Szerkesztve ]
Launch code for russian nukes: 97 99 116 105 118 97 116 101 32 100 101 97 100 32 104 97 110 100
-
bteebi
veterán
Hát nekem nem nagyon tetszik, de azt el tudom képzelni, hogy iszonyat számításigényes. De akkor már legalább jól nézne ki... A 3DMark06 óta szerencsére nem igazán követem a banchmarkokat, szerintem egyre rosszabbak. A Vantage-ot még felraktam a gépemre - szerintem az volt a mélypont. Arról már csak a 99 volt rosszabb. A 2000 meg talán a legjobb .
Szerencsére már alapvetően kinőttem a PC-s játékokból (mondjuk időm se lenne rá), így rengeteg pénzt és időt spórolok meg . Nem kell évente 200k-t költenem csak GPU-ra, hogy full grafikán is legyen elég fps, hogy az fps-ekben legalább 10%-kal több legyen a heccsat .Sőt, mostanában már egy combosabb SuperPI eredmény se nagyon hoz lázba .
Cancel all my meetings. Someone is wrong on the Internet.
-
Duddi
aktív tag
Félreértettél
Meg sem próbálom összehasonlítani a fermit a pascallal mert bárki megmondhatja hogy az utóbbi gyorsabb (Maxvell Pascal egy és ugyan az)
És hogy nálunk drágább vagy hogy nem keresünk annyit az pont mellékes.
Az egész lényege, amit mondani akartam ezzela következő2010 ben 499$ ért kezdték el árúlni a teljes csipet és annak a neve volt a GTX 480 mai áron kb 560$
2016 ban 699$ ért adták a 1080 as karit ami 33% ban meg van vágva mai áron 712$Látod a hibát ? 6 év alatt ugyan az a névjelzésű xx80 as kari már csak az aktuális csip 33%-al vágott és 21% al drágább változata.
Régen a 1080 as a teljes csiphez mérve a megvágása alapján csak közép vagy közlép alsó kategória lett volna nem csúcs.
Hogy értsd Nvidia ugyanazon a néven kevesebbet ad drágábban 2010 ben a 1080 a 1060 as lett volna és a mostani titan xp lenne a 1080 és nem 1200$ os kezdő áron. Érzed a különbséget ??(#34) Lacccca87
A végtelen early accest és soha kész nem lévő bétákat én is ki nem állhatom és undorító trend. Az egész zászlóshajójával a Star Citizennel együtt.
[ Szerkesztve ]
-
SaGaIn
senior tag
Egyáltalán ott a hiba hogy a DX12 meg lett alkotva... mi fenének az sok tier nem tartom ésszerűnek ezt a erőltetett heterogenitást... elég lett volna egy dx11 és dx12 mód mint régen... nem ennyi féle mód amiből szinte semmi nincs használva mert ezt ez nem tudja azt meg a másik hardver.
Ez az egész dx12 kezd nevetségessé válni... megjelenés előtt minden AMD szériánál el van mondva hogy mennyi új szuper jövőbe mutató feature van... Aztán megjelenéskor meg kiderül hogy csak töredéke van támogatva és kihasználva meg még kevesebb. És néha még lassabb mint a DX11
Pedig ha az ember visszaolvassa a két éves cikkeket fű fa volt ígérgetve hogy eljön a kánaán aztán csak még nagyobb káosz lett és még több kihasználatlan erőforrás főleg GCN oldalon.Vulkánra meg szinte senki nem fejleszt....
[ Szerkesztve ]
"DOS addresses only 1 Megabyte of RAM because we cannot imagine any applications needing more." Microsoft in 1980 "We can" -said Google, than they made Chrome. What happend next is history.
-
Abu85
HÁZIGAZDA
Egyáltalán nem lenne elég egy szint. Ezek a tényezők nagyon fontosak, mert ma csak az Intel Gen9 és az AMD Vega támogatja az összes DirectX 12-es képességet. A régebbi hardvereknek a hiányosságait valahogy le kell kezelni, és a legcélszerűbb megoldás szintekre bontani a támogatást.
A Vulkanban például azért nem probléma ez, mert nem bindless az API, nincs benne ROVs, nincs konzervatív raszterizáció, nincs stencil referenciaérték a pixel shaderből, nincs volume tiled resources sem, még a több GPU-t is csak tesztmódban támogatja. Ettől függetlenül jó API, de nézd meg a Vulkan és SPIR-V registry-t, hogy mennyire tele van gyártói kiterjesztésekkel. Ez sem jobb, mint amit a Microsoft kínál.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Lacccca87
őstag
Régen is meg volt húzva a határ és kész.
A marketing vonat miatt lett mindenki beszivatva hogy így meg ugy rá tudják írni hogy DX12 kompatibilis a HW aztán az API maga még 40%-ban sem volt végelgesítve.Nagyon egyszerű lenne, vagy támogatnak minden fontos feautre-t vagy nem képes dx12 futtatására. Természetesen ugynaugy ahogy a dx10 vagy dx10.1 vagy a 9a/b/c volt lehetne opcionális kiegészítéseket csinálni de azok apróbb kiegek lennének amiket SW ből emulálnának de természetesen ha HW-s támogatás lenne akkor gyorsabban futna.
Ennyi lett volna és megoldva a probléma.
-
SaGaIn
senior tag
Arról van szó, hogy úgy kéne csinálni, hogy kérem szépen ezek a hardveri követelmények dx12 -hez. Vagy tetszenek támogatni mindet, vagy nem és akkor nem dx12-es a hardverük, hanem csak 11-es. Kész, nem kéne toldozgatni foldozgatni, meg csűrni csavargatni hogy az nVidának jobb legyen.
[ Szerkesztve ]
"DOS addresses only 1 Megabyte of RAM because we cannot imagine any applications needing more." Microsoft in 1980 "We can" -said Google, than they made Chrome. What happend next is history.
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen