Hirdetés
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- HiFi műszaki szemmel - sztereó hangrendszerek
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- NVIDIA GeForce RTX 4060 / 4070 S/Ti/TiS (AD104/103)
- Azonnali alaplapos kérdések órája
- Házimozi haladó szinten
- Milyen TV-t vegyek?
- Kvázi kidobja az OpenGL ES-t az Androidból a Google
- Épített vízhűtés (nem kompakt) topic
Új hozzászólás Aktív témák
-
mekker
őstag
Te most miről beszélsz? Tier1=Dx 11? A hardvernek annyi köze van a DX támogatáshoz, hogy megvannak-e a különféle előírt egységek benne, meg van-e hozzá driver. Éppen ez a lényege a DX12-nek, hogy hatékonyabban lehet kezelni az adott hardvereket, mint Dx11-nél. A TIER1 besorolás inkább egy korlátozást takar, hogy "miből gazdálkodhat" a grafikus program, milyen effekteket használhatnak egyszerre, stb.
Ennek nem első sorban nem szebbnek kell lennie, mint a Dx11 játékoknak, hanem hatékonyabbnak.
A TIER3 természetesen már inkább a "nextgen" látványvilágról szól, azaz az olyan effektekről, amiket eddig elég nehéz volt integrálni a játékokba a jelentősebb szoftveres limitáltság miatt.
Hogy gyakorlatban mennyit fog észlelni/hiányolni a nagyközönség a TIER3 hiányából, az majd kiderülk (természetesen ez a fejlesztőkön is műlik). -
macman507
aktív tag
Tehát pont a legújabb (Nvidia) Maxwell architektúra (tudtommal legalábbis a legújabb) nem támogatja a Tier 3-at?!
Gondolom az összes dx12-es kártya ára az egekben lesz és az olcsóbb, meg olyan is lesz.. -
Ez nekem szuperjó hír! Jövőre terveztem egy subnoti/hibrid/netbookféle beszerzését Willow Trail/Goldmont - esetleg skylake-es core M alapokon. A gen9-be kerül be egy csomó fejlesztés, amire várok (pl HDMI 2.0, h.265 a rendes 4k megjelenítéshez, ill számottevő erősödés), de jó hallani, hogy a DX12 sem lesz gond.
-
Ragnar_
addikt
Az nvidia a jelenlegi architektúrával semmiképp sem tudja tier3 szinten futtatni az adott játékot DX12 módban elvileg. Tehát mindenképp GCN architektúrát kell használniuk a jövőben, ha teljes mértékben Tier3 szinten is meg akarják jeleníteni a jövőbeni DX12 - n íródott játékokat ? Tehát itt már nem az optimalízációról van szó (mint kb. a mantle BF4) ami gyártótól függően +/-10 % FPS meg mondjuk Physx vagy tress FX, hanem komolyabb ? (Mondjuk nem hinném, hogy valóban előfordulhat az, hogy egy dx 12 játék nem fog futni tier3 szinten egy nvidia kártyán. Azért addig még 1-2 év hátravan szerintem.. Vagy lesz AMD játék meg Nvidia játék PC-n majdnem mint a PS4 vs XBox1)
-
Egon
nagyúr
válasz
pakriksz #113 üzenetére
A gameworks egy shadergyűjtemény, általános grafikus problémákra. És igen arra csinálta hogy minden cucc lassuljon tőle de főleg a nem nvidiák. Ha nem így lenne akkor lásd lentebb, és nem lenne zárt, de az tehát rejtegetnek valami csúnyaságot.
Ebből max. az első mondat igaz, a többi hazugság. Abu is elmondta többször, hogy mire szolgál a gameworks: alternatív effektek gyűjteménye, amit nem kötelező használni. És egyáltalán nem titkos: [link]
Az NVIDIA ugyanis nem zárja el a forráskód egyes részeit a fejlesztőktől és a konkurenciától sem, csupán a módosítás lehetőségét tiltják meg.
-
Crytek
nagyúr
Teljes DirectX12 támogatással érkezik az Intel Skylake család
Nv egyedül marad?
-
fredooo
csendes tag
Megmondom én mi a pálya. Tény, hogy a pc piac veszít részesedéséből iszonyatos mértékben. Az is tény hogy a microsoft elsősorban a pc-n sikeres. Hogy vissza csalogassák az embereket a pc használatára a tabletek és az okostelefonok irányából gondoltak egyet, és kihoztak egy olyan játékokat támogató api-t aminek a használatát mindenki meg tudja fizetni. Így működik a piacgazdaság. Persze az opengl sem tétlenkedik, úgy olvastam, másfél-két év múlva jön egy komoly generáció váltás, ami nagy fejlesztéseket ígér.
-
pakriksz
őstag
"Az nv többek között az UAV probléma mérséklésére csinált saját algoritmusgyűjteménye (nem api...)."
dehogy arra csinálta, ezt most találtad ki. A gameworks egy shadergyűjtemény, általános grafikus problémákra. És igen arra csinálta hogy minden cucc lassuljon tőle de főleg a nem nvidiák. Ha nem így lenne akkor lásd lentebb, és nem lenne zárt, de az tehát rejtegetnek valami csúnyaságot.
"Véletlenül sem modernizálta az egészet." véletlenül sem, hiszen egy csomó fejlesztő megmondta hogy ők házon belül sokkal hatékonyabb megoldásokat hoz össze mint a gameworksben fellelhetők... mit gondolsz miért nem használja most hirtelen mindenki a gameworksöt csak a physx-es már eddig is nvidia által fizetett fejlesztők? Sőt még ők sem.
"április óta nem jött driver 290x-hez windows 8 alá, na inkább ez a probléma" a tudatlanságod az a probléma. Mert jött, csak nem whql-es(ami egyébként egy zacskó kutya végterméket sem érő dolog, hiszen a microsoft adja meg ezt a "plecsnit")... még a hd5770-re is jött, bár különösebben nem érdekel, mert csak akkor frissítek drivert ha valami gond van a jelenlegivel.
"pl sokkal többet dob a látványon, mint pl egy hajszimulálás" nem igazán, mind2 kikapcsolva jó, a plusz áramfogyasztást sem érik meg...
"tesszalálás sokkal kevesebb erőforrást igényel mind a hardvertől, mint a tervezőtől." nem igaz... talán a modellezőtől kicsit kevesebbet (bár azt nézve hogy a modellezők először mindig ultrarészletes modellt csinálnak, és aztán butítják vissza mondjuk 2 millió háromszögről 100 ezerre, talán még ez se igaz), de a hardvertől egyáltalán nem, mert ahogy mondtam, mindent ész nélkül több háromszögre bont, azt is amit nem kéne.
"bár pl. egy bőrfelületnél már lehetne az" nem, nem lehetne az, ugyanis pixelnél kisebbre tesszalálni értelmetlen, tudniilik a pixel fog megjelenni a monitoron, nem tud félpixelt rajzolni
tudod ez olyan mint 4k-t nézni 1080p kijelzőn...
Szeretnéd lehúzni az amd-t az nvidia szintjére, de ez nem fog menni úgy hogy sokszor mondogatod, bizonyíték kéne, az pedig nincs az amd-re, az nvidiára pedig van.
Nem értem hogy vehettél 290-t ennyire szemellenzős nvidia fan létedre, de azt végképp nem értem hogy miért akarsz olyat megmagyarázni amiről lila gőzöd nincs (lásd az optimalizálatlan játékok jönnek benyögésed), de megérteni sem akarod.
ezt a kifejezést tanulmányozd az uav korlát egy ilyen dolog volt... -
janihunk
senior tag
Meg vagyok nyugodva. 280x tudja.
-
sayinpety
tag
Biztos nem. A gameworks az elzarkozas eredmenye. Az nVidiaval 5 eve tortent valami. Azota nem dokumentalnak semmit, nem segitenek. Ha akarok se tudok Kepler architecturera optimalizalni. Nem tudom hogyan mukodik. Ha megkerdezem nem aruljak el.
A gameworks hasznalhatatlan sokak szamara. Nekem is. Sokkal egyszerubb effektet irni az enginere. Forditva sokkal nehezebb. A hairworks erdekelt, am MSAAt kovetel. Az en enginem nem tamogat MSAAt, nelkule nagyon ronda lenne a hairworks. Egyszerubb a tressfxet implementalni, nyilt source code, nincs specialis igenye.Sok a felreertes az UAVvel. Az adattarolasra a D3D buffer es texture eroforrasokat enged. Mindkettot olvasni/irni lehet. Elerhetok meg strukturalt bufferek, RAW bufferek. A texture/buffer olvasasahoz/irasahoz memory view szukseges. Az UAV egy ilyen memory view. Lehetove teszi a tetszoleges olvasast/irast, tamogat scattert. A leghasznosabb eroforrastipus. Sok algoritmus felgyorsithato vele.
-
Abu85
HÁZIGAZDA
válasz
Goblin12 #104 üzenetére
Idézted is: "AMD GCN architektúrája képes a TIER_3 szint kezelésére".
A leírás az eddig megjelent hardverekre vonatkozik. Az érkező hardverek képessége még nem derült ki, illetve ha ki is derült, nem lehet róla írni.
A PS4 libGNM API-ja a TIER_3 képességeinél is jobb modellt használ. Olyan szintű, mint a Mantle API. Effektíve ez azt jelenti, hogy nincs annyi különböző puffertípus, illetve a formátumtámogatás is jóval szabadabb.
-
Simon02
tag
Nem vitatkoznék érdemben, mert látom milyen szemüveggel nézed a világot, így csak néhány apróság:
"gameworksnek meg kb köze nincs az egészhez"
Az nv többek között az UAV probléma mérséklésére csinált saját algoritmusgyűjteménye (nem api...). Nem is értem mire írod, hogy nincs köze a témához, nagyon is van. Nyilván csak azért csinálta az nvidia, hogy minden cucc lassuljon tőle, főleg az amd kártyák...lol Hiszen ahogy írod is 1:1-ben átemelte a már kész effektet és beleraktak biztos egy végtelen ciklust, hogy mindenki szívjon... Véletlenül sem modernizálta az egészet. A gond inkább az, hogy AMD nem tud drivert fejleszteni, így ha nem megy valami egyszerűbb rákeni az nv-re (ezúton is köszönöm nekik, hogy április óta nem jött driver 290x-hez windows 8 alá, na inkább ez a probléma...)
Ami pedig a tesszalálást illeti, az egyéni ízlés dolga, hogy kinek mi tetszik, szerintem pl sokkal többet dob a látványon, mint pl egy hajszimulálás. Persze hogy szebb, amit grafikus tervez meg, csak 2 bibi van, a tesszalálás sokkal kevesebb erőforrást igényel mind a hardvertől, mint a tervezőtől.
Igen, HD5xxx gyenge pontja extrém tesszaláláskor jött ki, ami nem valós helyzet - bár pl. egy bőrfelületnél már lehetne az. Csak éppen ha sokkal több dologra használták volna, úgyanúgy előjön. Volt HD5870-em és GTX480-am és láttam hogy omlik össze előbbi tesszalálás alatt, pedig erőben csak 20%-nak kellett volna lennie a difinek, de a fermi simán ráduplázott.
Ja, és maradjunk annyiban mindkét cégnek voltak (és sajnos lesznek is...) piszkos ügyei, attól mert valaki szelektíven emlékszik, még így van.Ja és egy ON még, majd egy hozzáértő grafikus programozó kijavít: egy UAV indításának mennyi költsége van vajon? Mert szép hogy végtelen és vannak kis erőforrásigényűek is, de mennyi erőforrást eszik meg ezek menedzselése?
A végtelen használata meg hatalmas bullshit és már ahogy látom nem csak engem zavar... Olyan nincs hogy végtelen erőforrás, maximum nincs korlátozva! Már látom előre hogy ebből mennyi optimalizálatlan játék lesz.... -
Goblin12
őstag
Szerintem, tök értelmesen le van írva a cikk és érthető is.
Tulajdonképpen most még egyszerű a helyzet, mivel az AMD GCN architektúrája képes a TIER_3 szint kezelésére, míg az összes többi opció, ideértve az Intel Gen7.5 és Gen8, illetve az NVIDIA Fermi, Kepler és Maxwell architektúrát, a TIER_1 szintnek megfelelő tudást kínál.
Itt szépen le van írva, hogy mi mit támogat. Csak ezzel annyi a baj,hogy az érkező GTX 9XX-es széria ami 19-én lesz bemutatva, nem fogja támogatni a T3-mat.
Nem mintha csak ennyi lenne vele a probléma, de majd úgy is ki lesz vesézve.
De:
A fejlesztőktől megtudtuk, hogy jelenleg a TIER_1-et és a TIER_3-at támogatják a mai, DirectX 12-es eszközillesztővel rendelkező termékek. Mi az ami már támogatja a DX12-tőt? :S
És a PS4 támogatja a T3-mat, vagy pont úgy állították be a T-ket, hogy a PS4 ne jusson a T3-hoz?
-
Cooley18
aktív tag
Abu nem fogalmazott pontosan. Egyáltalán nem könnyebb, mert sokkal több melóval jár, és sokkal több a hibalehetőség. Optimalizálni könnyebb, sőt arra sem a könnyebb a megfelelő kifejezés, inkább több rá a lehetőség, ezért hatékonyabb, de ez megint csak többletmunkával jár.
-
Abu85
HÁZIGAZDA
Ez inkább azt jelenti, hogy úgy írod meg az egész programot, ahogy akarod. Nem kell figyelni arra, hogy bizonyos erőforrásokból kifutsz, hanem csak az számít, hogy az adott effekt végrehajtása milyen módon lehet a leggyorsabb.
Mindegyik GCN ugyanúgy támogatja a TIER_3-at. A Tonga és a Hawaii előnye a 8 ACE-ből származik. Az aszinkron compute egy másik képesség. Ez lehetővé teszi, hogy a hardver több folyamatot is futtasson párhuzamosan, tehát ha az egyik számítás mondjuk nem terheli a shadereket nagyon, akkor egy másik feladat ráküldhető ezekre. Ilyen módon például nem csökkentené a sebességet a TressFX szimulációja, mert egy grafikai számítással párhuzamosan futna le. Ilyenkor a 8 ACE előny.
-
pakriksz
őstag
tudom mire gondolsz meg azt is hogy értelmetlen. Tudod ez az tier 1-es korlátozás olyan mint egy fél méteres cső elé tett 2 centi átmérőjű szűkítés, mert ott éppen nem volt hely másra. AMD-nél csináltak helyet, így egy szűk keresztmetszet(hibalehetőség) kiiktatva.
Bizony jópár éve így van hogy a egy gyengébb kártyán vissza kell venni a grafikát, de a korlátlan lehetőségekkel legalább esély van hogy a nyers teljesítményt gyakorlatban is ki lehessen használni, nem csak elméletben.
Ugyan ez a helyezt magával a directx 12-nél is. Mivel a 11-nél az API zabálta a CPU-t azt is egy szálon, így ott volt a szűk keresztmetszet, és a CPU limit nevű dolog. 12-nél viszont megszűnik ez a keresztmetszet, a gpu a cpu-ra várakozás nélkül dolgozhat.
-
Ragnar_
addikt
Remélem elmennek kicsit a fizikai modellezés irányába a jövőbeni játékok fejlesztésénél. Particlek, folyadékszimuláció köd stb. dinamikus környezeti elemek megjelenítése. És a stereoscopic 3D is elég sokat hozzá tud tenni a játékélményhez szerintem, persze lehet, hogy ezeket fölösleges lenne szabványosítani és ugyanúgy maradnak a hardvergyántónként és játékfejlesztő cégenként eltérő megoldások (Tressfx / Physx , 3dVision / HD3D).
-
Nem teljesítményben végtelen. Szerintem itt arra kell gondolni, mintha dx11.0 alatt lenne 8 változóneved (A0-A7-ig mondjuk), amibe betehetsz adatokat, struktúrákat. A fejlesztőnek úgy kell mindent megcsinálnia, hogy beleférjen. Dx11.1 alatt 64 változóneved lehet. Tier 3 esetén pedig végtelen. Tehát nem arról van szó hogy akár egyetlen változó mögötti értéket használjon valami kiszámíthatatlan feladathoz (tehát egyetlen UAV-vel meg is ölte a gpu teljes teljesítményét), hanem arról, hogy ha a fejlesztőnek úgy kényelmes az algoritmusa szempontjából, hogy szétválogassa a végeredményeket 100 különböző változónévre, (mondjuk A0-A19, B0-B19, C0-C19, D0-D19, E0-E19), akkor úgy csinálja. Ha neki úgy kényelmes hogy továbbra is csak 8 legyen, akkor 8 lesz. Lehet hogy 1000 változón akar csak egy-egy összeadást végezni, ami mocskosul gyorsan végezne, neki meg úgy kényelmes hogy A0-tól A999-ig mind külön változóba kerüljön, akkor úgy oldja meg. Ettől még ugyanúgy bele kell férnie a gpu teljesítménykorlátaiba, tehát nem tud 1000 hajszimulációt csinálni. Az UAV (unordered-access view) gyakorlatilag mintha csak egy kis adattár lenne lefoglalva (ha jól értelmeztem), míg az hogy milyen műveleteket végzünk az ezekben tárolt dolgokkal, már egész más. Meg lehet 2 uav tartalmán végzett számításokkal is ölni az egész gépet, míg lehet hogy 1000-rel sem lenne kihasználva a fele sem.
Szóval összességében csak kevéssé korlátozza a programozót abban, hogy bizonyos funkcionális limitációkat betartson, jobban lehetőség van arra figyelni, hogy simán a hardver limitjeibe férjenek bele.
-
Sinesol
veterán
Latom nem egeszen erted mire gondolok...
Mint mondtam nem a dx11-röl beszélek.
Egy majdani r9 470x jo eséllyel csak feleannyi fps-t tud majd azonos beallitasok mellett mint egy r9 490x.
Itt jön képbe hogy ha gondolkodas nelkül toljuk bele a vegtelennek nevezett uav számot , akkor lesz egy limit amit a 470x mar nem fog tudni... -
pakriksz
őstag
Miért? Az jobb ha a számolóegységek fele üresjáratban van?
Szerintem vegyél AGP-s kártyát, mert a pciexpress nagyobb sávszélessége csak pazarlásra sarkallEgy csomó effekt lehet, ami az UAV korlát miatt éppen most pazarló, mert a lassú CPU-n kell a felét futtatni(mert nem fér bele az UAV keretbe), ahelyett hogy egészben a gpu-n menne.
-
Sinesol
veterán
válasz
#32839680 #91 üzenetére
Ertem amit mondasz de azert mert kicsi az igénye attol még közel sem végtelen. Eljöhet az idő amikor beleraknak többezret is, tizezret.. pl gondoljuk egy sokszereplös jelenetre és kitudja meg mi mindenre hasznalnak uav-t.
Ahogy eddig is tapasztalhattuk, olyan nincs hogy barmilyen limitböl is egyhamar ki ne fussanak a fejlesztők. Tekintve hogy mindenki leirja hogy kb végtelen, ez természetes modon magaval hozza majd azt hogy gondolkodás nélkül pazarloan fogják használni.Dx11 nemtudom hogy kerül ide, rég nem arrol beszélek.
-
Execᵀʰᵀˢ
tag
Nem láttam írta-e volna már valaki, de a DX12-es plecsni mellé a dobozon kötelezővé kellene tenniük a Tier számának ráírását is.
-
pakriksz
őstag
tudod ez a tier 3 dolog olyan, hogy a számítási teljesítmény kihasználását nem gátolja... ellenben tier1-nél lehet akár ez a szűk kereszmetszet, és akkor a számoló egységek várnak a munkára. Jobban ki lehet használni a nyers teljesítményt. A végén ha a nyers teljesítmény a kevés, az úgy is látszik és egyértelműen, és nem kell azon gondolkozni hogy lehet hogy van még rendelkezésre álló nyers teljesítmény, viszont valamelyik bottleneck miatt nem elérhető...
-
Crytek
nagyúr
Én nem értek hozzá meg biztos igaz ami levan írva,de viccs olvasni hogy már most kb mindenki NV-t temet és atit hájpol holott az első dx12-es game még kanyarba sincs.
Én amondó vagyok várjuk meg a teszteket és aztán lehet nv székházat égetni,hogy fejlesszenek avagy sem.
-
Sinesol
veterán
"A TIER_3-ra a legkönnyebb dolgozni, mert abban van a legkevesebb limit. Azt használsz, amit akarsz, mert mindenből végtelen erőforrás áll rendelkezésre"
Végtelen erőforrás? Azért elég bután hangzik, ezek szerint megvesszük a legkisebb gcn-t mert az is t3-at tud, , top kártya meg minek...ha mindegyik ugyanugy végtelenül erős..
Másrészt meg azt mondtad, hogy a jövöben a tonga meg hawaii, a felépitésük miatt elönyben lesznek, tehát, kb a first gen gcn se sokat érni akkor nem?
Hiába gcn alapú, már elavult, kevés lesz és ezért is inkább tonga-t kel venni es nem 280x-et ugye? -
Abu85
HÁZIGAZDA
-
pakriksz
őstag
tudod az UAV-ket nem csak hajszimulációra lehet használni, hanem kisebb teljesítményigényű feladatokra is, amiből mondjuk 1000 darabot is elbír bármilyen gpu... De mint látható a tiereknél nem csak uav-kről van szó. Ez az egész dolog arról szól, hogy az általános számítást és a grafikai számítást kívánó effekteket megoldják egy api-n belül (directx), meg lehet oldani 46 db apival is, akár opencl-el, csak az csöppet nehezíti, és lassítja a dolgokat, mivel a 2 api közötti kommunikációt meg kell oldani.
A gameworksnek meg kb köze nincs az egészhez, de szépen kevered össze a szezont a fazonnal...
"A kedvencem az ati (akkor még nem amd!) tessalator volt, ami persze benne volt a desktop radeonokban a hd2000 óta csak éppen inaktív, amikor pedig bekerült, akkor az első dx11-es fermik a földbe döngölték - lásd a hd5000 gyenge szereplése tesszaláláskor, lehet akkor pont az amd hátráltatta a fejlődést xD"
Nem volt az inaktív amd tesszalátor, ott volt csak nemnagyon használta semmilyen játék. a directx 11-es tesszalátor pedig egész másfajta mint az 5000-es sorozat előtt beépített megoldás, ami az x360 tesszalátora volt.
Az a "földbe döngöléses" eset pedig úgy volt, hogy amd tesszalátora, egy bizonyos részletesség felett (overkill részletesség tehát látványban nem nyújt pluszt, mert pixelnél kisebb részletekről van szó) jelentősen belassul (az nvidia gpuk is, de azok kevésbé), amit az nvidia tudott, és ezt beépíttette az általuk fizetett játékba. Normális részletesség mellett persze nincs ilyen probléma.
Ha jól emlékszem ez valamelyik crytekes játéknál volt, ahol pixelnél kisebbre tesszalált valami járdát (ami mivel szögletes dolog, egyáltalán nincs is szüksége tesszalációra), ugyan ott ahol hullámzó tenger volt a város alatt... Tipikus, bizonyított nvidiás gépigénynövelő "okosság", amihez hasonlón még az amd-t nem kapta rajta senki.Egyébként az tesszaláció szerintem egy hulladék dolog, mert a sík felületeket is több háromszögre bontja, ahol az ég világon semmi értelme nincs... jobb az egész részletesség dolgot a modellezőre bízni ő legalább tudja hogy hol kell részletesség, és hol nem. a tesszalátor viszont agyhalott módon mindent felbont.
A gameworks célja pedig tisztán az hogy az nvidia cuccokon lassuljanak az azzal szerelt játékok, intelen meg amd-n viszont még jobban lassuljanak. Így rávéve a zembereket, hogy újítsanak gpu-t és lehetőleg az nvidia legyen. Nem véletlenül zárt, hiszen olyan effekteket valósít meg amit már millióan megcsináltak előtte, szóval technológiai szinten nincs mit rejtegetni rajta, tehát a rejtegetés oka, az hogy "mutyit tartalmaz".
Az amd-nek nincs ilyenje, nem is tudsz mondani hasonlót. Az amd egyetlen zárt effektje úgy tudom a tress fx az összes többi nyílt forráskódú, és hasonlóan szabványos...
-
Abu85
HÁZIGAZDA
Az még a DX11-es korlátozás. DX11.1-től és DX12-től már minden shader lépcsőn használható az UAV. Ezt a funkciót minden hardver támogatja.
Lehetséges az OpenCL interoperability a DirectX API-val, csak nem szokás, mert nagyon nehézzé teszi a fejlesztést, illetve nincs is ingyen. A DirectX-ben azért van a compute shader integráltan, hogy azt használják a fejlesztők. De elméletben nincs akadálya az biztos.(#20) nyakdam: A TIER_3-ra a legkönnyebb dolgozni, mert abban van a legkevesebb limit. Azt használsz, amit akarsz, mert mindenből végtelen erőforrás áll rendelkezésre. Alatta gondolkodni kell, hogy az erőforrásokat hogyan oszd be.
DX12-re sokkal könnyebb programozni, mint DX11-re. De ez nem ebből ered, hanem abból, hogy látod, hogy hol a programkódban a hiba, amit lehet javítani.
-
Abu85
HÁZIGAZDA
Az UAV általános adatpuffer. Mindegyik shader lépcsőn elérhetők. Legalábbis a DX12-ben így lesz még TIER_1-gyel is. A shaderek, amik futnak ezekbe elmenthetik az adatokat és más shaderek másik lépcsőn azokat olvashatják. Elsődleges előnyük a jobb sebesség, mert nem kell virtuális erőforrásokba (textúrákba) menteni az adatokat, amelyek kezelhetősége sokkal rosszabb.
A probléma mértéke attól függ, hogy az adott program hány effektre vet be UAV-t. PC-n ma maximum 8-ig jutnak el a játékok, de PS4-en például az új Killzone már 100-nál is többet használ (igaz a libGNM-ben nem UAV-nek hívják ezt, de ugyanarra jó). Nyilván PC-n hiába jó az UAV, ha nincs elég slot, míg PS4-en ilyen gond nincs, vagyis addig gyorsítható az egész program, ameddig jól esik. Az erőforrások létrehozása korlát nélküli. -
Simon02
tag
Nem a futási sebesség volt a lényeg, hanem az alternatíva
A TressFX-en pedig nyilván reszeltek, de ha 5 szereplőre kell kiszámolni, az 5x büntetés, tehát nagyságrendelieg ennyiszeres teljesítményesést okoz (hacsak nem minden szereplőnek ugyanúgy mozog a haja, de azt inkább ne xS)
-
Simon02
tag
Sajnos ismételtem vörös köd lengi be a cikket, kár érte...
Csak éppen a lényeg hiányzik belőle, hogy milyen (gyakorlati) hátrány éri azokat a grafikus hardvereket, amik nem támogatják a TIER 3-at, mert gyanítom jelenleg semmilyen. Mert szép dolog, hogy egyszerre a több UAV miatt több effektet be lehet kapcsolni (ha már a többi paraméterről senki sem említette, hogy a kevesebb hátrányos), de vajon elbírja e a hardver, mert erről egy büdös szó sincs? Így mondjuk be lehet kapcsolni 5 Tres-FX-et (ami kb annyira szabványos mint az nv GameWorks-e...), de lelhet akár 100-at is, miért ne Total Warba pl. De mi lesz a teljesítménnyel??? Lara hajának bekapcsolása mekkora sebességveszteséget is okoz, na ezt szorozzuk meg 5-tel (vagy 100-al..) és rögtön kijön, hogy hiába támogatja az adott hardver, ha ennyit bekapcsolva kicsinálja a frameratet! Nyilván ezeket a maximális értékeket nem találomra adták meg, így persze hiába mutat jól, hogy unlimited, de a gyakorlatban ez egy nagy kamu!
Az persze könnyen lehet, hogy a 8 kevés lesz mondjuk a csúcskategóriában (vagy már ma is az), de azért nem ártana megvárni a maxwell tényleges megjelenését (nem a középkategóriában), akkor kiderül, hogy pl az nvidia lép-e (valószínűleg igen, hiszen a TIER 2-t valaki csak kérte).
A cikk arról is megfeledkezik, hogy bizony vannak a másik oldalnak is megoldásai, hogy kerüljék az UAV-ok használatát - gameworks és talán még a physx is ilyen. Lehet ezek köthetőek egyik gyártóhoz, de ugyanúgy a másik oldalnak is vannak ilyen nem független effektjei.
Nem is értem ezeket a megjegyzéseket, hogy egyik oldal fejleszt a másik meg hátráltat... Persze össze lehet gyűjteni, hogy mikor melyik volt "fejlettebb", de akkor érdemes mindkét felet vizsgálni A kedvencem az ati (akkor még nem amd!) tessalator volt, ami persze benne volt a desktop radeonokban a hd2000 óta csak éppen inaktív, amikor pedig bekerült, akkor az első dx11-es fermik a földbe döngölték - lásd a hd5000 gyenge szereplése tesszaláláskor, lehet akkor pont az amd hátráltatta a fejlődést xD
Összegezve: mindkét (3) gyártónak vannak vannak irányelvei és célja, amerre haladnak és ezek nem azonosak, így az érdekek bizony önkéntelenül is ütköznek, így sosem jó egy irányból szemlélve a dolgot. Ja és a vörös szemüvegesek porolják le az okulárét és főleg ne emlegessenek rám zöldet: jelenleg is 290x-em van, és nagyjából 50-50%-ban voltak mindkét féltől kártyáim. -
FLATRONW
őstag
Akin fent a zöld szemüveg, az hajthatatlan.
És ez fordítva is igaz. Érdekes, hogy mindig az AMD-ek jönnek (tisztelet a kivételnek) a zöld meg kék szemüveg témával, pedig ők is legalább annyira elvakultak. Főleg igaz ez mikor olyan furcsaságokat mondasz, hogy az Nv első dx10-es kártyái mondvacsináltan voltak csak DX10-ek. Meg azt, hogy az SM3.0-ra váltás felesleges volt, mert nem volt mögötte teljesítmény. Közben pedig azt is hangoztatod, hogyha meglennének rendesen írva a programok, akkor kijönne az AMD erőfölény. Pedig SM3.0 esetén is csak normálisan meg kellett volna írni a programot és máris lett volna értelme.Lehet hogy rajtunk van a zöld szemüveg, de hogy rajtad pedig a vörös ahhoz kétség sem fér.
-
Cooley18
aktív tag
Vélhetően az lesz a helyzet, hogy ctrl+c/v-zik az Xbox One-os kódot a szükséges módosításokkal, ahogy a cikk is írja, és ezek lesznek a DX12-es játékok, a többi marad továbbra is 9.0c/10, vagy nagy ritkasággal 11. Esetleg lesz 1-2 elvetemült, maximalista fejlesztő, akik írnak PC only DX12-es motort, de szerintem erre jó ideig esély sincs, meg nem is lenne túl logikus lépés. Ergo a helyzet változatlan marad, csak olcsóbbak és jobb minőségűek lesznek a konzolportok, meg talán még kevesebb PC exkluzív cím lesz.
-
pakriksz
őstag
válasz
Tigerclaw #74 üzenetére
igen, az nvidia ellenkező irányba fejleszt az amd-hez képest. Az amd vliw architektúrája nagyjából csak a video teljesítményre gyúrt, jóval jobb fogyasztása volt mint az akkor általános teljesítményre gyúró fermi vagy kepler-nek. Aztán a GCN-el áttért az amd az általános teljesítmény üldözésére, és a korlátlan programozói szabadság támogatására. az nv viszont fogta magát, kidobált egy pár dolgot a keplerből, és általános felhasználás helyett csak a grafikára koncentrált, és így lett a maxwell...
Tehát nem hatékonyabb, csak butább a maxwell, ezért fogyaszt kevesebbet. Hatékonyság azt jelenti hogy ugyanolyan tudással fogyaszt kevesebbet.Egyébként a TDP nem minden, mert az maximális fogyasztás, amit lehet hogy csak egy tüskében ér el... átlagban nincs olyan nagy különbség.
-
CybonTom
tag
Én ha jól értelmezem a cikket és az elmúlt évek történéseit (majd jön Abu és elmondja a tutit, ha nem), akkor az új dx pontosan 2 dolgot hoz nekünk, ami lényeges.
1. Alacsonyabb szintű hw hozzáférést, ezáltal gyorsabb (neadj isten stabilabb) és erőforrás kímélőbb működést.
2. Eltörlik azokat a korlátokat (Tier 3), amiket eddig az NV és az Intel kedvéért tartottak fent, úgy, hogy közben lehetőséget hagytak rá a fejlesztőknek, hogy a régi dx képességeit kihasználó hw-k se menjenek egyből a kukába (T1), illetve az átmenetet megkönnyítsék az nv-nek és/vagy az Intel-nek (T2).Ez a pc számára gyakorlatilag azt fogja eredményezni, hogy mikor végre megtanulják programozni normálisan a nextgen konzolokat (1-2 év) és legalább 90%-ban kihasználni a bennük rejlő lehetőségeket, akkor azokat sokkal kisebb költséggel, sokkal gyorsabban át tudják majd portolni pc-re is, úgy, hogy közben a legegyszerűbb módon be tudják azt is állítani, hogy melyik tudású hw-n, milyen effekt működjön (amit eddig gyakorlatilag csak nagyon kemény és költséges módon tudtak volna megcsinálni, ha ugyan ment volna).
-
pakriksz
őstag
Igen, hol oldja meg? Miért az nvidia hol fejlesztett olyan fizikai motort amivel a fizika valóban jobb lenne? Mert a physx csak látványfizikát csinál, ahol meg hozzányúl az érezhető fizikához ott garantált a hulladék fizika, (pl Arma3 ami physx fizikát kapott, és igen erős visszalépés lett az addig használt saját fizikai motorhoz képest, de láttam már vegy train simulator-ban is, ott meg sírvaröhögős marhaságokat csinál), na meg ugye mint kiderült a physx nagy része cpu-n fut, a gpu-s csak pár effektnél igaz
Egyébként van opencl-es fizikai motor, csak mivel opensource ingyenesek, ezért a fejlesztői nem fizetnek a játékfejlesztőknek hogy használják, ellenben az nvidia igen.
-
kpal
nagyúr
dx12 is kiöregszik jön azonnal dx13
-
Jack@l
veterán
Ember, elolvastad amit írtam a nagyban emlegetettt uav-król? NV csípőből megoldja ezeket a haj meg részecske szimulkációkat évek óta physx-el, nem kell neki compute shader. Most fikázzam én is az amd-t, hogy nem tudott fejleszteni egy opencl alapú fizikai api-t, amitől valóban elég sok játék jobb lenne?
Úgy érzem nagyon túl van lihegve ez a dolog...
-
Egon
nagyúr
válasz
Tigerclaw #65 üzenetére
Így van, kb. nekem is ez lenne a fontos.
Jelenleg 560 Ti-m van, ami 170W-os TDP-jű kártya, ha jól emlékszem, és pont azon a határon van, amit még le tudok hűteni nyáron a 30 fokos lakásban úgy, hogy szubjektíve elviselhető a zajszint. A Maxwellt elnézve, a mostani videokártyámnál szignifikánsan jobb teljesítményt lehet alig több mint fele akkora TDP-ből kihozni, mint ami most van - feltéve ha jól skálázódik felfelé. Ergo nagyon várom már egy GF 760-as szintű, cca 100W-os TDP-jű kártya megjelenését: arra már érdemes lenne váltani... -
Tigerclaw
nagyúr
Az nagyon jó hír (számomra), hiszen akkor hamarosan a középkategóriás kártyák is elmennek a jelenlegi áramfogyasztásuk feléből, sőt akár egy jobb passzív hűtővel, vagy egy halk lassú ventilátorral. A 750 Ti nekem nagyon tetszik, de arra még nem érdemes váltanom. A Tier 1, 2, 3 engem nem érdekel, főleg hogy talán nem is botlok jó darabig DX 12-es játékba. Az viszont fontos, hogy ne zúgjon, ne legyen kályha, ne fogyasszon sokat.
-
Egon
nagyúr
Persze az is lehet, hogy maradnak a jelenlegi szinten: elvégre így is rá tudják írni a dobozra a gyártók, hogy DX12 compatible az adott termék, és az nV ultramobilos szegmensre koncentrálása ütheti az UAV-ok számának kiterjesztését. Ez a forgatókönyv viszont érzésem szerint nem tenne jót az iparágnak (és akkor még finoman fogalmaztam).
-
Tigerclaw
nagyúr
Lehet hogy a Maxwell architektúra nem támogatja csak az első szintet, de nekem nagyon tetszik a kiemelkedő energiahatékonysága. Persze a kérdés az, hogy ez csak a jobb gyártástechnológiának köszönhető, vagy másnak is, illetve, hogy az AMD mikor tud 20nm-es gyártásra, vagy jobbra váltani?
-
Egon
nagyúr
Szerintem még a TIER_2-t sem érdemes erőltetniük: elég ha az UAV-ok tekintetében a DX12 alsó korlátját jelentő 8 egységről szignifikánsan elmozdulnak felfelé, mondjuk 16-32-ig (max. 64-ig). Ez már elég jelentős plusz potenciál lenne ahhoz, hogy ne nagyon legyenek olyan fejlesztések, amelyek e főlé (pláne nem TIER_3 szintre) lőnek. A többi paraméter vonatkozásában megvan a TIER_2 szint, és azok a gyakorlatban nem tűnnek túl szűk keresztmetszetnek a TIER_3 szinthez képest (persze a végetelen, korlátlan és nincs limitálva kifejezések elméletben rendkívül jól hangzanak, csak éppen a gyakorlati jelentőségük jelen esetben vajmi kevés...
).
-
nyakdam
aktív tag
Köszi elolvastam a cikket. Én arra gondoltam, ha nem olcsobb megírni DX12-re a kódott, akkor nem fogják.
Mert az MS olyat csinált amit még eddig szerintem nem. Visszafelé kompatibilissá tette a DX-et. Mivel a Tier1=DX11.0-val, ez lehetőséget add az átcimkézésre.Az NV továbbra is kiadhatja a 11.0-ás HW-ját csak DX12-es plecsnivel, így nem változik a piaci felállás és 90%-ban DX11.0 vagy gyengébb HW lesznek, így a játékfejlesztők nem fognak több efektet berakni, mert az több pénz és munkaóra csak amire a piac képes. Tehát marad a DX11.0, és a játékra is rádobhatják a DX12 plecsnit! Megveszed az új Win-t, az új DX12 plecsnis HW-t és az új játékot és ugyan úgy 1 hajszimulációt látsz, és elmondják neked, hogy ez már a DX12! Ez szemétség.
Ha kivenné a Tier1-et, akkor a DX12 plecsnit tényleg csak a 12-es HW-ra lehetne rátenni. Így nem címkézhetne át senki semmit és tényleg jönnének a fejlettebb HW-k. Ha több a valódi DX12-es kártya akkor a játékfejlesztő is rá van kényszerítve, hogy valódi DX12-es játékot adjon ki.
Most pár évig az MS bebetonozta a DX11.0-át(persze DX12-re átcímkézve), és mossa a kezeit, hogy ő mindent megtett.
-
pkornel
aktív tag
Úgy érezem akkor még sokáig jó lesz nekem az R9 280X
Főleg 1600x900 felbontáson
-
thomasa
senior tag
Hogy a viharba is támogatná bármelyik most piacon lévő kártyát? Külön szempont volt, hogy ne tegye. Különben hogy veszi meg a kocka játékos az újabb vga-t? Csak hogy a fűszál árnyéka élethűbb legyen.... bahh...
-
SylverR
senior tag
Részben igazad van, de van egy dolog amit elfelejtesz.
Az nVidia már évek óta alkalmazza azt a praktikát, hogy nagyobb piaci részesedésével ÉS hatalmával a játék készítők fölött, kierőszakolja a piacból, hogy a játékok ne ugráljanak minőségbelileg túl nagyokat. Csak ha már nekik is megfelel, akkor. Ez, akárhonnan is nézed, nem más, mint lassítás, gátlás, akadályozás. A fejlődés ellen volt az nVidia örök életében. Volt egyetlen kivétel, SM2-SM3 váltásnál. De én azt se látom valódi váltásnak. Hiszen pl a 6200 csak mondva csináltan volt SM3-as. Szerintem a 6600 is elvérezhetett SM3-ban.
Szóval annak ott nem volt semmi értelme. Csak is azért csinálta, hogy vissza adja az ATi-nak a 9700-GeForce4-es pofont. Aztán mint láthattad is, a G80 is csak mondva csináltan lett DX10. Szóval nem. Az nVidia nem szeret fejleszteni. Akkor se ha kellene. És ez nem jó. Ez rossz. Hátráltatja az egészet.Fej-fej mellett haladnak... Eh. Mondok egy példát. Van egy DX9-es Radeon X1800-asod, meg egy új R9 290X-ed. Mindkettőn elindítasz egy DX6-os programot, és mindkettőn fej-fej mellett állnak az FPS-ek. Akkor semmi előnye a 290-nek?
Lenne előnye az AMD fölényének. Ha a programok kihasználnák. Ennyi.
-
Crytek
nagyúr
Ha ennyire AMD-s a téma várni kell majd a jóárasitott 3xx-re
-
fredooo
csendes tag
Akkor jó, ezek szerint egy darabig nem kell lecserélni az Nvidia 750 Ti videokártyám.
-
Execᵀʰᵀˢ
tag
Tehát akkor röviden: melyik legkisebb/legolcsóbb kártya az ami tudna T3-at már most?
-
csongi
veterán
Ezt nem lehetne vegyíteni? Mondjuk az adott hardver, több élsimítást bírna mert mondjuk van elég ram, meg ami kell, de pixel számolásban lassabb, mert a gpu órajele alacsonyabb. Így kijöhetne egy pl T1/T2.
Ezáltal a felbontás mondjuk Hd méretnél feljebb nem engedi, de a szűrők használatát igen.
Plusz azoknál a számításoknál amiknél a gpu gyengébb, oda segítene be a cpu.
Bár ha jól emlékszem az alapkoncepció ez volt az AMD integrálódás alapelképzelése.
(Jól meg is fúrta az MS és az Intel, mert még csak most jutottunk el egy újabb API hoz. )
Vagy nincsenek sávok és csak meghatározott képjavítókat lehetne használni. Ezekhez a képjavítókhoz lenne illesztve.
Ha egy vga nem képes 16*Anisot futtatni, fel se ajánlja, vagy ne is engedje használni.
Most úgy érzem ezekkel a sávosításokkal megint csak nem lesz kihasználva egy régebbi hardver ereje.
De meglátjuk az első képsoroknál mekkora eltérés van T1 és T3 képi megjelenítése között. -
Cooley18
aktív tag
válasz
actival63 #45 üzenetére
Látszik, hogy nem sikerült megértened a lényeget. Segítek: A mai nV-k butábbak, mint az AMD kártyák, de felesleges okosabbnak lenni. Mire eljut a PC-kre az a szint, amihez Tier 1 feletti tudás kell, az nV-nek is lesz olyan GPU-ja, a mostani AMD-k meg már úgyis gyengék lesznek. Konklúzió: Tök sokat tudnak az AMD GPU-k, de minek? Nem származik belőle az égvilágon semmi előnyük. Egyetlen játékot mutass, amiben az AMD többet nyújt! Nem tudsz... (Mielőtt valaki jönne a Tress FX-szel, az saját fejlesztés, nem szabványos)
-
Sinesol
veterán
Másrészt meg mire Tier 3 szintü effektek lesznek a konzolokon az még böven lesz vagy 2-3 év is , tekintve hogy még igencsak döcögősen hozzák a pc szintet is, na meg prev gen konzoloknak is kellett par ev mire igazan jol kiismerték öket.
Mire tier 3 szintü effektekig jutnak konzolokon, addigra piacon lesz a Maxwell utodja a zöldeknél, akkor meg mégis minek törjék magukat...ahogy mondtad talán egy tier 2 szintet meglépnek de kérdés hogy egyaltalan tier 2 szintü graftig eljutnak e a next gen konzolokon a közeljövőben...
Az Amd-vel szemben az nvidia kőkeményen a jelenben él, csak azt épitik be ami ma kell, 1 centet se pazarolnak arra amit ma nem tud az user felhasználni. Bár az is igaz hogy ezt csak ugy tudják megjátszani hogy kihasználják az Amd-t úttörőnek, ők meg beleülnek a biztosba...
Így volt ez dx verziók esetében is, és kivétel nélkül mindig bejött a számításuk...hiába rohant előre az Amd sose volt belőle számottevő előnye, mire valoban kellett az adott fejlesztés meglépték a zöldek is..
A hatalmas Amd technikai fölényből meg sose láttunk még semmit, minden tesztben fej-fej mellett van a zöld és piros kártya, akarmelyik kategoriat is nézzük.
-
Ghard
őstag
-
DrJános
aktív tag
válasz
#79563158 #41 üzenetére
Már a TIER 1-el is támogatják így rá írhatják a papírra. Az már más kérdés, hogy az új Radeonok ezen a téren sokkal többet tudnak. Viszont én azért nem félteném az NV-t. Az ő kártyájuk bár kevesebb efektet tud, de valószínűleg gyorsabb lesz (mármint az új gen). A Brutal Powert mindig is szerették az NV-nél.
-
válasz
#17954112 #27 üzenetére
Sokat nem tudni még a 9. generációról, hátha beleszervezik... Intel oldalról, akinek az IGP-i azért nem a masszív gémelésre vannak kihegyezve - az inkább a kérdés, hogy GPGPU feladatokban és az egész APU energiagazdálkodásában van-e számottevő haszna a Tier3 kompatibilitásnak?
-
-
pipo112
őstag
szvsz lehet venni radeon karit
vagy várni az nv új szériáját
-
Chp
őstag
TIER 1: Ranger, Phobos, Mynx, Orbb, Sarge.
Kíváncsi leszek hogy fog alakulni ez az egész.
-
ceripapa
aktív tag
Pl Tresh FX és a Lara haja . Asszem 2 UAV-t használt fel a TFX.
"A Crystal Dynamics és a Nixxes azonban jó okkal használta a TressFX-et csak Lara Croft hajára, ugyanis az effekt működése két UAV-t igényel. Mivel ebből a DirectX 11 alatt csak nyolc áll rendelkezésre, így ezt a limitált mennyiséget nagyon be kell osztani. A Tomb Raider többek között a többi effektre elhasznált már hat UAV-t, így tulajdonképpen Samantha Nishimura haja nem fért bele az API által maximalizált kvótába. Ezen a DirectX 11.1 segíthet, mivel ez az API már 64 UAV-t is megenged, ami már kellő mennyiség a többi szereplő hajának modernizálására. Ha más effektekkel nem számolunk, akkor maximum 32 szereplő haja szimulálható, ráadásul a TressFX 2.0 kapott egy LOD rendszert is, így a kamerától távoli karakterek hajának csak egy része lesz szimulálva, illetve leképezve, amivel nyilván komoly sebességet lehet nyerni."
-
Jack@l
veterán
Egészen pontosan ki tudná fejteni valaki, hogy a gyakorlatban mire használják ezeket az uav-ket? Mekkora problémát takar hogy csak 8 használható a shaderekben? (nem technohalandzsára vagyok kíváncsi, hanem realworld példákra)
-
Kofirobi
csendes tag
A gtx 780 ti az mit tud?tier 1?
-
brian1987
tag
A DirectX 12 a fenti szintek mellett a Microsoft terveinek is megfelel, vagyis egy olyan API-ról van szó, amelynél az Xbox One konzolra írt kódot direkten át lehet másolni PC-re, és igen apró, pár soros kiegészítésekkel futtathatóvá lehet tenni az érkező Windows operációs rendszeren.
-
nonsen5e
veterán
Tehát a különbség akkor nem az lesz, hogy ha nV kártyám van akkor rosszabbul fog futni a játék, hanem egyszerűen "csak" randább lesz?
(Nem értek nagyon hozzá, azért kérdezem.)
-
Cooley18
aktív tag
Alapvetően nyilván nem, de a konzolportok idejében az. Ha elolvastad volna az utolsó bekezdést, te is tudnád. És lényegében nem DX11-et kapunk, mert a legfőbb előrelépés a DX12-ben a teljesítményjavulás. Azt a teljesítménypluszt mindenféleképpen megkapjuk. Viszont ezt is tudnád, ha figyelmesen elolvasnád a cikket.
-
nyakdam
aktív tag
Én arra akartam kilyukadni, hogy nem nehezebb(ezáltal több pénzebe kerül) megírni 3-as szintre a progit mint eddig? Mert ha igen akkor biztos, hogy megreked az 1-es szinten a dolog, és lényegében DX11-et kapunk.
Szerinted a DX12-re könyebb, gyorsabb megírni a kódot mint DX11-re?
-
#16939776
törölt tag
Ha jól dekódolom: GCN-re "nagyon hasonlító" dolognak kell a 900-as sorozatban jönnie...
Az 1-es szintre (le)minősített kártyák képességeit nem fogja 100%-ban kihasználni?! -
Abu85
HÁZIGAZDA
A feature level 11_0 igen. A 11_1 már 64 UAV-t kezel.
Igen a TIER_1 az a mostani picit butább hardverekre szabott tudásszint, csak éppen a DirectX 12 hatékonyságával.
Nem. A TIER_2 szint funkcionálisan a DirectX 11-ben nincs jelen. Nem tudom, hogy ebben miért van benne. Gondolom valamelyik gyártó kért egy ilyen szintet, mert a TIER_3-at nem tudják majd támogatni, de a TIER_1-ről azért ellépnének.
A TIER_3 meg effektíve azt tudja, amit a Mantle, illetve a Mantle még többet tud, mert nem korlátozott a támogatott puffertípus, illetve -formátum. A DX12-ben még az, de később lehet, hogy lesz egy TIER_4 szint.(#15) Peat: Igen. A TIER_2/TIER_3-ban több effekt lehet aktív, de ezeket éppúgy kikapcsolhatod majd manuálisa, mintha fel sem kínálná a beállítások menü az aktiválást.
-
nyakdam
aktív tag
A DX11 az 8 UAV-t kezel nem? Nekem úgy tünik, hogy az első így a DX11-et jelenti csak kapott egy DX12 nevet.
Én nem látom, hogy tényleg megírnák a valódi DX12-es kódot melyet efektek kikapcsolásával lebutíthatunk DX11-re. Ezt szerintem az elmúlt 1-2 évben megtudták volna csinálni mivel az AMD kártyái támogatják a DX11.1-et ami kb a kettes szintnek felel meg, és mégsincs rá írva semmi.
Mi változik most mikor ugyan az a felálás? A piacon ugyan az a felálás, és ugyan úgy megkell írni a DX11-et nevezzék azt bármi másnak, nem?
-
Abu85
HÁZIGAZDA
Hogy ne legyen túl bonyolult, így egy egyszerű példával ezt szemléltetni lehet. Van mondjuk 8 UAV-je az erőforrásnak a játékra, amiben viszont van öt olyan effekt, amelyek két-két UAV-t kérnek. Tehát az öt effektből csak négyet tudsz bekapcsolni, mert az ötödikre már nincs UAV slot. Az, hogy melyik négy lesz ... a legegyszerűbb, ha ezt a fejlesztők állítják be fontossági sorrend szerint.
-
Móci
addikt
Ha jól értelmezem egy konzolos játékot grafikailag nem lesz túl nehéz átportolni pc-re TIER 3-as szinten?
Azalatt vajon milyen effeketek, speciális funkciók maradnak ki? Megéri vajon majd egy mindent témogató kártyára váltani, vagy ez megint félig-meddig a fejlesztők munkájának a könnyítése, s az egységsugarú mezőgazdasági dolgozó látásának csökkentése reflektorral? -
jedis
senior tag
Hát én ezeket a "Tier"-eket , "szintek"-nek értelmeztem ! 1-es; 2-es; 3-as szint ! Mondjuk az 1-es 20 efektet tud megjeleníteni, a 2-es 20+30-at, a 3-as meg minden effektet, ami csak van
! Aztán hogy látványvilágba milyen különbség lesz a szintek közt, azt majd csak élesbe lehet megkülönböztetni !
Vicc:
Chuck Norrist kérdezik
riporter:
-Chuck ! Te hány fekvőtámaszt tudsz megcsinálni ?
Chuck:
-Az összeset !kicsit átírva !
riporter:
-R9-290X ! Te hány DX12-es effektet tudsz megjeleníteni ?
R9-290X:
-Az összeset ! -
pakriksz
őstag
köze nincs a rajzolási parancsokhoz ezeknek a tiereknek. a 2000 rajzolási parancsnak amúgy sincs köze a videokártyákhoz, az a limit (ami nem is limit, hanem egy ajánlott maximum), az API-ból adódik, és a 2000 rajzolási parancs az amit egy mai CPU össze tud hozni a MAI apikkal (leszámítva a mantle-t mert az nem zabál annyi cpu-t).
-
Stonerice
őstag
Ne tegyetek már fel ilyenen okos kérdéseket!
MI VA? Nembírom követni
-
qad
senior tag
Ezeket a Tier-eket hogyan kell elképzelni? Tier1 mondjuk az összes ma forgalomban lévő videókártyáknak a teljesítményét tudja pl. 2000 rajzolási parancs, a tier2 fog majd tudni kb 50 000 rajzolást, a Tier 3 meg 100 000-et?
-
bitblueduck
senior tag
Valaki hozzáértő tud példát mondani arra, hogy milyen effekt vagy csoda dolog az ami pl tier3-al megvalósítható 1-el meg nem?
-
#79563158
törölt tag
Tehát az új generációs videókártyák támogatni fogják mind a 3 Tier-t?
Új hozzászólás Aktív témák
Hirdetés
ph A Microsoft három csoportba sorolja be a hardvereket. A kompatibilitás garantált, de lesznek korlátok is.
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Kamera előtt az iPhone 17 széria mintadarabjai
- Lalikiraly: Astra kalandok @Második rész
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- HiFi műszaki szemmel - sztereó hangrendszerek
- Sorozatok
- World of Tanks - MMO
- Milyen légkondit a lakásba?
- Gitáros topic
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- További aktív témák...
- ÁRGARANCIA!Épített KomPhone i5 10600KF 16/32/64GB RAM RTX 3060 12GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! iPhone 13 Mini/iPhone 13/iPhone 13 Pro/iPhone 13 Pro Max
- Bomba ár! Dell Latitude 5290 - i5-8GEN I 8GB I 256SSD I 12,5" HD I Cam I W11 I Garancia!
- LG 65BX - 65" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready!
- Steam, EA, Ubisoft és GoG játékkulcsok, illetve Game Pass kedvező áron, egyenesen a kiadóktól!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest