- Radeon RX 9060 XT: Ezt aztán jól meghúzták
- Atomenergiával dübörögnek tovább az Amazon adatközpontok, SMR-ek is jöhetnek
- Macron betiltatná az EU-ban a közösségi médiát a 15 év alattiaknak
- Az NVIDIA ipari AI-felhőt épít a németeknek, együtt az OpenAI és a Google
- Két új Ryzen közül választhatnak a kézikonzolok
Új hozzászólás Aktív témák
-
mekker
őstag
Te most miről beszélsz? Tier1=Dx 11? A hardvernek annyi köze van a DX támogatáshoz, hogy megvannak-e a különféle előírt egységek benne, meg van-e hozzá driver. Éppen ez a lényege a DX12-nek, hogy hatékonyabban lehet kezelni az adott hardvereket, mint Dx11-nél. A TIER1 besorolás inkább egy korlátozást takar, hogy "miből gazdálkodhat" a grafikus program, milyen effekteket használhatnak egyszerre, stb.
Ennek nem első sorban nem szebbnek kell lennie, mint a Dx11 játékoknak, hanem hatékonyabbnak.
A TIER3 természetesen már inkább a "nextgen" látványvilágról szól, azaz az olyan effektekről, amiket eddig elég nehéz volt integrálni a játékokba a jelentősebb szoftveres limitáltság miatt.
Hogy gyakorlatban mennyit fog észlelni/hiányolni a nagyközönség a TIER3 hiányából, az majd kiderülk (természetesen ez a fejlesztőkön is műlik). -
macman507
aktív tag
Tehát pont a legújabb (Nvidia) Maxwell architektúra (tudtommal legalábbis a legújabb) nem támogatja a Tier 3-at?!
Gondolom az összes dx12-es kártya ára az egekben lesz és az olcsóbb, meg olyan is lesz.. -
Ez nekem szuperjó hír! Jövőre terveztem egy subnoti/hibrid/netbookféle beszerzését Willow Trail/Goldmont - esetleg skylake-es core M alapokon. A gen9-be kerül be egy csomó fejlesztés, amire várok (pl HDMI 2.0, h.265 a rendes 4k megjelenítéshez, ill számottevő erősödés), de jó hallani, hogy a DX12 sem lesz gond.
-
Ragnar_
addikt
Az nvidia a jelenlegi architektúrával semmiképp sem tudja tier3 szinten futtatni az adott játékot DX12 módban elvileg. Tehát mindenképp GCN architektúrát kell használniuk a jövőben, ha teljes mértékben Tier3 szinten is meg akarják jeleníteni a jövőbeni DX12 - n íródott játékokat ? Tehát itt már nem az optimalízációról van szó (mint kb. a mantle BF4) ami gyártótól függően +/-10 % FPS meg mondjuk Physx vagy tress FX, hanem komolyabb ? (Mondjuk nem hinném, hogy valóban előfordulhat az, hogy egy dx 12 játék nem fog futni tier3 szinten egy nvidia kártyán. Azért addig még 1-2 év hátravan szerintem.. Vagy lesz AMD játék meg Nvidia játék PC-n majdnem mint a PS4 vs XBox1)
-
Egon
nagyúr
válasz
pakriksz #113 üzenetére
A gameworks egy shadergyűjtemény, általános grafikus problémákra. És igen arra csinálta hogy minden cucc lassuljon tőle de főleg a nem nvidiák. Ha nem így lenne akkor lásd lentebb, és nem lenne zárt, de az tehát rejtegetnek valami csúnyaságot.
Ebből max. az első mondat igaz, a többi hazugság. Abu is elmondta többször, hogy mire szolgál a gameworks: alternatív effektek gyűjteménye, amit nem kötelező használni. És egyáltalán nem titkos: [link]
Az NVIDIA ugyanis nem zárja el a forráskód egyes részeit a fejlesztőktől és a konkurenciától sem, csupán a módosítás lehetőségét tiltják meg.
-
Crytek
nagyúr
Teljes DirectX12 támogatással érkezik az Intel Skylake család
Nv egyedül marad?
-
fredooo
csendes tag
Megmondom én mi a pálya. Tény, hogy a pc piac veszít részesedéséből iszonyatos mértékben. Az is tény hogy a microsoft elsősorban a pc-n sikeres. Hogy vissza csalogassák az embereket a pc használatára a tabletek és az okostelefonok irányából gondoltak egyet, és kihoztak egy olyan játékokat támogató api-t aminek a használatát mindenki meg tudja fizetni. Így működik a piacgazdaság. Persze az opengl sem tétlenkedik, úgy olvastam, másfél-két év múlva jön egy komoly generáció váltás, ami nagy fejlesztéseket ígér.
-
pakriksz
őstag
"Az nv többek között az UAV probléma mérséklésére csinált saját algoritmusgyűjteménye (nem api...)."
dehogy arra csinálta, ezt most találtad ki. A gameworks egy shadergyűjtemény, általános grafikus problémákra. És igen arra csinálta hogy minden cucc lassuljon tőle de főleg a nem nvidiák. Ha nem így lenne akkor lásd lentebb, és nem lenne zárt, de az tehát rejtegetnek valami csúnyaságot.
"Véletlenül sem modernizálta az egészet." véletlenül sem, hiszen egy csomó fejlesztő megmondta hogy ők házon belül sokkal hatékonyabb megoldásokat hoz össze mint a gameworksben fellelhetők... mit gondolsz miért nem használja most hirtelen mindenki a gameworksöt csak a physx-es már eddig is nvidia által fizetett fejlesztők? Sőt még ők sem.
"április óta nem jött driver 290x-hez windows 8 alá, na inkább ez a probléma" a tudatlanságod az a probléma. Mert jött, csak nem whql-es(ami egyébként egy zacskó kutya végterméket sem érő dolog, hiszen a microsoft adja meg ezt a "plecsnit")... még a hd5770-re is jött, bár különösebben nem érdekel, mert csak akkor frissítek drivert ha valami gond van a jelenlegivel.
"pl sokkal többet dob a látványon, mint pl egy hajszimulálás" nem igazán, mind2 kikapcsolva jó, a plusz áramfogyasztást sem érik meg...
"tesszalálás sokkal kevesebb erőforrást igényel mind a hardvertől, mint a tervezőtől." nem igaz... talán a modellezőtől kicsit kevesebbet (bár azt nézve hogy a modellezők először mindig ultrarészletes modellt csinálnak, és aztán butítják vissza mondjuk 2 millió háromszögről 100 ezerre, talán még ez se igaz), de a hardvertől egyáltalán nem, mert ahogy mondtam, mindent ész nélkül több háromszögre bont, azt is amit nem kéne.
"bár pl. egy bőrfelületnél már lehetne az" nem, nem lehetne az, ugyanis pixelnél kisebbre tesszalálni értelmetlen, tudniilik a pixel fog megjelenni a monitoron, nem tud félpixelt rajzolni
tudod ez olyan mint 4k-t nézni 1080p kijelzőn...
Szeretnéd lehúzni az amd-t az nvidia szintjére, de ez nem fog menni úgy hogy sokszor mondogatod, bizonyíték kéne, az pedig nincs az amd-re, az nvidiára pedig van.
Nem értem hogy vehettél 290-t ennyire szemellenzős nvidia fan létedre, de azt végképp nem értem hogy miért akarsz olyat megmagyarázni amiről lila gőzöd nincs (lásd az optimalizálatlan játékok jönnek benyögésed), de megérteni sem akarod.
ezt a kifejezést tanulmányozd az uav korlát egy ilyen dolog volt... -
janihunk
senior tag
Meg vagyok nyugodva. 280x tudja.
-
sayinpety
tag
Biztos nem. A gameworks az elzarkozas eredmenye. Az nVidiaval 5 eve tortent valami. Azota nem dokumentalnak semmit, nem segitenek. Ha akarok se tudok Kepler architecturera optimalizalni. Nem tudom hogyan mukodik. Ha megkerdezem nem aruljak el.
A gameworks hasznalhatatlan sokak szamara. Nekem is. Sokkal egyszerubb effektet irni az enginere. Forditva sokkal nehezebb. A hairworks erdekelt, am MSAAt kovetel. Az en enginem nem tamogat MSAAt, nelkule nagyon ronda lenne a hairworks. Egyszerubb a tressfxet implementalni, nyilt source code, nincs specialis igenye.Sok a felreertes az UAVvel. Az adattarolasra a D3D buffer es texture eroforrasokat enged. Mindkettot olvasni/irni lehet. Elerhetok meg strukturalt bufferek, RAW bufferek. A texture/buffer olvasasahoz/irasahoz memory view szukseges. Az UAV egy ilyen memory view. Lehetove teszi a tetszoleges olvasast/irast, tamogat scattert. A leghasznosabb eroforrastipus. Sok algoritmus felgyorsithato vele.
-
Abu85
HÁZIGAZDA
válasz
Goblin12 #104 üzenetére
Idézted is: "AMD GCN architektúrája képes a TIER_3 szint kezelésére".
A leírás az eddig megjelent hardverekre vonatkozik. Az érkező hardverek képessége még nem derült ki, illetve ha ki is derült, nem lehet róla írni.
A PS4 libGNM API-ja a TIER_3 képességeinél is jobb modellt használ. Olyan szintű, mint a Mantle API. Effektíve ez azt jelenti, hogy nincs annyi különböző puffertípus, illetve a formátumtámogatás is jóval szabadabb.
-
Simon02
tag
Nem vitatkoznék érdemben, mert látom milyen szemüveggel nézed a világot, így csak néhány apróság:
"gameworksnek meg kb köze nincs az egészhez"
Az nv többek között az UAV probléma mérséklésére csinált saját algoritmusgyűjteménye (nem api...). Nem is értem mire írod, hogy nincs köze a témához, nagyon is van. Nyilván csak azért csinálta az nvidia, hogy minden cucc lassuljon tőle, főleg az amd kártyák...lol Hiszen ahogy írod is 1:1-ben átemelte a már kész effektet és beleraktak biztos egy végtelen ciklust, hogy mindenki szívjon... Véletlenül sem modernizálta az egészet. A gond inkább az, hogy AMD nem tud drivert fejleszteni, így ha nem megy valami egyszerűbb rákeni az nv-re (ezúton is köszönöm nekik, hogy április óta nem jött driver 290x-hez windows 8 alá, na inkább ez a probléma...)
Ami pedig a tesszalálást illeti, az egyéni ízlés dolga, hogy kinek mi tetszik, szerintem pl sokkal többet dob a látványon, mint pl egy hajszimulálás. Persze hogy szebb, amit grafikus tervez meg, csak 2 bibi van, a tesszalálás sokkal kevesebb erőforrást igényel mind a hardvertől, mint a tervezőtől.
Igen, HD5xxx gyenge pontja extrém tesszaláláskor jött ki, ami nem valós helyzet - bár pl. egy bőrfelületnél már lehetne az. Csak éppen ha sokkal több dologra használták volna, úgyanúgy előjön. Volt HD5870-em és GTX480-am és láttam hogy omlik össze előbbi tesszalálás alatt, pedig erőben csak 20%-nak kellett volna lennie a difinek, de a fermi simán ráduplázott.
Ja, és maradjunk annyiban mindkét cégnek voltak (és sajnos lesznek is...) piszkos ügyei, attól mert valaki szelektíven emlékszik, még így van.Ja és egy ON még, majd egy hozzáértő grafikus programozó kijavít: egy UAV indításának mennyi költsége van vajon? Mert szép hogy végtelen és vannak kis erőforrásigényűek is, de mennyi erőforrást eszik meg ezek menedzselése?
A végtelen használata meg hatalmas bullshit és már ahogy látom nem csak engem zavar... Olyan nincs hogy végtelen erőforrás, maximum nincs korlátozva! Már látom előre hogy ebből mennyi optimalizálatlan játék lesz.... -
Goblin12
őstag
Szerintem, tök értelmesen le van írva a cikk és érthető is.
Tulajdonképpen most még egyszerű a helyzet, mivel az AMD GCN architektúrája képes a TIER_3 szint kezelésére, míg az összes többi opció, ideértve az Intel Gen7.5 és Gen8, illetve az NVIDIA Fermi, Kepler és Maxwell architektúrát, a TIER_1 szintnek megfelelő tudást kínál.
Itt szépen le van írva, hogy mi mit támogat. Csak ezzel annyi a baj,hogy az érkező GTX 9XX-es széria ami 19-én lesz bemutatva, nem fogja támogatni a T3-mat.
Nem mintha csak ennyi lenne vele a probléma, de majd úgy is ki lesz vesézve.
De:
A fejlesztőktől megtudtuk, hogy jelenleg a TIER_1-et és a TIER_3-at támogatják a mai, DirectX 12-es eszközillesztővel rendelkező termékek. Mi az ami már támogatja a DX12-tőt? :S
És a PS4 támogatja a T3-mat, vagy pont úgy állították be a T-ket, hogy a PS4 ne jusson a T3-hoz?
-
Cooley18
aktív tag
Abu nem fogalmazott pontosan. Egyáltalán nem könnyebb, mert sokkal több melóval jár, és sokkal több a hibalehetőség. Optimalizálni könnyebb, sőt arra sem a könnyebb a megfelelő kifejezés, inkább több rá a lehetőség, ezért hatékonyabb, de ez megint csak többletmunkával jár.
-
Abu85
HÁZIGAZDA
Ez inkább azt jelenti, hogy úgy írod meg az egész programot, ahogy akarod. Nem kell figyelni arra, hogy bizonyos erőforrásokból kifutsz, hanem csak az számít, hogy az adott effekt végrehajtása milyen módon lehet a leggyorsabb.
Mindegyik GCN ugyanúgy támogatja a TIER_3-at. A Tonga és a Hawaii előnye a 8 ACE-ből származik. Az aszinkron compute egy másik képesség. Ez lehetővé teszi, hogy a hardver több folyamatot is futtasson párhuzamosan, tehát ha az egyik számítás mondjuk nem terheli a shadereket nagyon, akkor egy másik feladat ráküldhető ezekre. Ilyen módon például nem csökkentené a sebességet a TressFX szimulációja, mert egy grafikai számítással párhuzamosan futna le. Ilyenkor a 8 ACE előny.
Új hozzászólás Aktív témák
Hirdetés
- Keresünk dokkolókat
- Lenovo Legion Slim 5 82Y900BVHV Notebook
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X3D 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- ÁRGARANCIA!Épített KomPhone i5 14600KF 32/64GB DDR5 RTX 4070Ti Super GAMER PC termékbeszámítással
- 15db töltő egybe (65W + 90W) kerek végűek (ELKELT)
Állásajánlatok
Cég: Liszt Ferenc Zeneművészeti Egyetem
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest