- AMD vs. INTEL vs. NVIDIA
- Milyen notebookot vegyek?
- Milyen TV-t vegyek?
- Jóárasítja két Arrow Lake-S CPU-ját az Intel
- Videós, mozgóképes topik
- 16 GB RAM 2025-ben? 🤨 – Ma már kevés lehet!
- Home server / házi szerver építése
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Soundbar, soundplate, hangprojektor
- OLED TV topic
Új hozzászólás Aktív témák
-
Kajoszbobber
lelkes újonc
Én is attól félek hogy az MS megoldása egyszeriben mindent vinni fog, arról híresek hogy olyan jókat fejlesztenek, ja nem, egy win frissítést nehéz nekik olykor normálisan abszolvalni.... Míg az MS kínlódik nv megcsinálta a sajat neural renderjet, aztán kalap kabát... Alan Wake 2-ben már benne is van.
-
mozesapo
tag
Talán ezzel megtörik az nvidia monopólium felskálázás terén.
"Az egyedi felskálázás érdekli leginkább az ipart a neurális leképezés kapcsán"
[link]
Minnél előbb annál jobb lesz nekünk. -
hapakj
őstag
Hiába nézem meg amit linkelsz. Én az API-kat ismerem, s ha megnézed a Vulkan nagyon nem vette át egy az egybe az egészet. Sőt a DX12 "renderpass" és szinkronizációs modellje jobban hasonlít a Mantle-ére, mint a Vulkané.
Tudom mi a Hybrid Graphics. Ott se lehetett szabadon kombinálni bármilyen dVGA-t bármilyen IGP-vel. Tényleg kreatív megoldás volt abban az időben, de az rég volt és a render pipeline-ok is jóval egyszerűbbek voltak. A multiGPU-k koncepció bukásáról tényleg nem az nVidia tehet. Most baromira jól jönne nekik is, mert szemmel láthatóan szívnak a hatalmas chipekkel.
Hát az ilyen vendor speficifikus szabványos eljárások nem tudom miért véreznek el. Igazából a Gameworks-ről sem nagyon hallani manapság. Kb simán kerülnek minden ilyet a fejlesztők. Upscalingből viszont pl látom, hogy általában mindegyiket beépítik. -
Kansas
addikt
Mantle: nézd már meg amit #14-ben linkeltem... a Vulkan egy az egyben átvette az 1.0-s Mantle-t és arra fejlesztett rá. Ez tény, fehéren-feketén, nem vélemény. Persze, a DX12 is merített belőle ihletet, de a Vulkan egy az egyben átvette az egészet.
Hybrid Graphics(vagy hogy a bánatba hívták) annyival tud többet, mint a Crossfire, hogy aszimmetrikus. Egy laptop APU IGP-jének és a mellé tett dGPU-nak a képességeit gyúrta egybe... nekem volt is ilyen laptopom Llano alapon(A6-3400M/HD6520G+HD6650M), kellemesen el lehetett vele Skyrim-ezni budget vason...
"Hát ha nem tudott versenyezni, akkor mit várjuk el, hogy az AMD technológiáit használjanak exklúzivan?"
Nem várjuk el az exkluzivitást, csak a támogatást, ahogy az FSR-t is képesek támogatni... gyanítom, mert mindenen megy... ha csak AMD-n menne... nos meglátjuk mi lesz az FSR4-gyel...
Exkluzivitást leginkább a GameWorks vár el... bár volt játék ahoil az AMD is bepróbálkozott, de többnyire sikertelenül. -
hapakj
őstag
De ha a piaci részed 20%, akkor hiába jó a technológia, nem fogják...
- low level API-ra volt igény. Át is ment. Úgy tűnik az AMD többi megoldására akkor mégsem volt akkora igény.A Mantle-ből továbbra se DX12 lett, hanem Vulkan
- A Mantleből egyik sem lett, vagy mindkettő. Ugyanazokat a koncepciókat valósítják meg, de mind a 3 nagyon eltér egymástól. A Mantlehoz talán a DX12 hasonlít jobban. Amúgy itt prohardver fórumokon is többször elhangzott, hogy a DX12-hez a Mantle doksijaiból indult ki az MSTudom mi a Hybrid Graphics, s természetesen a CrossFire-re alapozott. Miben lenne más a technológia, s miért lenne egyáltalán jó?
Hát ha nem tudott versenyezni, akkor mit várjuk el, hogy az AMD technológiáit használjanak exklúzivan?
-
Kansas
addikt
Nem az NVidiának kellett volna, hanem a játék- és alkalmazás-fejlesztőknek. De ha a piaci részed 20%, akkor hiába jó a technológia, nem fogják... Így lett a CUDA is egyeduralkodó a piacon.
A Mantle-ből továbbra se DX12 lett, hanem Vulkan, de mindegy, annak köszönhetőek a "low level API-k", meg a konzoloknak.
A Hybrid Graphics-ot ne keverd a Crossfire-ral meg a SLI-vel, nem ugyanaz.
"dehát az AMD is fordíthatott volna erre pénzt."
Aha, a csőd szélén táncoló vállalattól várod, hogy egy hozzá képest akkoriban is többszörös méretű és egy nagyságrenddel mélyebb pénztárcájú céggel versenyezzen anyagi támogatásban? Vicces vagy...Rövidebben: miből???
-
hapakj
őstag
Amúgy szerintem AMD-nél kb az volt a gond, hogy összerakták az egyébként elég jó GCN architektúrát, meg keresztül nyomták a low level átállást, s mivel akkoriban az nVidiának az nem feküdt, hátradőltek, hogy majd az architektúra meg a low level megközelítés behozza gyümölcsét. S ebben szépen skálázódtak utólag is a megoldásaik.
Aztán ment valahogy a bénázás a GCN 2/3/4/5 RDNA 1-el közben az nvidia meg lerakta az asztalra a Turingot megfelelő low level képességekkel, Tensorral és RTX-el, amihez azóta is szállítja a softwares megoldásokat. Lásd DLSS 4 Tranformer modell megy RTX 2080 Ti-on. Szóval jah, utóbbi időben jóval többet rakott a témába az nvidia szerintem.Amúgy a Mesh shadinget sem értem. Annyit lehetett olvasni az AMD féle Primitive shaderről megváltja a geometry feldolgozást ilyenek. Már vannak zárt SDK-k megy ilyenek. Aztán hopp, Turinggal megjelent a Mesh Shader DX-be, meg minden egyéb API-ba. Érthetetlen, hogy tudta az Nvidia beelőzni az AMD szabványos módon ezzel kapcsolatban.
-
hapakj
őstag
Ezt a felsorolást nem is értem.
Több gyártó specifikus technológia. - ezeket miért kellett volna az nVidiának támogatnia?
Több abszolút meg is valósult, pl HBM
Többnek meg lett következménye:
Pl ha már a Mantle is a listán van és abból lett a DX12, akkor mondjuk az nem pont olyan, ahogy az Optixból lett a DXR?
Hybrid graphics abszolút nem értem mit keres itt. egyáltalán nem a nVidia hibája, hogy a több GPU-s skálázódás elesett. Régen ők nyomták kb a legjobban.
Az igaz, hogy az nvidia-ának nagyobb developer programja volt, dehát az AMD is fordíthatott volna erre pénzt. -
Kansas
addikt
Ez az RTX megjelenése óta van így, előtte kb. fordítva volt...
PL.:
TressFX
Hybrid Graphics(IGP összedolgozik a dVGA-val)
FreeSync over HDMI
Freesync2HDR
HBM
HBCC
Mantle
TrueAudio
GPUOpen
HSA(Fusion)
3DNow!
... volt még pár, de most ezek ugrottak be.
És persze ezek nem mindegyike holt hamvába, van ami tovább él(pl. FreeSync2HDR, Mantle)Anno az AMD nonstop innovált, de a kis piaci részesedése miatt a feljesztései nem terjedtek el, aztán pont mikor megunták a szélmalomharcot a sokkal nagyobb/gazdagabb rivális ellen(meg hát at R&D-re fordítható pénz is erősen elapadt a csőd szélére került cégnél), jött az RTX, és most ők futnak az NV után. Így járás.
Az AMD csak azért létezik még, mert ők gyártják a konzolokba az APU SoC-okat, meg mert bejött a Ryzen. -
hapakj
őstag
válasz
Kajoszbobber #52 üzenetére
Ez a szép az életben és a világban. Mindenki máshogy látja.
-
Kansas
addikt
válasz
Kajoszbobber #48 üzenetére
Nagyon fiatal lehetsz, biztos nem emlékszel arra az időre, amikor a két fő VGA gyártó(Ati/nVidia) pariban volt(mielőtt az AMD megvette volna az egyiket), vagy mielőtt ennyire lecsökkent volna a számuk(az ezredforduló környékén még többen voltak, a 3D gyorsítók megjelenése előtt pedig még annál is többen).
Ha valódi verseny van, akkor az árak lefele mennek, de ahhoz több szereplős piac kell, a kétszereplős váltógazdaság nem igazán vált be eddig semmilyen téren(se politikai, se gazdasági, de kb semmilyen más téren sem).
Ahhoz pedig még az Intelnek sokat kell gyúrnia, hogy feljöjjön legalább az AMD szintjére, és az még mindig nem fog komoly versenyt generálni, amíg az NV a hatalmas piaci túlsúlyával megfojt kis híján minden feature-t ami nem az övé, mert nem tud elterjedni.
Ahogy jelenleg látszik, maximum az törheti meg az NVidia hegemóniáját, ha önként kivonul a VGA-piacról, mert nem lesz elég a profithányad neki(ahogy az IBM is teljesen kivonult a PC/laptop/szerver gyártásból anno), és rááll 100%-ban az AI piacra...Az AMD ugyan most jobb procikat gyárt az Intelnél(különösen játékra), de még nagyon sok dolga van, míg ledolgozza az előző 30 év alatt felgyűlt hátrányát, ha egyáltalán valaha sikerül neki az Intel csődbe menetele nélkül...
-
Kajoszbobber
lelkes újonc
Ugyan ezt az arat fizetned ki AMD-nek is ha konkurenciaja lenne az NV-nek. Ezek cegek, akiket a profit hajt... nem szeretet szolgalat egyik sem. Amint sikerult az amd-nek az intelt letolni az cpu arakat szepen fel is tolta, ugyan ezt tenne ha sikerulne ugyan olyan felso, kozep, es also kategorias vgat letenni az asztalra. Jelenleg az amd dvga-k azert vannak olyan nyomott aron mert tudasban van kulonbseg a konkurenciahoz kepest, negativ iragyban, es kotelezo ala arazni... Meg igy se araznak ala megfeleloen, mert az eddigi 3 gen alatt csak a market sharet buktak.
-
hapakj
őstag
Aha, csak a képességét nyirbálja meg...
- milyen képességét nyírbálja meg?csak ott bicsaklik meg a dolog, mikor annak az egységnyi teljesítménynek az árát ki kell csengetni a pénztárnál...
- A hw teljesítőképessége határozza meg az árat. Nem hiába árazzák úgy az AMD kártyákat ahogy. Nyilván ők is érzik, hogy amit teljesítenek az gáz. -
Kansas
addikt
"a DLSS Ray Reconstruction funkciója nagyon megdobja a Raytracing hatékonyságát."
Aha, csak a képességét nyirbálja meg... nyugodtan olvass utána, mit csinál a gyakorlatban."nvidia az egységnyi teljesítmény"
Na ja, ez valóban majdnem fullba nyomja a szubjektívet... csak ott bicsaklik meg a dolog, mikor annak az egységnyi teljesítménynek az árát ki kell csengetni a pénztárnál... -
Kansas
addikt
-
hapakj
őstag
hát én úgy néztem szubjektívbe, hogy az nvidia az egységnyi teljesítmény, az AMD meg ennek a töredékét tudja hozni. Illetve az nvidia előnyben van a tensor feldolgozókkal, amihez hasonlót AMD-t is csak az RDNA3-ban pakolt először a GPU-ba, ha jól tudom. S pl a DLSS Ray Reconstruction funkciója nagyon megdobja a Raytracing hatékonyságát.
-
Kansas
addikt
Ja, ha szubjektívek akarunk lenni akkor legyünk szubjektívek: szerintem jelenleg egyik GPU-ban sincs rendes RT HW...!
Az nem rendes RT HW ami a raszterizációhoz képest olyan jelentős teljesítményvesztést okoz, hogy lenyomják érte az emberek torkán az előtte lenézett konzolos fícsörnek számító felbontás-skálázást eszi-nem eszi, nem kap mást alapon.
Az nem rendes RT HW ami a jelenleg kapható legerősebb VGA(RTX4090) használata mellett is kihívásokkal küzd a folyamatos 60fps tartása tekintetében, amennyiben a teljes RT feature-set(aka. "path tracing") használva van... abba ne is menjünk bele, hogy 6,5 évvel az RTX megjelenése után még mindig egy kézen meg lehet számolni a path tracingre képes játékokat(CP2077, Alan Wake 2, Wukong)...Igen, a sugárkövetésé a jövő... de a jelenben még igencsak bétás a fícsör... úgy hardveres, mint szoftveres oldalon.
-
hapakj
őstag
válasz
Carlos Padre #24 üzenetére
Mi a probléma a DXR-el? Milyen végleges verzió nem kompatibilis vele?
-
hapakj
őstag
A DXR eltől eltekintek. Nem volt szerves része a DX12-nek és nem része az alapkoncepciónak. Asszem kb 3 év van a DXR és a DX12 között. Igen az egyértelműen nVidiával lett kidolgozva, hiszen nekik már sok tapasztalatuk volt GPU Raytrace-szel az Optix miatt.
Pl a DX12 vs Vulkan memória kezelése. A DX12 Resource heap tierjei nem igazán feküdtek az nVidiának. Alapvetően fixek voltak a követelmények / limitációk s a Maxwell és Pascal GPU-k csak a Tier 1-nek feleltek meg. Ez nem volt túl rugalmas, a különböző resource típusoknak külön heap kellett s emiatt az aliasolás sem működött. Emiatt megnőtt a memória használatát s ez teljesítmény problémákat okozott.
Ha jól tudom a Vulkan memory modelljébe pl erősen beleszólt az nVidia, hogy az előrhető heap típusokat az implementáció határozza meg, s adott resource-hoz a leg megfelelőbb heap-et lehesenn kiválasztani. Ez lehetővé tett az nvidiának régebbi VGA-kon, hogy még dedikáltabb célú heapeket reportoljon, s egyesekkel az aliast is lehetővé tegye.Persze a Vulkan és a DX12 koncepcióiban a Mantle-ből merített. Ezzel nincs vita. Személy szerint úgy vélem a Vulkan ettől végül többet változott.
-
Kansas
addikt
válasz
Busterftw #35 üzenetére
Mi meg épp azt próbáljuk a tudomásodra hozni, hogy tévedsz.
Bizony az AMD is fixfunkciós HW egységekkel gyorsítja az RT-t, a legelső generációtól(RDNA2) kezdve.
Maga az implementáció nem egyezik meg az NVidia-éval, de ez nem is követelmény. Az Intelé se egyezik meg vele... -
Dragon3000
nagyúr
válasz
Kajoszbobber #34 üzenetére
Eleve egy fejlesztés több évig tart, ez nem úgy működik, hogy kijött vele az nvidia, akkor a következő generációnál mi is belerakjuk, ha előtte nem volt tervben, kb egy ilyen fejlesztési idővel maradtak le vele. Az a kérdés, hogy mennyit sikerül javítani az rdna4 esetében.
-
Kajoszbobber
lelkes újonc
válasz
Dragon3000 #33 üzenetére
Ez igy van, ezt alairom, viszont nem kapkodtak el, sokaig tartott mire leesett nekik hogy amugy az RT szamitasi kepessegre csak ra kene fekudni nemileg, ne csak tessek lassek alapon van de minek alapon legyen.
-
Dragon3000
nagyúr
válasz
Kajoszbobber #32 üzenetére
Ha meg soha nem kezdik el támogatni, akkor meg soha a büdös életben nem lesz egy értelmesebben skálázódó megoldásuk. Valahol el kell kezdeni, hogy azt tovább lehessen fejleszteni a következő generációk esetében.
-
Abu85
HÁZIGAZDA
válasz
Kajoszbobber #30 üzenetére
Nem elméleti szinten van támogatva. Mi is RT-vel teszteljük a játékokat, ahol elérhető. Persze az RT nagyon sok limitet jelent, hiszen elképesztően memóriazabáló, de megfelelő beállításokkal, nem elborultan szar paraméterezéssel nagyon jól működik a legtöbb VGA-n. Még a 8 GB-osokon is.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #27 üzenetére
De konkrétan azt jelenti. Ez a hardveres támogatás lényege. Amikor ez nincs, akkor tudod a DXR-t támogatni, de a shadereket használod a hardver hiányában. Ilyen volt a Pascal, ami kapott egy tök használhatatlan szoftverimplementációt.
Az AMD az RDNA 2 óta támogatja ezt hardveresen. Úgy, ahogy az NVIDIA a Turingtól, és az Intel az Alchemisttől.
#28 Busterftw : De dedikált cuccon futott. Ott van az erre tervezett részegység a textúrázóblokk mellett. Kérlek ne írj már ostobaságokat.
#24 Carlos Padre : Nem. A DXR-t közösen fogadták el a gyártók. A DXR 1.0-ban inkább az NV keze volt, míg az 1.1-ben inkább az AMD keze. Ezért sem kompatibilis ez a kettő egymással. De az 1.0-nak még mindig van értelme, még akkor is, ha az 1.1 szinte teljesen leváltotta, mert nyilván gyorsabb. De nem a gyártók miatt gyorsabb valami, hanem a koncepció miatt, ahogy működik.
-
Abu85
HÁZIGAZDA
válasz
Kajoszbobber #23 üzenetére
A szabvány nem tér ki arra, hogy mennyi metszésvizsgálatot végezzen a hardver egy ciklusban. Az a hardveres részegységet követeli. Aztán, hogy mennyi tranzisztort pazarolsz rá, már a te dolgod. De a hardveres támogatás kötelező, enélkül nem működik.
#25 Busterftw : Nem volt képes rá. Arra pusztán egy szoftveres réteg volt implementálva, ami shaderekben hajtotta végre azt, ami a hardverből hiányzott. Ezért volt használhatatlanul lassú, és ez így nem hardveres gyorsítás, mert nem volt meg benne a hardver, ami gyorsítsa.
-
Carlos Padre
veterán
válasz
Kajoszbobber #15 üzenetére
A DXR tokeletes pelda arra, hogy miert olyan a DX12 amilyen, az Nvidia belenyomtaa sajat megoldasat ugy, hogy pontosan tudtak, az nem jo, a vegleges verzio nem lesz kompatibilis vele, es feleslegesen vesztegetik az eroforrasokat vele, DE el tudtak adni vele az uj generaciot.
-
Abu85
HÁZIGAZDA
válasz
Kajoszbobber #17 üzenetére
What? Az AMD az RDNA 2 óta támogatja hardveresen a DXR-t. Nem is lehet máshogy támogatni.
#19 Busterftw : Ez teljes tévedés. Az RDNA 2-ben minden olyan hardver megvolt, amit a Microsoft megkövetelt, hogy támogatva legyen a DXR. Másképp nem működik basszus, hiszen ez egy szabvány.
Nem, nem alkalmazott hibrid megoldást az RDNA 3. Ezt vagy támogatják hardveresen vagy nem. Nincs olyan, hogy kicsit igen, kicsit nem. Az RDNA 4 is ugyanilyen lesz, csak kap egy olyan részegységet, amit egyébként a szabvány eleve meg sem követel, és nincs is hasonló a többi hardverben, de ettől a szabványt tekintve a követelmények szintjén ugyanazok a hardveres részegységek megvannak az RDNA 4-ben is.
-
Kansas
addikt
válasz
Busterftw #19 üzenetére
De, már az RDNA2 is dedikált RT hardverrel rendelkezett, csak szét volt osztva a CU-k közt, nem külön tömbben, mint az NV-nél.
Attól még, mert nem olyan a felépítésük ls a jelenlegi paradigma mellett jóval kevésbé hatékonyak, mint az NV-féle RTX magok, még bizony hardveres RT gyorsításra képesek.
-
Busterftw
nagyúr
Arra, hogy az AMD-t letolt gatyával érte az RT.
"AMD most fogja kihozni a 3. generációt a hardveres RT gyorsítást tartalmazó kártyákból."
ez nem igaz, mert még az RDNA2 sem rendelkezett dedikált RT gyorsítókkal , normal raszteren futott minden.
De még az RDNA3 is egy hibrid megoldást használt, nem fix és dedikált egységeket. -
Kansas
addikt
válasz
Kajoszbobber #17 üzenetére
Legalább valótlanságokat ne állítsunk már... az AMD most fogja kihozni a 3. generációt a hardveres RT gyorsítást tartalmazó kártyákból.
Valóban jelentősen más az architektúra mint az NV-é, de mivel az teljesen zárt, az AMD akkor se tudna hozzá idomulni, ha akarna. Ezzel együtt 100%-ban kompatibilis a DXR API "szabvánnyal"."évek alatt amd alltal szponzorált soft tracing"
Ajjajj, te itt az évek alatt valamit nagyon félreértettél... Teljes sületlenségeket írkálsz. -
Kajoszbobber
lelkes újonc
Nézd meg a felépítéset két a chipnek a DXR megalkotásának pillanataban... Maga az amd meg most fog eljutni arra a szintre hogy hardveresen támogassa az RT-t, a DXR meg eddig is megkívánta ezt. Kicsit másabb mint az évek alatt amd alltal szponzorált soft tracing amit a játékokba betettek, kis minimál shadow, pici ez, pici az de csak csinnyan mert a VGA nem bírja.
-
Kansas
addikt
válasz
Kajoszbobber #15 üzenetére
Ezt az állítást mégis mire alapozod? Mármint hogy elzárkóztak volna tőle... vagy valahogy úgy van ez ahogy én is "elzárkózok" Beyonce melleitől?
Már azon túl, hogy az NV egy generációval hamarabb jött ki RT gyorsító HW-rel... -
Kansas
addikt
Már persze ha a DXR-től eltekintesz, amit az NVidia-val rakott össze a Microsoft, és valahogy az NV hardvereken jobban is működik... biztos véletlenül van szinte teljesen az NV RTX kártyák képességére szabva... a komplett DX12Ultimate feature-csomag az NV-vel lett kidolgozva.
Nem tudom, mire alapozod, hogy a Vulkan előnyösebb az NV-nek mint a DX12, azt pedig még kevésbé, hogy a DX12-höz több köze lenne a Mantle-nek mint a Vulkan-hoz, mikor ez pont fordítva van... a Vulkan kiinduló verziója konkrétan a Mantle maga...A Wikipédiáról: "Vulkan is derived from and built upon components of AMD's Mantle API, which was donated by AMD to Khronos with the intent of giving Khronos a foundation on which to begin developing a low-level API that they could standardize across the industry"(forrás)
"On GDC 2015, AMD announced that Mantle 1.0 is becoming Vulkan, an open spec development lead by Khronos Group..." (forrás)
-
hapakj
őstag
válasz
Carlos Padre #12 üzenetére
Igazából ami érvet felhozott az egyáltalán nem előnye a Vulkannak.
S igazából az nVidia inkább a Vulkan API-t formálta, a DX12-be kevesebb beleszólásuk volt, jobban is hasonlít az AMD Mantle megoldásához. A Vulkan előnyösebb az nVidia számára.
-
Carlos Padre
veterán
"Ellentétben olyan apikkal, mint pl az opengl vagy a vulkan, ahol az extensionrendszer és a gyártóspecifikus megoldások kardinális elemként koncepció szinten épülnek fel, a directx12 alatt ezek gyengítik az api uniformitását és generikus felhasználhatóságát, ezzel a directx12 elveszti azt az egyik fő sajátosságát, aminek mentén készült, ráadásul olyan módon, ami zagyva, tákolt eredményeket kényszerít ki a szoftverfejlesztési oldalon, az api egy holdkórosok által összevissza modolt megoldás formáját veszi fel a szemünk előtt."
Egy tobol szarmazik mindketto, lehetett volna a DX12 is olyan mint a Vulkan csak hat jott az Nvidia, a tobbit meg erzekletesen leirtad
-
hapakj
őstag
Mondjuk API-ba "hekkelés" szempontjából érdemes megnézni, hogyan kerültek be OpenGL-be a compute featureörök és a hozzá tartozó memory access művelet (image load / store, buffer access)
Alapvetően az OpenGL koncepciója az volt, hogy a memory access műveletek koherensek. Ez amúgy teljesen jó és kényelmes, de itt már komoly problémát okozott volna a teljesítményben. Ezért ezek az új műveletek már szembe mentek az OpenGL sok éves alapvető koncepciójával és inkoherensen lettek definiálva. Szóval a régiek maradtak koherensek az újak inkoherensek. Ami már problémát is okoz, hogy akkor mikor is kell memory barriert használni? mikor nem?
DX12 és Vulkan ilyen szempontból ugye tiszta, mert ha ott nem gondoskodsz a szinkronizációról, akkor mindenképp hibás a kód
"These are called "incoherent" because these operations do not use the normal OpenGL memory model
" - [link] -
hapakj
őstag
Hogy támogathatott volna olyan eljárásokat, amiket a megjelenése idején nem is létezett?
Mellesleg nem igazán érzem, hogy bármi annyira utólag be lett volna hackelve.
Ez mondjuk pont nem elmondható a OpenGL és Vulkan gyártóspecifikus extensionöket is megengedő megközelítéséről, ahol egymásnak ellentmondó megoldások is bekerülhetnek, s nem egyszerű követni, hogy egy adott művelethez mi a legelfogadottabb leghatékonyabb megoldás.
Aztán végül ezek szabványos extensionökké formálódnak, majd bekerülnek a Core verzióba. (Legalábbis Vulkannal, mert az OpenGL már halott). Szóval kb ugyanott vagyunk, hogyha a fejlesztő nem akarja szivatni magát, akkor a Vulkan ugyanúgy fejlődik, mint a DirectX.
De mellesleg még mindig nem világos, hogy a DirectX 12 milyen tekintetben elavult, hogy ki lehessen használni a legújabb HW-eket. Ennek a fejlesztésnek is pl ahogy értem teljesítmény vonzata nincs. Segíthet a memória használat csökkentésébe vagy segítheti a fejlesztők munkáját.
-
Pikari
addikt
Például az, hogy a renderelésben használt legújabb technológiákat alapból nem támogatja, ezek utólag inkohézív módon lettek belehackelve.
Ellentétben olyan apikkal, mint pl az opengl vagy a vulkan, ahol az extensionrendszer és a gyártóspecifikus megoldások kardinális elemként koncepció szinten épülnek fel, a directx12 alatt ezek gyengítik az api uniformitását és generikus felhasználhatóságát, ezzel a directx12 elveszti azt az egyik fő sajátosságát, aminek mentén készült, ráadásul olyan módon, ami zagyva, tákolt eredményeket kényszerít ki a szoftverfejlesztési oldalon, az api egy holdkórosok által összevissza modolt megoldás formáját veszi fel a szemünk előtt.
-
hapakj
őstag
válasz
Carlos Padre #3 üzenetére
Tény, hogy a DX11-el is jó eredményeket ért el az nVidia, de konkrétan miben akadályozta a DX12 terjedését?
Mellesleg épp nemrég néztem, hogy a multithread rendering megoldásokat a DX11-ben épp az AMD nem támogatta. Szóval mondhatjuk, hogy az AMD akadályozta a DX11 fejlődését? -
Carlos Padre
veterán
Szoval a Microsoft valamiert ugy dontott, hogy nem tartja vissza tovabb az AMD hardvereket?
#1 Eros kijelentes azok utan, hogy az Nvidia mennyi ideig ragaszkodott az DX11-hez es gatolta a DX12 terjedeset
-
Pikari
addikt
A fő probléma az, hogy mire elkezdték nagyobb számban a fejlesztők használni a directx12-t, addigra elavult.
Új hozzászólás Aktív témák
Hirdetés
ph Az Agility SDK 1.716.0-preview csomagja bevezette a Tight Alignment lehetőséget.
- Hp USB-C/Thunderbolt 3 dokkolók: USB-C Universal, G2, G4, G5, Hp Elite/Zbook- Thunderbolt 4 G4
- BESZÁMÍTÁS! ÚJ RX 9070 300e/9070XT 340e/4070Ti S 405e/5060Ti 210e/5070 280e/5070Ti 400e/5080 540e
- LG 65B4 - 65" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready
- Lenovo Legion Pro 7 16IRX9H INTEL I9-14900HX RTX 4080 bolti ára 1.35 mill ft
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest