Hirdetés
- Fixált kábelekkel jönnek a SilverStone legfrissebb, ATX 3.1-es tápjai
- DDR5-ös Ryzenekhez való, fapados deszka tűnt fel a Colorful portfóliójában
- 1440p-s irodai EIZO monitor USB Type-C csatlakozóval
- Prezentálta az új Snapdragon G rendszerchipeket a Qualcomm
- Befutott az Intel-féle XeSS 2 fejlesztőkörnyezete
- AMD Navi Radeon™ RX 9xxx sorozat
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Steam Deck
- Raspberry Pi
- NVIDIA GeForce RTX 4060 / 4070 S/Ti/TiS (AD104/103)
- TCL LCD és LED TV-k
- Melyik tápegységet vegyem?
- Kormányok / autós szimulátorok topikja
- Mindennél nagyobb: tesztpadon a Ryzen 9 9950X3D CPU
- Fejhallgató erősítő és DAC topik
Új hozzászólás Aktív témák
-
hugo chávez
aktív tag
Köszi, ezt jó tudni.
De katt777-nek meg az a problémája, hogy abban a Win 10 verzióban, amiben már elérhető a DX12, a DX11-es alkalmazások gyengébb teljesítménnyel muzsikálnak azonos hardveren, mint egy korábbi Win-en, vagy olyan Win 10 verzión, amiben még nem érhető el a DX12. Ezért gondoltam, hogy talán valami WDDM gubanc lehet. Persze még messze nem végleges a Win 10, szóval bármilyen hiba lehet benne, csak akkor erről kéne értesíteni a Microsoftot is szerintem. -
Abu85
HÁZIGAZDA
válasz
hugo chávez #113 üzenetére
A Microsoft két lehetőséged ad a gyártóknak a WDDM 2.0-n keresztül a DX11 implementációkhoz. Az egyik a natív elérés, amikor a WDDM 2.0 legacy módjával elérhetők a DX11 funkciói és a program úgy fut DX11-en, ahogy más Windows OS-en. A másik lehetőség a DX11 wrapper használata, amikor a program valójában a DirectX 12-n keresztül fut a beépített DX11->DX12 wrapperen. Ezzel a driverből kompletten kidobhatók a DX11-es natív implementációk. Ugyanez történt a DX9-nél is. Az is már egy DX9-DX11 wrapperen megy a mai driverekben.
-
hugo chávez
aktív tag
Nem azt írtam, hogy DX12=Mantle.
Csak annyit, hogy nagyon hasonló, mivel közös alapból született mindkét API.
A gyakorlatban igazából soha lesz összehasonlítási alapod, ugyanis, ha készül egy olyan játék, ami valóban ki tudja használni az új API-k valódi képességeit, abból nem lesz DX11-es verzió.
Ezt a "DX12 rendszeren"-es részt meg úgy kell érteni, hogy egy olyan Win 10 verzión, amiben még nincs (vagy nem aktív?) a DX12, a DX11-es játékok, tesztek jobban futnak? Mert, ha igen, akkor ez szerintem valami hiba lehet... Talán WDDM probléma. Írni kéne akkor a Microsoftnak.
-
katt777
félisten
Ha megtehetik, hogy elveszik a pénzed, megteszik. Pedig lenne ellenszer, mint a Vistánál kiderült. Ha csak 1x mindenki szarna a kényszerített cserére, már meggondolnák legközelebb, hány mrd-ot ölnek bele. De ilyen úgysem lesz.
Már most mindenki odavan a DX12-től, pedig egyelőre DX11-ben is mindent visznek magas minőségben, egyébként megfizethető kártyák.
-
katt777
félisten
Objektíven? Mit nem értettél azon, amit kiemeltem, hogy nem azt vitattam, zsákutca-e a DX11. Szóval tényleg felesleges olyasmin vitatkozni, amit sosem állítottam.
Objektíven megközelítve a dolgokat, a DX12 is zsákutca, ahogy a DX9, a DX3, meg minden más az volt, mert direktbe zsákutcába fejlesztenek mindig, hogy új OS-t és hardvert lehessen eladni.
Egészen biztos vagyok benne, hogy majd jön egy Windows 12 is, amelyben megmagyarázzák, mennyire elavult és zsákutca a DX12, DX13 kell már. egészen más alapokra helyezve az újabb hardverek vezérlését.
-
katt777
félisten
Miféle zsákutca?
Egyértelmű (7-8%) gyorsulás minden játékban talán már 1 éve is (és még jó darabig), miközben a Mantle semmire nem volt jó, még abban a 2-3 támogatott játékban sem (erős procival, mielőtt valaki megint figyelmen kívül hagyná).
hugo chávez: A lényeg itt a feltételes mód.
Tudom, hogy mit nyújthatnak. Még egyiket sem láttam a gyakorlatban bármi hasznot hozni. Hogy a Mantle nem gyorsít, ha normális géped van (értsd: megfelelő CPU a GPU alá), az egyszerű tény. Anno is beharangozták, hű de gyorsítani fogja a grafikát AMD VGA-kkal, aztán szart se gyorsított. Csak a CPU kihasználtságot javította, azt is csak CPU-limitnél, de a marketing nem erről szólt, tehát ennyire hiszem el egyelőre a puszta marketinget.
Ha a DX12 Mantle lenne, úgy hívnák.Majd elválik, DX12 gyakorlatban mire lesz jó, de egyelőre csak annyit láttam Overhead tesztekben, hogy DX11-ben a VGA-m 1.5X olyan gyors, mint totál azonos beállításokkal és hardveren DX12-es rendszerben, de szintén DX11-ben, tehát már az látszik, hogy a gyorsítás mellett (DX12-ben egyértelműen látható) szánt szándékkal erősen belassítják a DX11 alkalmazásokat, hiába beszélnek kompatibilitásról (marketing). Persze, játékban még ezt sem láttam tesztelve, a bench meg ugye bench.
-
katt777
félisten
Nem speciális eset az, ha valaki körültekintően épít konfigot.
Szóval nem vagyok eltévedve, csak előre gondolkodom. Mint te is elismered: ahhoz, hogy a Mantle-nek hasznát lásd, gagyi processzor kell jó VGA alá, azaz AMD ezért csinálta (önös érdekből, nem a felhasználókért, mint általában). Ha érdemben gyorsítani akarták volna a grafikát, akkor GPU-ra is optimalizálták volna, de nem tették (ellentétben anno az nV DX11 optimalizálásával, amely MINDEN játékot gyorsított). A végeredmény: építs ésszel gépet, és nem leszel AMD VGA-ra utalva.
-
SpongyaBob
veterán
Na, most akkor akinek "gyengébb" négymagos procija van (mint pl nekem) és rendelkezik egy erősebb VGA-val - mondjuk R9280-R290x - az DX 12 alatt (elvileg) teljes mértékben ki fogja tudni használni a GPU erejét, mivel csökken a processzorra eső terhelés, jól értem?
-
sb
veterán
Egyébként amit írok és amit itt összefoglaltál az általános ellentmondás.
Mindenből jó és hatékony az egységes és standardizált dolog... egy bizonyos szintig.
Mert ami egységes az soha nem lehet hosszú távon, szélesebb spektrumban is hatékony és diverzifikált, hiszen az egységesítés lényege, hogy nincsenek eltérő koncepciók.Ha utóbbi nincs akkor pedig nincs igazi innováció, drasztikus paradigmaváltások, de még ugyanazon koncepcióra épülő egészséges verseny sincs.
Igazán újat és jobbat nem tudsz alkotni a régi szabályok és elvek alapján.
Ez mindenre igaz kb. az életben. -
sb
veterán
Az a baj, hogy az "elérhető minimumból" indulsz ki mert a jelenlegi rendszerben gondolkodsz.
Nyilván ez odáig ésszerű, hogy mindenki a minimális befektetéssel elérhető maximális haszonra hajt.
De ha ez megáll akkor változtatni kell a hozzáálláson:
1. Hol van most a dinamikusan növekvő pc hw üzletág?
2. Hol van ugyanez a dinamikusan növekvő pc játék üzletág?Sehol.
És a korábbi módszerek alapján nem is fog visszatérni - de ezt már leírtam százszor:
Mivel nincs egyszerű(=olcsó) csíkszélesség-csökkentés meg némi hw áttervezésből eredő jelentős hw fejlődés így nem tudsz eladni minden évben új cuccokat.
És következésképpen játékból sem elég kihozni a tavalyit csak kicsit feturbózott motorral, több poligonnal... amivel nulla munka van, majd az új 2x gyorsabb hw elviszi ugyanúgy, ugyanazzal az megoldással. Mennyi ideig volt divat mondjuk moddolt Q3 motorra építeni? 10 évekig...Ezeket ma már nem adod el. Ha meg nem adod el akkor behintheted sóval a játékcéged meg a hw (vga) gyártásod is egy idő után.
Szóval hiába hajt mindenki a minimum befektetésre, ha egy idő után nem tudod eladni az olcsó szart . mert gyakorlatilag erről van szó - akkor nem tudod. Valamit csinálni kell.
Lépni meg most hw felé nem lehet a fentiek alapján...
Sw oldalon meg a jelenlegi apikkal nem lehet. Ha vért izzadsz se jön ki több kraft a vga-kból jelen cpu-k mellett, ezt azért te is belátod szerintem.Low level-ben meg kijön rögtön 2-3x teljesítmény minimum.
A hagyományos utak +10-20%-ához képest nem sok egy kicsit?Lépni pedig valaki úgyis fog. Egyrészt a fentiek mellett szerintem kényszer külön bezár a bazár.
De ha mégis ellustulnák ezt a fejlesztők akkor meg abban biztos lehetsz, hogy ekkora lehetőségre legalább 1-2 ráugrik. Ők viszont olyat ugranak a konkurencia mellett, hogy a többinek is lépnie kell.Persze ez ugyanúgy csak egy terv de van jó pár logikus ok-okozati összefüggés benne.
Nem is annyira az "új koncepció" mellett, inkább az általad vázolt "régi (jelenlegi) koncepció" továbbvitele ellen. Van pár alaptézis ami 15 éve működik, ma is működik, legalábbis annak látjuk, de már ma sem az igazi... Pár év múlva meg láthatóan nem fog működni. Hacsak nem jön vmi drasztikus változás... olyan ami már 10 éve nem jön pedig várjuk. (pl. 10GHz procik...) -
arn
félisten
Szvsz idovel visszaternek vmilyen egyseges layerhez, vagy hwszinten kozelitenek egy olyan utasitaskeszlet fele, amire globalis megoldast lehet csinalni. Egyszeruen nem erdeke a swfejlesztoknek minden hwt tamogatni, es egyegy szukebb reteg jol jar, de a piac egeszere nezve lehet visszalepes lesz, ami felporgetheti a hweladasokat, de nem segiti a piacon levo hwek swes kiszolgalasat (ezaltal a swek elterjedeset korlatozhatja). Utkozni fog a hw es a swgyartok erdeke, ez a modell pedig a teljes osszehangolasra epit.
-
arn
félisten
Szvsz rosszul latjatok. A jatekfejlesztonek legtobbszor az lesz az erdeke, hogy pcn ugy fusson kb mint konzolon ("megfeleloen"), es ne az, hogy kihozzon mindent a hwbol. Persze lesznek huzocimek, amiket majd jobban megirnak, de nem fognak minden produkcio mogott babaskodni. Ez egy lehetoseg, aminel az a kerdes, hogy hasznaljak e, erdeke lesz e vkinek hasznalni. A drvnel egyertelmu, hogy a kartya eladasat befolyasolja, de egy jateknal nem biztos, hogy lesz ilyen kapcsolat.
A dolog "szepsege", hogy sose fogod tudni, hogy meg mit lehetett volna belole kihozni. A masik oldalon viszont, ha par fele enginet hasznalnak remelhetoleg azokat felkeszitik.
Masik hatuluto, hogy a drvnel a gyarto erdeke volt biztositani a kompatibilitast, most viszont ezt is atharitjak, e ha egy hw kikerul a fokuszbol, lehet mehet a kukaba, annyival lassabb lesz.
Mar mantlenal is volt olyan baki, hogy elteroen futott a ket gcnnel.
-
sb
veterán
Ugyanezt gondolom én is.
Mondjuk annyival azért árnyaltabb a kép, hogy mivel a hw gyártó driver írói helyett a játékfejlesztőnek kell megtenni így teljesen máshol keletkezik a többletköltség.De szerintem ezzel sincs gond. A játékfejlesztőnek legalább annyira érdeke, hogy több hw-n is fusson a cucca mint a hw gyártónak. (ill. mivel a hw gyártónál felszabadul a korábbi költség akár támogatásra is jó lehet)
-
Xmister
senior tag
Nem mondtam, hogy ingyen lesz ezentúl, de valószínűleg drágább sem lesz, mint eddig volt. (Főleg, hogy eddig azért a 10-20% -ért mennyit kellett szenvedni, ma meg azt olvassuk, mennyire meg vannak elégedve a fejlesztők az alacsony szinttel)
Az egyetlen dolog ami változik, hogy most a motorban kell megcsinálni azt, amit eddig a driverben csinálták. Nem hinném, hogy ez gondot fog okozni, minden nagyobb motornál ott vannak a HW gyártók megfelelő emberei, és a DX12 még mindig nem egy asm, hogy annyira specializálni kellene.
-
sb
veterán
Fordítva fogalmaznék:
Eddig SE tudták megoldani driverben, hogy jól fusson. Nekem egy 10-20%-os driver optimalizálás - ami amúgy soknak számít - lófütty ahhoz képest, hogy egy low level api-val 2-3x olyan terhelést tudsz tenni a vga-ra. Magyarul 2-3x teljesítményt kapsz.Szóval eddig ez nem ment akármennyi energiát, költséget nyomtak bele... a driverbe, játékba.
Most ha nem optimalizálnak hw szinten akkor szintén nem fog teljesen optimálisan futni a játék... de ha mégis akkor jól fog. A lehetőség legalább megvan.A játék/driver meg továbbra sem írja meg magát. Költség van vele, a kutya fáját...
Minden a bevétel/költség arányon múlik.
De ha jön egy valaki is aki mondjuk beleteszi azt a munkát és 3-4x jobban fut a játéka mint a másik fejlesztőnek akkor némi nyomás is lesz a minőség felé. -
sb
veterán
Nagyon el vagy tévedve mert egy speciális esetből, a sajátodból indulsz ki:
Olyan játékod, vga-d és cpu-d van amik szeretik egymást. Ez nem nagy csoda, hiszen mindig van egy optimális arány a két hw között és a játékokat is erre írják. Nyilván ha egy mai vga-hoz 28x erősebb proci kéne meg írnának rá egy maiaknál 50x részletesebb játékot akkor az egész konfigod használhatatlan lenne... ezért nem csinálnak ilyet.De most próbálj ebből az egyedi helyzetből kiszabadulni:
1. Tegyél be Mantle mellett egy jóval gyengébb procit: Azt látod, hogy ugyanúgy elég lesz. Nyertél vele? Ja.
2. Indíts el egy igényesebb játékot - mondjuk multiban: Látni fogod, hogy még erősebb proci kellene... Mantle mellett meg nem. Nyertél vele? Ja.
3. Képzeld el, hogy kapsz egy jóval több ojjektumból álló, jóval több rajzolási paranccsal dolgozó új játékot. Ma még nincs ilyen mert el se tudnád indítani kb. De az új apikkal lehetséges. Jobb/szebb lehet egy 1-2 nagyságrenddel többet rajzoló játék? Ja.Szóval a hsz-ed nagyon nem helytálló. Max a jelenlegi helyzetben ami egy ugyanolyan speciálisan generált helyzet mint a többi lesz.
-
Xmister
senior tag
Eddig is megoldottak az optimalizálást driverben, most meg a játék motrokban lesz, mitől lenne ez nagyobb meló?
Ezentúl sem kell minden játékba külön megírni, és ha egy arch már meg van a motorban, akkor azzal már nem kell annyit foglalkozni ezután sem.GCN-ek között pl. minimális különbségek lehetnek ilyen szinten. Azért a DX12 nem egy asm.
A bekötési szintek különbségei pedig tényleg csak számok. Beleférünk a 64 UAV-be? Nem? Akkor nem engedélyezzük az x meg y effektet.
-
arn
félisten
Persze, minden kartyara meg szintre kulon fognak optimalizalni.
kicsit mas befektetest kivan, mint korabban egy dx verziot tamogatni. Itt hwre optimalizalnak, nem apira, ami automatikusan elerhetove valik, ha a hw/drv tamogatja. Szelsoseges esetben pl lehet az egyes gcn verziora optimalizalt sw a masik verzion mar nem fut optimalisan.
-
Xmister
senior tag
M290X -hez kapcsolódóan csak a notebookcheck oldalán látok egy DX11.2 Tier1 feliratot (ami ebben az esetben a tiled resources nem támogatását jelenti, ha jól tudom), de ez nem keverhető a DX12 Tier szintekkel.
Az NV nyilván nem fogja szétkürtölni, hogy ebből a szempontból hátrányban van az architektúrája.
Hogy mekkora hátrány ez gyakorlatban, azt egyelőre nem tudni.Ha hasonlóan mennek a dolgok, mint eddig, akkor lesz 1-2 játék, ahol az AMD kártyákon több/szebb effekt futhat, de sok fejlesztő a Tier2-es szintet célozza majd addig, amíg az NV ki nem jön egy újabb architektúrával.
Ezen csak az változtathat, hogy különösebb erőfeszítés nélkül lehet majd a Tier3-as szintet megtartani egy konzolról portolt játéknál, ezért felmerülhet a kérdés, hogy miért is csökkentenék az effekteket, ha egyszerűen opcionálissá is tehetik őket a beállításokban.
-
bunfi
őstag
Egyszerűen azt jelenti, hogy valami miatt nem üti meg az elvárt szintet. De mivel egy ez egy HD 8970M, ami pedig egy mobilosított Pictrain, vagyis konkrétan majdnem egy 7870. Ami Tier 3, szóval vagy a forrás ír baromságot (belinkeled honnan van az infó az m290-ről?), vagy mi nem tudunk valamit.
-
katt777
félisten
Jó, akkor megkérdem sokadszorra: Az R9 M290X Tier 1 mit jelent? Mert számomra a te válaszodból is az jön le, nem a DX12 teljes használhatóságát.
nV-t akkor lehet támadni a nem teljes DX12 támogatás miatt is, miközben lazán rávágja a dobozokra a DX12 minősítést, holott mégsem adja? DX11-nél legalább nem írták oda, hogy .1 v. .2. Mekkora hátrány a Tier 2 az nV kariknak? 3 helyen is csak emulációt olvastam. Vagy ezt megoldják még a végleges DX12-ben? Overheadben mindenesetre egész szépen teljesítenek. -
Xmister
senior tag
Úgy látom még mindig rosszul értelmezed.
GCN-ben nincsenek Tier-ek. GCN-ben verziók vannak. 1.0, 1.1, 1.2
DX12-ben vannak Tier-ek, amik bekötési szintet jelentenek. Képzeld úgy, mint funkció halmazokat.
Tier1 a legkisebb halmaz, ez a maximum az Intel IGP-knek.
Tier2 már egy bővebb halmaz, ez a maximum az újabb Nvidia GPU-knak.
Tier3 a legbővebb halmaz, ez támogat mindent. Ide tartoznak a GCN GPU-k. (Az összes) -
katt777
félisten
Hát, én is ebből indultam ki, tehát, hogy a tier 1 tudásszintje nem éri el a tier 3-at, tehát nem képes futtatni a DX12-t, legföljebb annak egy részét (máskülönben miért emelték volna ki a 3-ast?). A többi, gondolom emuláció, ergo lassú, ergo nem éri meg ilyen kártyával DX12-zni, mert nem hozza ki a maximumot.
-
Szerintem valamit félreértesz.
Van AMD GCN 1.0, 1.1, 1.2, és talán lesz most majd 1.3. Pár helyen GCN1, GCN2, stb.-t írnak, nem tudom, hogy melyik a hivatalos elnevezés. (Olyan ez, mint nV oldalon a Fermi, Kepler, Maxwell, stb.)
A Tier 1,2,3 a dx12 bekötési szintjeit jelenti. Konyhanyelven fogalmazva a dx12 tudás szintjei.
A jelenlegi infók alapján az összes GCN felépítésű AMD kari (GCN 1.0-tól, vagyis a 7000 szériától) képes támogatni a DX12 Tier3-at, vagyis a legmagasabb szintet.
Lehetséges ebben még változás, mivel a dx12-n még az utóbbi időben is változtatott a microsoft. -
BoogeyM@n
tag
DX 13
Még a 12 sincs letisztázva mit jelent.
11-nél még legalább volt valami jó kis progi megy egy jó cikk is ahol kézzelfogható/szemmelfogható bizonyíték van mire képes és mit jelent egyáltalán, pl:tesszelláció új generációja vagy pl: poligonoknál hogy látszik elődjéhez képest (dx9 dx10) a fölénye de most csak megy a blabla.... -
katt777
félisten
válasz
hugo chávez #83 üzenetére
No de akkor a bekötési szint végül is mit jelent? Mert az biza nem Tier 3, ergo nem megy. Amúgy nem sokat jelent, mert ha van valami, ami nem éri meg az árát, az az AMD VGA-val szerelt laptop.
Mobil VGA-kat annyira nem követem, HD8970-ig voltam képben. De hogy az nV is már a DX11, 8xxM kártyákat nevezi át 9xx-re (hátha bedől a user?) a nem csúcs szegmensben, az elég gáz. Kíváncsi vagyok, mi lesz a 3xx szériával AMD-nél. -
hugo chávez
aktív tag
Rossz helyen nézted. Minden GCN GPU támogatja a DX12-t, ez teljesen biztos. Bekötési szinten meg 99% (azért nem 100, mert, mint te is írtad, a DX12 specifikációi még nem véglegesek), hogy Tier 3-at. Jelenleg ezek a legfrissebb infók erről: [link], [link]
Ja, az M290X bizony nem Tahiti. Ez egy 3 átnevezést megért kártya, kezdte HD 7970M-ként a pályafutását, aztán HD 8970M-ként folytatta, most meg M290X. Remélem, az utódja már minimum Tonga alapú lesz...
(#81) bunfi:
Ne is törődj vele, csak felakadt nála a lemez.
Látott egy idióta táblázatot egy fórumban, amit valami vicces kedvű troll, vagy NV fanboy rakott össze, aztán most az neki a Bibliája.
-
katt777
félisten
Néhány játékkal volt alkalmam kipróbálni a Mantle-t, mindenütt 1-2 FPS csökkenést hozott, GPU meg előtte is 100%-on dolgozott. Ha persze valakinek gyönge procija (és durva CPU-limitje) van, más a hleyzet, de be kéne látni végre, hogy a Mantle-t nem a GPU-k gyorsítására (akkor i5 mellett is gyorsult volna a 780XT-m, de még 6800K mellett sem
), hanem a gyönge AMD procik eladására találták ki. A DX12 más tészta, az jó VGA-kon és procikon is gyorsulást hoz.
-
sb
veterán
Azért a lehetőség erősen ott van benne.
Real-life is van már 1-2 Mantle cucc ahol igencsak mérhető a cpu és így a gpu kihasználtság javulása. Nem 10-20%-ot.Az, hogy a lehetőséggel hányan élnek majd kiderül. Nyilván el lehet vérezni sok helyen, de ehhez szvsz balf*szság kell. És ha van egy szereplő aki nem balf*sz és ír egy 3x szebb/gyorsabb cuccot akkor a többi azért megnézheti magát. Az evolúció és természetes szelekció itt is csodákra képes... nem kell mindig az egy helyben toporgó posványból kiindulni. Kicsit beleszoktunk az utóbbi 5-10 évben hw, de főleg sw oldalról.
-
parampa
aktív tag
Ez igen! Így NEM kell értelmezni a 3DMark API Overhead tesztet.
Korruption detected.
Kártyáink már Tier4 & DX13 kompatibilisek! -by ÁJEMDÉ marketing department./ már a Tier 2-3 sem volt igaz
az Elméleti maximumok Galaxisán kívül persze /
-
katt777
félisten
válasz
hugo chávez #74 üzenetére
DX12 támogatás specifikációknál láttam, hogy GCN tier 3 kell neki, nV meg ráadásul több szolgáltatást is csak emulál. Na, ha így lesz, akkor jöhet náuk a 970 után az újabb kör a "DX12" jelölésű dobozokra, mert az én kártyámén is nagy betűkkel szerepel. Persze még nincs végleges DX12, De akkor az R9M még csak nem is Tahiti.
-
arn
félisten
válasz
gyilkos répa #72 üzenetére
Szvsz a nativ felbontasban futast egy idore el kell felejteni ha 4k fole novelik a felbontast. Jo lesz egesz osztos felbontasban is, ugy nincs interpolalva. Perpill a 2d is nyogvenyelos lesz.
-
hugo chávez
aktív tag
"PS4/XO kb egy 1,6ghz-n járatott alacsony fogyasztású FX8120 és egy HD7850-nek felel meg"
Szerencsére nem. Semmi köze nincs a PS4/XBO APU-k CPU részének az FX 8120-hoz (Bulldozer architektúra). A Jaguar-ra épülnek, melynek jóval nagyobb az azonos órajel melletti mag(szál)szintű teljesítménye, mint a Bull-nak.
(#71) katt777:
"Tényleg, a mobil R9 290X-szel mi a helyzet? Mert az TIER1, a DX12 támogatást meg TIER3-tól írják GCN-en."
Hogy miiiiiii? Mit írnak és hol?
Egyébként az M290X Pitcairn GPU-s, vagyis az asztali HD 7870-en lévővel azonos. -
gyilkos répa
tag
Nem várok megváltást a dx12-től, kis előrelépést várok. Az már szerintem elvárható lenne egy csúcskategóriás kártyától ma is, hogy valamivel full hd felett sima játékélményt nyújtson.
Elképesztő, ahogy tolják a 4k (és már 8k!) kijelzőket, amikor a kártyák sehol nincsenek hozzájuk. Itt, ahogy írok, például az Asus 4k gamer kijelzőjét látom a háttérben teljes oldalas reklám formájában. Minek? Csak a szívás van velük.
Persze én csak kismókus vagyok.
-
katt777
félisten
Akkor nézz meg egy tesztet DX11-ben és DX12-ben, legelsőre a DX11 mód eredményét fogja kidobni. Ez az, ami 33%-kal gyengébb DX12-es rendszer alatt, hiába megy, ahogy magad is mondtad (és én is), DX11-ben. Jó páran megnéztük 970/980 topicban. W10 alatt ekkora lassulás volt, de nekem is sikerült feltennem egy W10-et, amely alatt még nem futott a DX12 mód, és akkor is 50%-kal gyorsabb volt a DX11, mint aktív DX12 esetlén. Nem véletlenül mondtam, hogy ez nem véletlen.
Tényleg, a mobil R9 290X-szel mi a helyzet? Mert az TIER1, a DX12 támogatást meg TIER3-tól írják GCN-en.
-
Duck663
őstag
válasz
gyilkos répa #64 üzenetére
Dehogy, csak nem figyelted!
Én is csak Mantle-lel teszteltem, az megy Win7 alatt is, Win-ből meg megvárom a 11, 12 vagy 13-at, remélhetőleg addigra megszabadul az M$ a jelenlegi agyrémségétől.
-
arn
félisten
válasz
gyilkos répa #68 üzenetére
A jovoben is fog... Most komolyan elhiszitek, hogy a dx12vel minden szep es jo lesz? A laikusok a valtast sem fogjak eszrevenni.
-
gyilkos répa
tag
válasz
rambustibi #65 üzenetére
Köszi! A Windows 10-zel szerintem megvárom a végső release-t, nincs kedvem bajlódni a bétákkal...addig kivárom a dx12-t is, és remélem, hogy tényleg lesz valami ugrás, mert zavar, hogy 2560x1440 felbontásban azért még a gtx980nal is döcög némelyik játék...
-
arn
félisten
Ennek a tesztnek kb annyi ertelme, mint anno a tobbi kisarkitott featuretesztnek. Gyakorlatban meg total masok lesznek az aranyok. Mar ha tenyleg optimalizalnak dx12re altalanosan.
-
rambustibi
őstag
válasz
gyilkos répa #61 üzenetére
win 10 kell hozzá a legújabb build-el (talán a 10049), kell hozzá nvidia driver ez: 349.88 (bár most jött ki a 350.05, de ezzel nem tudom működik-e)
Nagyjából ennyiBuild frissítés után tedd fel az nvidia drivert (ha esetleg a régebbi build verzió lenne meg, amit a microsoft oldaláról lehet letölteni), ez fontos. Ha nem így teszel akkor a build felülírja a dx12-őt dx 11.2-re és nem fog működni, csak akkor, ha újra felrakod az nvidia drivert.
-
Duck663
őstag
válasz
gyilkos répa #61 üzenetére
Win 10 kell hozzá.
-
PuMbA
titán
-
gyilkos répa
tag
válasz
rambustibi #57 üzenetére
Te hogy bírtad rá a 3dMarkot, hogy a dx12-t is mérje? Nekem ott API not supported szerepel.
Gyr
-
Peat;)
veterán
Te milyen tapasztalatok alapján írod amit írsz? Mondanál egy azaz egy olyan játékot ami konzolon szebben fut mint a megjelölt i5+960-as pároson? Ha így lenne én sem vacakolnék, várakoznék, jönne egy ps4 és kész, de messze nincs így. Mindkét oldalon volt 1-2 exkluzív (nem multicím amikről te írsz) ami elég szép, de messze nem evolúciós lépcsőfokok. Én mint sima konzol, ilyen olyan hype nélkül is többet várok a gépektől, gyakorlatilag a szokásos konzoloptimalizációt látjuk eddig, azt hogy ténylegesen kihasználják a gépeket vagy odébb van vagy nem nagyon megy.
Ez a teszt meg érdekes, ez alapján a 750ti jelenleg előnyöket élvez directx11 alatt a 290-el szemben, nos én azért mégis 290-esre böknék inkább....
Kb ennyi lesz a jelentősége directx 12 alatt is.
-
Pekkk
aktív tag
válasz
gyilkos répa #49 üzenetére
Lesz előrelépés, ha támogatja a DX12-t és nem legalsó kategóriás kártya. Azt nem írtad, hogy milyen.
Mondjuk a R9 285 elég jó választás volt aki azt vett. Ár érték arányban a tesztek alapján nagyon ott van.
-
rambustibi
őstag
válasz
gyilkos répa #49 üzenetére
Nem követtél el hibát, van számottevő előrelépés DX12 alatt, nyugi
VGA alapon:
VGA húzva: -
rambustibi
őstag
Nem teljesen így látom. Ugyanúgy fogják venni a hardvereket..miért is? Mert igaz, hogy a mostani játékoknál nő az fps, de a felbontás sem marad 1900X1080
4K-hoz pedig kell az fps és kell a hardver is. Szóval szerintem valahogy szintbe hozzák a 4K vs megnőtt fps szintet, mert a jelenlegi játékokkal és technikával igen combos gép kell 4K-ra magas fps számhoz.. A G-sync és Freesync csak egy szint felett megoldás..
Kijött a 4K-s 144Hz-es monitor..és? A displayport 1.2 és a hdmi 2.0 egyaránt 4K-n 60Hz-et tud.. szóval van hova még fejlődni és a hardver eladások nem fognak megállni.. -
Loha
veterán
Az említett gépen minden játék szépen fut és futni is fog még jó ideig, konzolos felbontásban, konzolos fps-el, konzolossal egyenértékű grafikai beállításokkal, de a többség nem azért tart játékos PC-t, hogy konzol minőségben élvezze a játékokat...
tudom pc fronton 60+ az elvárt de ez a lényegen nem változtat
Szerintem elég lényeges, hogy 30 helyett 60 fps-hez kb. kétszer olyan erős VGA kell, és akkor jön még a nagyobb felbontás...el kell tudniuk adni a bazierős VGA-kat
4k-s megjelenítők mellett, semmilyen mesterséges igény generálásra nincs szükség. -
Z10N
veterán
A 7400k nincs is elmaradva a dupla akkora testvereitol, ezekszerint jo valasztas volt.
-
Sinesol
veterán
válasz
gyilkos répa #49 üzenetére
Ha támogatja a Dx12-t, akkor biztosan lesz valami előrelépés.
De szerintem korán van még Dx12-ben gondolkodni. Idén nem valószínű Dx12 játék, jövőre talán lesz már néhány. Kb. 2017-ben lesz általánosan elterjedt, addigra meg úgyis érik egy vga csere.
Addig meg a szokásos felállás van, ugyanazt az fps-t hozza mindkét oldal. -
7time
senior tag
válasz
gyilkos répa #49 üzenetére
Majd elválik, egyelőre a tesztek alapján hibát, a játékok majd megmutatják a valós képet.
-
gyilkos répa
tag
Akkor most azt mondjátok meg lsz, hogy a dx12-vel az nvidia kártyámon lesz-e számottevő előrelépés, vagy hibát követtem el, mikor nem amd kártyát vettem?
-
Cseneles
őstag
válasz
wednesday #46 üzenetére
Nézzük csak.... PS4/XO kb egy 1,6ghz-n járatott alacsony fogyasztású FX8120 és egy HD7850-nek felel meg
ennél szinte minden komolyabb játékosnak erősebb a gépe
ki a franc költene erősebb gépre ha ezek is bőven futtatják 30-60Fps-el a mai játékokat és még a fejlesztőknek köszönhetően vagy 5 évig futtatnák? tudom pc fronton 60+ az elvárt de ez a lényegen nem változtat... persze játszhat valaki egy dual Xeon alapokon nyugvó géppel is de minek is mikor a gyorsulás nulla!! A lények ,hogy jó irányba tartanak a fejlesztések felhasználói szemmel viszont ez a piacnak nem érdeke...el kell tudniuk adni a bazierős VGA-kat és CPU-kat....de még a CPU haggyám mert azt az ipar is kihasználja!
-
wednesday
őstag
Én nem így látom.
Nem csökkene, pont, hogy kis lökést adhatna neki. Olyan nincs, hogy elég erőforrás. Pillanatok alatt "el lehet költeni" a nyert teljesítményt.
Legalább tényleg látványosabb és/vagy összetetebb játékok jelennének meg, mint a mostani langyos állóvízben. Kinézetben egy 2010-es és 2014-es játék között van, hogy hirtelen nem mondod meg melyik az újabb. Ez a 90-es évek végén, ezredforduló elején nem így volt. Ott 2 év is nagy különbséget jelenthetett.
-
sb
veterán
1-1 közeli volt inkább a fogysztás, az nv kicsit előtte is jobb volt már a 7-es szériával. De az nem volt nagy különbség. Maxwell óta viszont jelentős és kézzelfogható.
Nem megijedni kell tőle vagy fikázni. Rosszak nem voltak ezek a kártyák. De jók se... mármint annyira amennyire várható lenne.
bunfi
A fogyasztás vagy elhanyagolható vagy nem. Ez egyéni preferencia és felhasználás függvénye. Én szoktam rá figyelni olyan mértékben amennyire nekem megéri.
De a lényeg soha nem ez, hanem ahogy írtad: a hőtermelés, hűtés, tápigény (és annak hőtermelése, hűtése)...Szóval a fogyasztásban van 3-4 fontosabb tényező, mint önmaga. És ezek a tényezők igencsak jelentősek szerintem az átlag számára aki.
-
BoogeyM@n
tag
De ha tudod akkor már tudsz is tenni vmit
veszel egy 2.2-est
[
3d furmark genyóról meg az a véleményem hogy egy elég nagy szarság anno mikor a dx11 kijött még kb 2009 környékén sehol nem voltak, nem voltak felkészülve rá mert nem volt tesztprogramjuk se hozzá
le voltak maradva és évek kellettek mire elkészítettek egy teszt programot hozzá mikor már mások rég túl voltak rajta na most egy ilyen cég akar itt spanyol viaszt adni mennyire lehet alapozni egy ilyen cégre
amúgy is nem teszt programmal játszunk akármennyi pontot is adjon hanem az a program/játék a lényeg és az fps azon kell jól teljesíteni.
Nem hiszem hogy sokáig ezzel eltud játszani valaki hogy nyomkodja fúrmákját és nézegeti a fényes pontjait bár lehet vannak ilyenek akik csak ezen játszanak egész nap -
Cseneles
őstag
így igaz
Itt nagy változás nem lesz Fps terén...túl szép is lenne h mindenki még vagy 5 évig nem cserélne hardvert
lennének problémák a gyártóknál
Egy abszolút megoldás a játékosok számára nem más mint egy billentyűzet és egért támogató kicsit erősebb konzol mint a PS4/XO ami mondjuk kitolna 75Fps-t stabilan minden játékban 1080p-ben
Multisrészt külön szedni kontroller/bill-egér és nem lenne felháborodás sem
Ha ez akár 200000Ft-ba is kerülne... igen erős alternatíva lenne a játékosok számára...
Tuti elsők között rendelném
-
Sinesol
veterán
Nemsok értelmét látom ennek a cikknek.
Mégis mit számít az nekem hogy adott progi/játék alatt miért nincs meg a kellő teljesitmény...Csak azért mert tudjuk, hogy mi a korlátozó tényező, attól még nem lesz több teljesítményünk.Sarkított példával élve, pl van egy játek aminek kell 2.2gb Vram, de nekem csak 2 gb van, ezért akad. Attól hogy ezt tudom, nem vagyok előbbre, nem lesz hirtelen akadásmentes játék csak mert tudatában vagyok a problémának.
-
bunfi
őstag
Pontosan, azt a pluszt nem kaptam meg. A fogyasztásra meg teljesen felesleges apellálni (éves szinten nem tétel a jelenlegi energiaárakkal), maximum a hőtermelésre, de tekintve, hogy az AMD soha nem tiltotta a saját tervezésű hűtők használatát (ellenben a Titannal), ez nem olyan marginális probléma.
#32 nekem sem ez az első (2900XT, 5770, 5850 és most a 290), de az nVidia driveres és Meant to be played kampányai néha betettek, hogy a legjobb példát említsem GTA IV, amit még a 290-el sem tudtam játszani olyan színvonalon játszani, ami elvárható lett volna.
-
sb
veterán
Azért nem szívtál, mert kb. egálban volt a két gyártó. Viszont plusszt sem kaptál sajnos amit kaphattál volna a papíron fejlettebb architektúrától.
A Maxwell óta meg azért a teljesítmény/fogyasztás mutató már erősen a zöldek felé billen, szóval azóta meg inkább negatív sajnos a kép. Továbbra is tudva, hogy elvileg fejlettebb a GCN... de hiába, ha ez nem jön ki.
De majd idén... -
Kicsimix
őstag
válasz
#06658560 #26 üzenetére
A konzolok is az amd architektúráját használják. Nyilván a microsoft és a sony is tudta, hogy ez egy előre mutató dolog és ezért az amd-t bízták meg a fejlesztéssel. De ezt az arcitekturát az amd már jóval azelött vizionizálta mielött belekerültek a konzolokba. Már elötte is jelentek meg GCN-es vga-k amik kicsit meghaladták a korukat de a szoftveres oldal nem volt adott a teljesítmény normális kihajtásához. Ezt tudta az amd és ezért hozták létre a mantle-t ,hogy megmutassák több lehetőség van ezekben a vga-kban de a szoftver rossz. Sajnos akkor még egyoldalú dolog volt és nem sokan támogatták ezért elhalványult kicsit a mantle remény. Visszatérve ..Idővel megjelentek a konzolok amik ugye technikailag amd kezei közül kerültek ki így már egységesebb kép tárult a fejlesztők elé mivel lett egy kis átjárhatóság a platformok között is.(pc-konzol).. Mivel a ms konzoljában és a sony konzoljában is amd dübörög és az amd megmutatta, hogy elméletileg gépen is hatékonyabbak lehetnek a dolgok ezért az Ms a win10-et már úgy tervezte, hogy ez a kompatibilitás valamilyen szinten megmaradjon és a fejlesztők dolga könnyebb legyen a dx12-vel a teljesítmény növekedésével együtt . Tehát de. A mantle-nek nagyon is volt köze ahhoz, hogy ennyire beindultak a dolgok. Az új dx is és vulcan is épít az amd ötleteire. A mantle hibája az volt, hogy akkor még csak az amd kártyáira volt jó.Most az, hogy csak az amd nevéhez köthető. Ezért csinálnak új egységes apikat amik szintén nagyon fekszenek az amd-nek..
-
Duck663
őstag
Az a baj, hogy hiába jobbak a hardvereik, nagyobb tudásúak, ha senki és semmi sem támogatja őket. Lásd DX11.1 és 11.2 nincs ami használná. Még techdemó se. Így hogy várnak fellendülést? Ezeket mind nyomni kellett volna. Most ugyanez a helyzet a True Audioval, Senki sem használja, mert nem nyomják. Az Alien Isolationba is bele kellett volna tenni, nem azon szarakodni, hogy elfut CPU-n is, azzal egy szem hardvert sem fognak eladni. 0 üzleti szemlélet van az AMD-nél, nem is tudom valami jótékonysági intézménynek gondolják magukat, vagy nem tudom, de ha ezt így folytatják tovább pár év és csőd lesz a vége. Ez így nem működik. Ha nem lenne a két (három) konzol, akkor már most csődben lennének.
-
bunfi
őstag
Elméletileg. Ugyanis elméletileg hosszú hosszú évek óta az AMD gyártja a technológiailag és számszerűsített teljesítményben jobb kártyákat. Milyen kár, hogy szoftveres oldalról ennek éppen az ellenkezője mutatkozott meg. Ennyi év AMD-s szívás után én már reménykedni sem merek.
-
sb
veterán
De az is lehet, hogy a konzolokba is legyártották az API-t, a hozzá illő hw-vel és csak a véletlen műve, hogy nagyon hasonlít a Mantle-re/DX12-re az ottani API.
Ezt soha nem értettem, hogy miért lényeges mi volt előbb... egy jól behatárolt helyről és kb. ugyanaz jön most akár PC-ről akár konzolról beszélünk.
-
Cseneles
őstag
válasz
#06658560 #26 üzenetére
Az is full AMD hardver szerintem olyan szinten nem fogja soha kihasználni a játék a hardvert mint konzolokon pedig nem lenne akadálya
Mivel fogyasztói társadalomban élünk ez senkinek nem kifizetődő és a gyártóknak is el kell tudni adni az új videó kártyákat és a folyamatosan meg újuló hardvereket
-
bunfi
őstag
Vagy a nemrég az AMD-hez visszatért (az Inteltől) APU vezető mérnök esete.
#25 Nagyságrendileg én is így vélekedem. Jó lenne ha szavatolnának némi elavulási időt a ma megvett csúcshardverekre...
#26 Az csupán a véletlen műve lenne, hogy épp ők gyártották/tervezték a konzolokban lévő APU-t? Nem. Ezt a fejlődést ami elindult nagy részben az AMD-nek lehet megköszönni felekezeti hovatartozástól függetlenül.
-
Cseneles
őstag
A Játékipar nagyon nagy húzóerő a PC fronton...ha összehoznának egy olyan API-t mint PS4/XO-n hatalmasat csökkenne a hardverpiaci eladások száma...ez egy ördögi kör amit kénytelenek fenntartani...mesterséges gépigények a hardver eladások miatt! Példaképpen ha konzolnak adnának Billentyűzet és Egér támogatást rengetegen átpártolnának
Senki nem költene 3*annyit egy PC-re, hiába drágábbak ott a játékok akkor is ha veszünk egy 5 éves intervallumot még mindig olcsóbb rengeteggel arról nem is beszélve h támogatod az eredeti játékvétel miatt a játékipart! Ha normálisan megírnák pc-re a dolgokat..maradjunk AMD oldalon..egy FX8350 és R9 290 kombóval még legalább 5-6 évet ki kellene húzni a felhasználóknak FullHD felbontásban magas részletesség mellett..de ez az iparnak nem éri meg
Kövezzetek meg ha rosszúl látom
-
Cseneles
őstag
AMD vs Nvidia az mindig volt van és lesz
Én példa értékűen tekintek az AMD elmúlt 4 évére...
elindítottak valamit a MANTLE-vel amit kényszerből de követni kell a Microsoft és a játékiparnak is! Ha egy PS4/XO képes szinte azonos grafikai minőségben FullHD-ban futtatni a mai modern játékok zömét 30 de van amelyiket 60 fps-el....akkor illene ezt egy mai középkategóriás(i5/FX6300,R9 270X/GtX960) PC-nek is teljesíteni
-
-
bunfi
őstag
Ha valaki nem akar támogatni valamit, akkor egyszerűen le kell tiltani és kész. Ettől a játék még tökéletesen futni fog.
Tehát akkor folyik majd tovább ez az értelmetlen pártoskodás a két nagy gpu gyártó (és híveik) részéről a játékokat tekintve? Mert akkor sokat nem haladtunk előre, a kihasználtság pedig továbbra sem lesz elfogadható szinten...
-
Abu85
HÁZIGAZDA
Nem értem miről beszélsz. A DX11 és a DX12 két teljesen különálló API. Az egyik nem fut a másikon belül. Egyáltalán nem kompatibilisek egymással. Ha valamit DX11-re írsz, akkor az nem fog futni DX12-n.
(#13) GeryFlash: Az menedzseli a hardver működését. A low-level API-kban eltűnik. A DX12-ben még definiálva van, de csak erőforrás kreálással kapcsolatos funkciókra. Valójában nem fog futtatni semmit.
-
katt777
félisten
Fent erről beszéltem. A DX11 játékok DX12 alatt látványosan lassabban futnak majd, mivel 33%-kal be vannak lassítva (a teszt szerint, és megnéztem jó párat, vmint magam is teszteltem). Ide fogunk kilyukadni. El kell adni a W10-et (mintha nem lehetne beépíteni akár W7 alá is).
-
Abu85
HÁZIGAZDA
Valószínűleg lesznek olyan játékok, ahol már egyáltalán nem foglalkoznak a DX11-gyel, és ez már idén is opció lehet. Ilyenkor az AI-ra komoly extra teljesítmény áll majd rendelkezésre.
A grafika az mindegy, az skálázható. Ha valaki nem akar támogatni valamit, akkor egyszerűen le kell tiltani és kész. Ettől a játék még tökéletesen futni fog. Itt a lényeg, hogy tűnjön el a driver, ami most megakadályozza a szimuláció fejlődését. -
RyanGiggs
őstag
Milyen érdekes, hogy DX12 alatt mennyivel gyorsabb egy 60ezer Ft-os R9 285 egy 160 ropis GTX 980-nál. Ha-ha-ha
-
Abu85
HÁZIGAZDA
Szálat, de a legtöbb processzoron egy szálhoz fizikai erőforrások tartoznak. Csak a Hyper-Threading a kivétel.
A játékok szimulációja évek óta stagnál. Hiába erősebbek a procik, a grafika minősége nő, és ehhez több erőforrást vesz el a driver. Maguk a játékok egyébként nagyon skálázhatók lennének, ha nem lenne akadály előttük az aktuális programozási modell. Az, hogy a driver rengeteg soros feldolgozást kényszerít ki, abszolút nem segíti azt, hogy a fejlesztők jól használják a többmagos procikat. Ezért lesz hatalmas előrelépés, ha a kernel driver szerver szálak eltűnnek.
-
bunfi
őstag
De ezzel hova lyukadunk ki? Látványos a javulás, a grafikonokon, de mit fog ez eredményezni a valóságban? Mert mindent szoftveroldalról kell támogatni és ott bizony nagyon keményen figyelembe kell venni, hogy a felhasználó milyen hardverkiépítéssel rendelkezik. Profánul megfogalmazva, hiába a DX12, ha nem tudja/akarja ugyanolyan szinten támogatni mindhárom nagy hardvergyártó, mert az elképzelhetetlennek tartom, hogy 30-50-100 fps különbségek legyenek a játékokban... Vagy én látom a kérdést rosszul? Hiszen eddig is kb. semmilyen fejlődést nem váltott ki HD7000 széria, mivel csak az AMD által "támogatott" asszinkron compute nem lett implementálva.
-
Duck663
őstag
Nem! A driver működése más. Amúgy benne van a cikkben a válasz! "Például a DirectX 11 teljesítménye főleg attól függ, hogy a grafikus meghajtó mennyi kernel szerver szálat enged futtatni."
Az AMD egy szálon és több szálon is azonos teljesítményt produkál, tehát a driver erre csak egy szálat használ/foglal le, míg az nv esetében többet.
DX12/Mantle alatt a driver nem foglal le egy vagy több szálat erre, hanem az összes rendelkezésre állót használja, DX12 esetében 6 szálig Mantle esetében 16 szálig. (szintén ott van a cikkben)
-
GeryFlash
veterán
Magot vagy szálat? Azért 3 magot elvenni kicsit erősnek hangzik, gyakorlatilag egy teljesen szabad magon fut akkor a játék? Jó értem hogy nem foglalja le teljesen a grafikus driver a procit de azért nekem ez durván hangzik. Meg az is, hogy ezek után a játékok még elég 4 mag, tehát még mindig nem tud kihasználni csak a játék 4 magot?
-
katt777
félisten
Nekem csak annyi a kérdésem, hogy teljesen ua. hardveren DX11-ben miért 1.5X akkora a DX11 pontszám, mint DX12 alatt DX11-ben? GTX970 esetében 1.8M vs. 1.2M. Csak nem azért, hogy látványosan legyen gyorsabb a DX12?
(Mintha amúgy nem lenne.) Mert más okot nem nagyon látok.
-
Abu85
HÁZIGAZDA
Ez teljes tévedés. Pont ugyanúgy lehet drivert írni, csak nem minden a grafika, így jó lenne, ha az AI-ra is maradna például processzoridő. Ez egy nagyon bonyolult probléma, ami igazából eléggé érinti a felhasználókat. Az AMD a saját driverét megpróbálja úgy alakítani, hogy lehetőleg csak egy-két mag kelljen a működéséhez. Az Intel is nagyjából így van, míg az NVIDIA drivere már három magit is elvesz, ami egy kétmagos procinál igen kellemetlen. Ez a fő oka annak, ami miatt ma a minimum gépigényekben négymagos proci szerepel. Túl sok magot elvesznek a driverek, és valamin még a szimulációt is számolni kell. Ez egy óriási hibája a mostani modellnek, és főleg ezért nem fejlődik a szimulációs része a játékoknak. Ezért lesz komoly előrelépés a DX12. Eltűnnek a kernel driver szerver szálak.
-
flashpointer
őstag
Azért ugyanolyan mérési eredményeket érdemes lenne ugyanolyan skálázású tengelyen megjeleníteni, (Persze azt látom hogy nem itteni az ábra) netalántán velük egy grafikonba, így nem kellene kibogarászni és utánaszámolva összehasonlítani az igp és vga-k egymáshoz való képességét hogy pl a 750Ti-nek dx11-ben több mint háromszoros pontja van az amd igp-vel szemben, dx12-ben az utóbbi majdnem utoléri.
-
bodo753
tag
Az nvidia dx 11 alatt majdnem 2x többet tudott kirajzolni az amd-nél,ez jelentheti azt hogy ennyire jobb drivert tudnak írni a zöldek?mert akkor az amd már tényleg jobb lehet.
-
Z_A_P
addikt
Not bad!
Elnezve az eredmenyeket, lesz meg "elhibazott koncepcio az egesz DX12" - az intel/nvidia szovivoi szerint.
Új hozzászólás Aktív témák
Hirdetés
ph Az új, DirectX 12-re kihegyezett tesztprogramtól csak úgy forrnak az IT fórumok, de első látásra nehezen értelmezhetők az eredmények.
- ÁRGARANCIA!Épített KomPhone i5 14600KF 16/32/64GB RAM RTX 4070 12GB GAMER PC termékbeszámítással
- Magyarország piacvezető szoftver webáruháza
- Bomba ár! Lenovo ThinkPad T580 - i5-8G I 16GB I 256SSD I 15,6" FHD I HDMI I W11 I Cam I Garancia!
- AKCIÓ! Lenovo IS8XM LGA 1150 DDR3 alaplap garanciával hibátlan működéssel
- LG 77B3 - 77" OLED - 4K 120Hz & 0.1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - 700 Nits
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest