Hirdetés
Új hozzászólás Aktív témák
-
Pikari
addikt
asszem maradunk oglnél.
-
Coolmat
őstag
Az új 301-es nvidia driverrel erre lettem figyelmes, GTX560TI-m van:
Ezek szerint mégis támogatott lesz Fermin is a DX11.1?
-
szmegma
aktív tag
Egyebkent ez egy letoltheto driver?
Nem igazan ertem, hogy ha van 7850-es kartyam ami tamogatja ezt, akkor kellene egy driver ehhez nem? -
Ł-IceRocK-Ł
veterán
Tiszta víz a pohárban.
-
SylverR
senior tag
Értem. Szerintem annyira nem vészes amúgy az árat tekintve. Minden generációváltásnál az van, hogy az előző generáció árai csökkennek. Most is. A 6800 mikor megjelent, dupla annyiba került mint most. Szóval a jelenlegi ára csupán raktársöprés.
Bár tény, jobb lenne ha egy 10-essel olcsóbb lenne mindkettő. Ugyanis kicsit tényleg helyben toporgó a teljesítmény. De végre legalább a fogyasztás alacsony lett.Igen, ezt tudtam, hogy erős 4 magos kell neki. Llano mennyire lenne jó GTA4-re?
-
Abu85
HÁZIGAZDA
A Cape Verde az nem lassú, csak drága. A Barts nem sokkal drágább és az a mai játékokban gyorsabb. Az új architektúrát az AMD egyértelműen általánosra tervezte. A compute teljesítmény került a középpontba. Nyilván ezeknek is megy a grafika, csak a compute tempó több tranyót igényel. Az AMD a GPU-nál már nem csak a grafikára gondol, hanem a számításra is. Olyan a GCN, mint egy széles vektorral megspékelt többmagos processzor. Az architektúra fel van készítve még a natív C++ kódok támogatására is. Ez az OS-ek limitációi miatt egy nehéz ügy még, de nem kérdés, hogy erre kell menni, mert csak a GPU-val skálázható a teljesítmény.
Az ENB az meglepően jól megy a GCN-en. Nyilván ennek az az oka, hogy az általánosabb felépítés jóval kedvezőbb a számításoknak. Boris módja nem túl bonyolult, de sokat számol, ezért teljesítménygyilkos. Ami eléggé számít neki az a TFLOPS tempó, és a memória-sávszélesség. Na most ugye a VLIW-es Radeon a TFLOPS-ban etalon, de az grafikára készült, így nem lehet mindenhol megfelelően etetni. A Fermi ebből jó, de a nyers TFLOPS meg kevés. A GCN és a Kepler már jó erre az ENB-re. A GCN-ről van tapasztalatom, de a Kepler is hasonlóan reagálhat rá, tekintve a mód összetételét.
A GTA4 inkább a processzorra érzékeny. Ha gyors négymagosod van, akkor nem lehet gond. A VGA másodlagos szerepet tölt be ennél a játéknál. Technikai oldalon a mai szinten gyengének számító VGA is elég, ha megvan hozzá a proci. Az ENB-re persze kell a VGA oldalon is a kraft.[ Szerkesztve ]
-
SylverR
senior tag
Megnéztem a képeket, de lévén élőben, nem igen láttam még a GTA4-et, nem tudom összehasonlítani semmivel a képeid. Amúgy tényleg jól néz ki, azt elismerem.
Ami miatt írtam amit írtam, az az, hogy régebbi játékokkal, amik már ezen a hardveremen gond nélkül futnak, próbálkoztam már ilyen grafikus pecsekkel, de általában vagy nem működtek, vagy nem voltak sokkal jobbak, vagy belassították.
Szóval a nem hivatalos cuccokkal kapcsolatban mindig is szkeptikus leszek picit.
De még a hivatalosnál is az áll inkább, hogy: tedd fel, játssz. Ha hibás, nem jó, patcheld. Ha jó, hagyd inkább, mert a patch lehet csak mégtöbb bajt okoz.
Ez főként a régen megjelent játékokra igaz, tudom, hogy manapság nagyon gyakoriak a félkész játékok a piacon. De ettől függetlenül, nem érdemes rögtön agyon patchelni még most se a dolgokat szerintem.@Abu85:
Most már csak azt nem értem, hogy akárhova nézek, mindenki fikázza a Cape Verdét, hogy lassú, te meg most azt sugallod, hogy az agyon efektelt ENB-s GTA jól menne rajta. Most akkor mi is van?Azt tudom, hogy az én céljaimnak bőven megfelelne.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ezekhez az ENB módokhoz számolás van, de marha sok. Tipikusan fekszik az egész a GCN architektúra számolásra kihegyezett CU-jainak. A GTA4-es módokat én próbáltam, azok kivételesen tetszettek. Elég sokat vesztettem anno a HD 5850-nel. A HD 7850-en jóval kevesebbet vesztek. Tipikus architektúrából eredő különbség. Lehet az elméleti TFLOPS két rendszernél azonos, de a GCN teljesen más felépítést használ, így nagyon jól kihasználható számításra, szemben a grafikára tervezett architektúrákkal. Az ilyen ENB módokat az új generációs Radeon feltűnően gyorsan számolja, legalábbis a GTA4-es tapasztalatok alapján.
(#164) Löncsi: Nem egy gyártó számít a motornak. Az architektúra az ami dönt. A gyártót nem is látja az ENB mód. Ráküldi a szabványos shadereket a rendszerre és számolni kell azokat. Minél gyorsabban számol egy GPU, annál jobb lesz az eredmény.
[ Szerkesztve ]
-
Löncsi
őstag
Én megértem, a rosszul beálított DOF/Blur valóban zavaró, de ezeket ki lehet kapcsolni, GTA-hoz való ENB modokban javarészt nincs is alapértelmezetten bekapcsolva.
Itt van néhány állókép kép amit én csináltam, így lehet jobban meg tudod nézni.[link]
HD7770 lehet esélyes, csak GTA tipikusan nV-s játék, így nehéz megmondani, hogyan menne, ráadásul nálam az EFLC némileg jobban is futott. Húzott, 1GB-os GTX460-al átlag 30fps simán megvan, azzal teljesen játszható.
-
SylverR
senior tag
Nincs erre alkalmas hardverem, mint írtam, videón nézegettem.
A GTA4 ENB-jére nem mondom, hogy nem szép. De az ilyen blur-os dolgokat én élből kikapcsolnám, mert fölöslegesnek tartom. Amikor különböző pontokra fókuszálsz a szemeddel a képre, ígyis úgyis elmosódik a többi részlet, szóval fölösleges. Ráadásul még hányingert is kelt. San Andreasba levő motion blur tetszett eddig a legjobban.
Visszatérve a videólinkedhez, szép. Nagyon szép. De nem hiszem, hogy ez szépen futna egy HD 7750-en, vagy 7770-en. Attól nagyobb vga nem igazán érdekelne. (fogyasztás, melegedés, és zaj miatt) -
SylverR
senior tag
Amit eddig láttam, nemigen nyerte meg a tetszésem. A Crysis alá készülő Titanic modifikáció, meg a... a... Oblivion? Vagy mi a címe. Azok átkozottul szépek, ENB nélkül.
"GTA alap állapotban szvsz nem sokat ér."
Szerintem meg ha számodra a grafika nélkül nem ér semmit egy játék...akkor nincs miről beszélni. Engem tökéletesen letud kötni egy 15 éves játék is. -
Abu85
HÁZIGAZDA
Hogyne lenne? Geometriával rajzol minden.
Tesszelláció relatíve sok helyen van, csak nem látod. Ez azért van, mert jellemzően sok sík felület van felbontva. A képkocka szempontjából teljesen mindegy, hogy a sík felület 20, vagy 20000 háromszögből áll. A felület ugyanúgy néz ki, csak 20000 háromszög mellett sokkal többet kell számolni.
Neked pedig azért nem lesz, mert ilyen mesterséges akciókkal bírnak rá a vásárlásra. Mocskos egy piac lett ez, amióta az IGP-k ennyire erősek lettek.
[ Szerkesztve ]
-
Löncsi
őstag
De Extreme esetben nincs geometria, nem? Ez a mód még annó DX9 alatt is érezhetően lassabb volt HD4850-en.
Igazából Very High felett nincs nagy grafikai ugrás, de ez a High - Res pack és a motion blur elég jó. Tesszelláció/POM is szép csak nem mindenhol van.
Az nem zavar, ha VGA gyártónak több pénze lesz, engem az zavar, hogy nekem nincs.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Teszteltél az elején, ahol szinte alig van ilyen irányú terhelés. Konkrétan csak a víz. Majd nézd a közepe felé, amikor már lesznek sziklás részek. Kapsz vagy -10-12 fps-t is. És ugye ilyenkor milyen jó lenne, ha nem lenne ez mesterségesen feltolva. Ezért nem értem, hogy hogyan tudja valaki egy cég érdekét a sajátja fölé helyezni.
Szépen kapnál 30-35 fps-t is extreme beállítás mellett, ha nem kellene kétszer számolni a geometriát.Akárhogy próbálod magad nyugtatni, itt bizony ez csúnya nagy átverés, amitől nem tudsz extreme beállítás mellett játszani. Az rendben van, hogy ez neked elfogadható, mert ettől talán a VGA-gyártóknak több pénzük lesz, de más felhasználót hagy ne érdekeljen már egy cég jóléte.
[ Szerkesztve ]
-
Löncsi
őstag
A Crysis 2-t tudjuk, hogy magas gépigényre készült
Fogtam magam és felraktam a High-res packot + DX11-et. Két módot néztem, az egyik az Extreme (itt nincs tesszelláció) illetve Ultra (itt van).
DX11+ High Res pack, 1680x1050
Eredmények:
Extreme - 30 fps
Ultra - 25 fps-5 fps.. ez nem sok szerintem.
[ Szerkesztve ]
-
Talma
tag
Nahát, micsoda fejlődés! 15 év alatt már majdnem sikerült lekoppintani a 3dfx Glide API-jának összes funkcióját
-
Fekete123
csendes tag
Köszönöm! Túl sok volt a 4 betűs rövidítés kicsit összezavarodtam.
#Löncsi:
Skyrim-ot én is szeretem, de ezek az ENB-k nekem se jönnek be, a Videókban jól mutatnak, de tuti lesz egy két vidék ahol borzasztóan eltúlzott képminőséget adnak. Van ahol a hó lesz olyan mintha radioaktív vidéken sétálnál, van ahol a napból lesz szupernova. De érdekesek az tény. -
Abu85
HÁZIGAZDA
válasz
Fekete123 #148 üzenetére
Nem, az SSAA az egy régi algoritmus, amit az erőforrásigénye miatt leváltott anno az MSAA. Ellenben képminőségben még mindig a legjobb AA, csak sokat zabál. Az MSAA problémái mellett jó, hogy visszatért.
Amit linkeltél az SMAA. Az MLAA 2.0 algoritmusa hasonlít erre.Az MLAA 2.0-t a morfológiai szűrő bepipálásával tudod bekapcsolni. A 12.4-es Catalystban az MLAA 2.0 algoritmus van. Minden minimum DX11-es kártyán aktiválható.
Az SSAA is bekapcsolható, de BF3-ban csak a GCN architektúrára épülő Radeonok támogatottak. A vonalsimítási mód legyen szuper mintavétel. Ez az SSAA. Régebbi Radeonokon csak dX9 alatt működik, szóval BF3-ra nem jó.
Egyébként BF3-ra jó opció a saját Deferred AA-ja, és a belső FXAA kikapcsolása, majd driverből az MLAA 2.0. Én így használom, és így nem mossa el a textúrákat. -
Abu85
HÁZIGAZDA
Ha egy játékba ez nincs beépítve, akkor annak oka lehet. Ez egy borzasztóan könnyen implementálható algoritmus. Ha valaki úgy dönt, hogy inkább hagyja, akkor nagyon valószínű, hogy nem minden helyzetben ad tökéletes eredményt.
Az ENB egy kicsit más. A driver csak beépíti az effektet. Az ENB mód eléggé módosítja a rendert is. Nyilván ez más helyzetet teremt. Egyrészt biztosítja, hogy mindenhol jó lesz az eredmény, másrészt a sebességen is segít.
De amúgy én az ENB-t sem használom. Ha a fejlesztő valamit nem épít be, akkor azt okkal teszi. Mivel nem tudom mi az ok, így nem is kísértem a sorsot.
[ Szerkesztve ]
-
Fekete123
csendes tag
Ez az SSAA ez ugyan az mint ez? :
http://mrhaandi.blogspot.com/p/injectsmaa.htmlSzóval olyan élsimítás ami alig fogyaszt rendszer erőforrást? Ha pedig igen akkor én ezt be tudom kapcsolni driver alatt hogy pl egy BF3-nál ezt a fajta élsimítást használja, ne pedig a sajátját? Mert ugye Catalyst ban csak az van hogy vonalsimítási mód több adaptív vagy fő.
-
Löncsi
őstag
De most egységsarú hozzáállással közelíts. Mert ha játékba nincs beépítve, nem tudsz mit csinálni.
Az a baj, hogy mivel játékban nem elérhető, így 2 dolog marad.
1. nVidia driverből ráhúzod egyszerűen, emellett elég jó minőségű és gyors is Skyrimből kiindulva mivel ezt próbáltam. (bár ezt jelenleg nem használom, lévén ott az ENB). Két opció is van, Performance és Quality.
2. Szórakozol az injectorokkal. (már ha kompatibilis egyáltalán a játékkal és az ATI kártyákkal)
[ Szerkesztve ]
-
pakriksz
őstag
Árulja már el valaki mi értelme van ezeknek a realtime AO-knak? Büdös renderelni(bake-elni) egyet a játékfejlesztőnek, és rámultiplyzni a hagyományos textúrára, ahol később nem fog egy gramm plusz erőforrást sem enni? Jobb egy kis plusz gépigényt összehozni vele?
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nem ez a szempont a támogatásnál. Rengeteg játéknál csinál egy komplex driveres implementáció durva képhibákat. Ha ezeket ki tudják szűrni, akkor támogatható a HBAO driverből. Az egyetlen hátrány így a nagyon magas sebességvesztés marad. Ez nyilván a komplex driveres megoldások velejárója. Ezért jobb a játékba építeni ezt, mert motoron belül az AO sokkal gyorsabban működhet. A HBAO-nak sincs három szintje általában játékba építve. Driverben ez azért van, mert a negyedfelbontás melletti szűrés (ez a low) adja azt a sebességet, amit egy játékba épített algoritmus teljes felbontás mellett ad (ez a high). Nyilván ebből kitalálhatod, hogy a driverben a high opció nagyjából tizedeli a teljesítményt.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Fekete123 #142 üzenetére
Van oka persze. Az AMD-t erről már kérdeztem. Azt írták, hogy bele tudnák rakni a driverbe a HDAO algoritmusukat, de azt minden egyes játékra rá kellene szabni. Az NV-nél is asszem 30 játék, ha támogatja. Az AMD szerint így nincs értelme. Inkább a játékba érdemes ezt beépíteni, mert ott gyorsabban is működik, és kevesebb képi hibát csinál. Az AMD szerint olyan extra dolog kell, amit minden játék képes kezelni. Éppen ezért fordítják a figyelmet az SSAA-ra AutoLOD-dal. Az NV-nél például ez hiányzik a driverből.
Aztán lehet dönteni, hogy kinek van igaza. Szerintem egyikőjüknek sincs, és az NV szépen építse be az SSAA-t AutoLOD-dal, míg az AMD a saját AO-ját. A user ezzel jár a legjobban.[ Szerkesztve ]
-
Fekete123
csendes tag
Ez egy roppant érdekfeszítő és tanulságos párbeszéd volt, több dolgot tanultam meg belőle, mint az eddigi összes tesztetekből
Löncsi csöppet mintha elfogult lenne, de legalább Diablo fan!
Amúgy van valami értelmes oka annak hogy amikor egy gyártó előrukkol egy ilyen SSAO féle effectel és azzal reklámozza a kártyáját akkor a másik miért nem csinál gyorsan egy ugyanolyat a driverébe? Nekem pl pont tetszik a dolog, és Diablonál simán elférne az FPS felezés.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Mert a Unigine Heaven távolról sem tartalmaz olyan tesszellálást, mint a Crysis 2. Vannak olyan helyzetek, amikor a vertex újrahasznosítható. Különböző tesszellálási fajtáknál ez igen hatékony, és az AMD ebből a szempontból jelentősen gyorsabb tesszellátort épített mindenkinél. Na most ez a funkció teljesen sík felületek felbontásánál, vagy DM nélküli statikus felületen aranyat ér, vagyis a Crysis 2-nél baromira hatékony. Emellett ott a GCN-nél az offload képessége, ami egy-egy részletes felületet lement az L2-be, majd visszatölt mindig. Ezt játékokban nagyon jól lehet alkalmazni. Unigine Heaven esetén is, csak arra az AMD nem készített még profilt, mert csak egy benchmark. Ahogy elnézem az AMD semelyik benchmarkra nem készített olyan beállítást, ami kiválaszt egy felületet és lementi. Valószínű, hogy a fő szempontot a játékok jelentik. A benchmarkok eredményeit nem értékelik.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Egy teljesen szintetikus mérés alatt, ami egyetlen, azaz egyetlen egy objektumot tesszellál. A játékokban pedig fordul a kocka. Ezt írtam az előbb is.
Megint eltereled a témát. Most nem arról van szó, hogy driverből miket lehet kényszeríteni. Ezek eltérőek a cégeknél. Az NV-nél van FXAA, és helyenként működő HBAO, míg az AMD-nél van MLAA 2.0 és autoLOD SSAA. Ezek egyéni extrák, de semmi közük a témához.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
75 MHz-es extra órajelen naná, hogy gyorsabban teljesít a setup motor. Ezt nem értette senki, amíg Wizzard nem mondta, hogy agyontesszellált környezeten mért (azóta szerencsére ezt a környezetet mellőzi). Innen érthető, hogy miért a HD 7870 itt a leggyorsabb, ennek van a legnagyobb tempója ilyen körülmények között.
Ezért is mondtam korábban, hogy a Crysis 2 mesterségesen kreált részei teljesen fals eredményeket is hozhatnak. A vizsgált esetben például limitál a setup, és az a rendszer győz, amelyiknek ez a része a leggyorsabb. Mivel a Pitcairn és a Tahiti itt azonos képeségekkel rendelkezik, így a magórajel lesz a döntő tényező. Az eredmény alapján az is.Szépen sorakoznak a rendszerek a magórajelnek megfelelően.
A mérés tehát teljesen jó. A Crysis 2 az ami olyan körülményeket teremtett, ami ezt a sorrendet előhozta. Remélem most már az is érthető, hogy miért mellőzzük a Crysis 2-t a tesztekből. Ezeket a fals eredményeket akarjuk elkerülni.(#133) Vico87: Ránéztem. Valóban rossz a fogalmazás. Mindjárt átírom.
[ Szerkesztve ]
-
mpioca
tag
Itt messze nem arról van szó, hogy van benne tesszelláció, vagy sem. Azt hittem közérthető formába öntöttem az előző hozzászólásom. De látom téged észérvekkel nem lehet meggyőzni. Hogy miért vagy elfogult, az a te dolgod. Az viszont, hogy becsmérlő szavakat használsz, csak téged minősít.
[ Szerkesztve ]
-
Vico87
tag
"Mindkét rendszer több textúrázó utasítást kezel egy shader kódban, mint amennyit a DirectX 11.1 megkövetel (128 darab)."
Itt valamit félreérthettél. Már GeF 6-on lehet ennél többet mintavételezni (SM3-as GPU-kon van valami magas limit, talán 512, de SM4 óta nincs limit). A 128-as limit a maximálisan beköthető SRV-k száma per stage.
-
Abu85
HÁZIGAZDA
A tesszellálás nem probléma. Nézd már meg ezt a linket, hogy melyik rendszernek megy jobban. [link] - 20%-kal jobb a GeForce 580-nál a HD 7850 tesszellálásnál Crysis 2 alatt.
Anandtechen szintén mértek tesszellálást DX11 alatt SDK mintával. [link] - normál , [link] - max ... Mindkét esetében a GCN nyer.
Toméknak szintén van mérésük, hogy mennyit veszít az egyes rendszerek sebessége a tesszellálás bekapcsolásával HAWX 2 alatt. [link]Amint több hsz-en keresztül magyaráztam. A tesszellálás különbözik szintetikus és valós megvalósításban. Valós megvalósításban az AMD rendszere a gyorsabb. Szintetikusban egyetlen egy objektummal az NVIDIA-é. A gond az, hogy utóbbival egy játékban soha az életben nem találkozol.
A Crysis 2-nél nem az volt a baj, hogy dráma volt Radeon oldalon. Az már rég nincs, mert az AMD a GCN-t arra tervezte, hogy az ilyen trükközéseket számolás nélkül megoldja. A probléma az volt, hogy feleslegesen sokat dolgozott a rendszer, ami minden egyes terméken 10-70% közötti lassulást jelentett, függően a jelenettől. Nem jellemző, hogy egy felhasználó a saját érdekei fölé helyezi egy cég érdekét. Akadnak persze példák, de ahhoz nagyon elvakultnak kell lenni.
[ Szerkesztve ]
-
mpioca
tag
Nem teljesen értem, hogy miért kell a meghajtóprogramokat belekeverni. A Gyártóknak nem lenne érdeke gyenge meghajtóprogramot írni a saját termékeikhez. A Crysis 2-ben szándékosan generált plusz számítás van, hogy jobban terhelje a GPU-t (különösen olyan módon, ami a Radeon HD 6000-es szériának nem előnye). Ezért is nem analóg a két dolog. Itt nem hibáról van szó, és mivel a Crysis 2 a TWIMTBP programon belül készült, az Nvidia a ludas a dologban.
-
Abu85
HÁZIGAZDA
Nem is lesz egyetlen benchmark sem betéve, ha azt ki tudjuk váltani egy játékkal. Ha berakjuk az Uniginet, akkor ki kell vennünk egy játékot. Tapasztalataink szerint a felhasználók jobban értékelik a játékot, mint a benchmarkot. Ezt már 2006 környékén eldöntötte Fless amikor kipakolta a 3DMarkot, mert semmilyen formában nem reprezentálta a játékban mért eredményeket. Ha ez számodra baj, akkor tényleg nem a PH a neked megfelelő oldal.
Attól, hogy a Bjorn3D fan site még az eredményeik rendben vannak. Egyszerűen arról van szó, hogy főleg TWIMTBP játékkal tesztelnek. Azért ajánlom, mert korábban mondtad, hogy inkább ezeket a játékokat tolod.
Ez olyan, mint a Rage3D. Az egy ATI/AMD fan site, de ettől az eredményeik teljesen reálisak, csak Gaming Evolved játékokkal tesztelnek főleg. Itt kamut senki sem közöl, mert az gyorsan kiderül.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A LuxMark az egy valós alkalmazás algoritmusára épít, vagyis félszintetikus. Az pedig nem lejáratás, hogy a Kepler gyenge compute-ban. Ez tény. Az NVIDIA nem ide tervezte. Most ezzel nem tudunk mit csinálni. Az OpenCL tesztek egyébként a jövőben kiegészülnek. Van egy újabb teszt, ami átfogóbbnak tűnik.
Néha úgy érzem, hogy nem olvasod el, amit írok. Hogyan teszteljük a TessMarkot? Engedjük, hogy a Radeon lementse a felületet, és ezzel többszáz fps-t dobjon be, vagy ne engedjük, hogy számoljon a setup motor? Előbbi lesz a játékokban, mert az AMD arra tervezte a tesszellátort, hogy a komplex felületeket lementse, majd amíg ott van a képen addig számítás nélkül visszatöltse.
A Crysis 2-re pedig egy előbb linkelt kép. [link] - ennyire gyenge a Radeon tesszellátora, hogy a GCN architektúra mindent elver. Az a baj, hogy nem érted, hogy mi hogyan működik. Most közöljünk a tesztekben ilyen eredményeket? A valós képet mutatják? Hát nem, mert a HD 7850 a legtöbb játékban nem veri meg a GTX 580-at, de biztos nem 20%-kal. Ezért hülyeség mesterséges dolgokat kreálni, és ezért írtam korábban, hogy nem fogok a Crysis 2-ben egy kiegyensúlyozott részt keresni, ahol átlagos minden, inkább hagyom a fenébe a programot, mert ahány jelenet annyi eredmény.
Te azért nem szereted a PH-s teszteket, mert nem csak TWIMTBP játékokkal tesztelünk. Javaslom a Bjorn3D-t. Az egy NVIDIA fan site. Ott szinte csak TWIMTBP játékokkal tesztelnek, korábban említetted, hogy azokat szereted.
[ Szerkesztve ]
-
Löncsi
őstag
Jó, de persze a LuxMark az ott van, ami szintén szintetikus és megy a lejáratás, hogy "Geforce mennyire gyenge képességű computeban". Oké, de ennyi erővel TessMark is benne lehetne, csak lehet kiderülne, hogy a Radeon tesszellátora mennyire gyenge. Crysis 2 alatt pl. ki is jön, meg máshol is talán.
Pont az ilyenek miatt el sem olvasom a ph-s teszteket, ezt nem sértésnek, hanem iránymutatásnak szánom.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Mert szintetikus. Egyáltalán nem ad valós képet, mert a tesszellálás nem csak abból áll, hogy felbontod a felületet, hanem abból is, hogy raszterizálod azt, ahol jelenleg az összes VGA megdöglik. Erről már sokszor írtunk cikkekben, hogy a raszterizálás hatékonyságát kicsinálja a tesszelláció. Sosem lesz olyan játékprogram, ami 10% alá küldi a hatékonyságot, mert nem fog semmin sem futni. A TessMark azért fut, mert kemény egy objektum van a képen, de még így is 100 fps alatt van a legtöbb VGA. Most képzeld el ezt 1000 objektummal. A Crysis 2 is úgy dolgozik, hogy igyekszik a hatékonyságot összességében 60-70%-on tartani, míg a többi program esetében ezt a fejlesztők 80-90% fölé lövik be, ami az elfogadott érték. A Crysis 2-ben ezért maradt ott az óceán a talaj alatt, illetve ezért van kétszer számolva a teljes geometria. Az egyik el lesz dobva, míg az óceánt nem kell raszterizálni mert nem látszik. Csak az ilyen mutyikkal lehet a tesszellálást erőltetni, mert másképp a rendszerek raszterét kivégzed és kapsz kemény 5-10 fps-t. Majd ha lesz az API-ban quad-fragment merging támogatás, akkor ez nem lesz probléma, de addig el kell fogadni a hardverek limitált képességeit.
Ezért szarok az ilyen szintetikus programok, mert csak egy speciális területet vizsgálnak, ami a játékokban lehet, hogy gyökeresen eltérő módon működik. Az AMD GCN architektúrája például ott szedi össze a Crysis 2-ben az erősen tesszellált jelenet mellett ezt az extrém teljesítményt, hogy lement felületeket. A rendszer egyszerűen visszatölti az információt, míg a többi GPU vért izzadva számol, ráadásul ebben a programban kétszer.
A TessMark esetében ugyanez a helyzet. Ha kikapcsolod a felületek lementését, akkor a Radeon nem úgy fog működni, ahogy a játékok alatt, ha pedig aktív ez a funkció, akkor TessMark lényegtelen, mert az első képkockánál kiszámolja a kártya azt a forgó izét, majd a nagyon terhelő felületeket lementi, ezzel megsokszorozva a teljesítményt. Az egész egy rosszul felépített szintetikus mérés, ami teljesen alkalmatlan, hogy megállapítsa a termékek sebességét tesszellálás mellett. Azt nem tudom, hogy most az AMD hogyan áll hozzá. Régebben erre volt optimalizáció, de mára lehet, hogy Jegx kérésére kikerült, mert annak sok értelme nincs, hogy számítás nélkül dobálja az fps-eket a GCN Radeon. Az AMD itt lehet, hogy engedékeny, mert csak egy szimpla program és nem játék. Ellenben ezzel a teszt elvesztette értelmét is, mert nem úgy működik benne a termék, ahogy egy játékban.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Sennalacy #120 üzenetére
Tulajdonképpen a programozónak lesz nagyobb szabadsága. Az összes változás a rugalmasságot erőlteti, amivel elvileg gond volt a DX11-ben. Maguktól a beépített újításoktól szebb nem lesz a program, csak komplexebb számításokat lehet írni, és ettől lehet szebb. Na meg az FP64 PS kódoknál, de sok jelentőségét ennek nem látom.
Ami jó lehet azok a kiterjesztések. A bindless kiterjesztések több textúrázó utasítást engednek meg egy shader kódon belül. Ezzel növelhető a részletesség. Az AMD PRT kiterjesztése pedig részletezve van, hogy mit hozhat. Hardveres megatextúrázást teljes AF támogatással.
Jók a változások tehát, de a kötelezően támogatandó funkciók (tehát kizárva a kiterjesztéseket) csak a komplexebb kódok kreálásának lehetőségét növelik.
(#121) Löncsi: Ez szégyen az adott fejlesztőre nézve.
A tesszelláció sebességvesztése a jelenettől függ. Van ahol csak -5-10%, de van ahol akár a sebesség felezésével is jár. Főleg ezek azok a helyzetek, ahol a sík felületek vannak felbontva, illetve a felületen nincs DM.
[link] - [link]
[link] - [link]
Mindkettőt meg lehetne oldani sokkal kisebb erőforrás mellett, és a képi eredmény ugyanaz lenne.
Ez egyébként kétélű fegyver is. Korábban az NV erősködött, hogy ez így jó. Most, hogy az AMD a GCN-nel trükközős tesszellálást használ, az NV rögtön mondja, hogy itt meg ott nem szabad tesztelni, mert az rossz eredményt ad. [link] - ja nekik igen ... Ez az egész dolog egy hatalmas baromság, mert mesterséges helyzetet kreál. Ez korábban az NV-nek volt jó, most meg az AMD-nek kedvez, mert a GCN lementi a felületet a gyorsítótárba és minden képkockánál visszatölti, nem kevés számolástól kímélve meg ezzel a setup részt. És akkor most ki csinálta jobban? Az NV mutogat, hogy ez nem sportszerű a GeForce működésével szemben ... az AMD pedig nyomja a PROBLEM? szöveget. Ezért is hagytuk a fenébe a Crysis 2-t. Én nem fogok olyan jelenet után kutatni, ami egyik architektúrának sem kedvez. Nem kell mesterséges szituációkat kreálni és nem lesz később gond vele.[ Szerkesztve ]
-
Löncsi
őstag
Már jó ideje a rajongóknak kell felturbózniuk a saját játékaikat.
De ez az egész tesszellációs téma annyira nem is zavar. Geforce alatt átlag -20% teljesítmény szvsz nem égbekiáltó. Meg kellene néznem a Gémet ezzel a szuper-packkal, halogatom jóideje.
A trailer is mennyire szívfacsaróan jó amúgy... [link]
[ Szerkesztve ]
-
Sennalacy
aktív tag
Úgy látszik nem értetted amit írtam. Nem az a gond, hogy az idegen szavak nincsenek kellő szinten elmagyarázva, hanem, hogy az átlag felhasználót az érdekli, hogy mennyivel lesz szebb tőle a játék, vagy mennyivel lesz gyorsabb, ez a kettő, pont. Erre vonatkozóan meg még hozzávetőleges becslés sincs semelyiknél..
Ha nem tud rá becslést mondani valaki az is ok, hiszen ismerni kell hozzá a hardverek felépítését és a szoftveres megoldásokat is igen komoly szinten, de talán Abu szakértelmével lehet rá hozzávetőleges becslést adni. Senki nem veszi a fejét, ha téved utólagos bechmarkokat megnézve ha már lesznek.
-
Abu85
HÁZIGAZDA
Ja ... ezt láttam. Ez egy re-design mód. Nem tünteti el az óceánt, csak leveszi róla a tesszellációt, illetve átszabja ezt a játékon belül is, hogy kevesebbet számoljon a VGA. Például a sík felületekről teljesen leveszi, mert felesleges felbontani a háromszögeket, ha sík marad. Egyébként nagyon jó mód. Valóban sok munka van benne, és normálisan korrigálták a tesszellálást is. Kár, hogy ezt rajongóknak kell megtenni a fejlesztők helyett.
[ Szerkesztve ]
-
Destructo
senior tag
Köszi a cikket!
-
Abu85
HÁZIGAZDA
A tesztek miért nem számolnak be a driverhibákról? Miért csak ugyanazoktól a fórumozóktól halljuk a problémát napról-napra?
A driverek minősége az AMD és az NV oldalon egy szinten van már évek óta. Aki mást állít az legendákra alapoz, vagy tapasztalathiánya van. Mindkét oldalon vannak hibák, de rendre javítva lesznek. Hasonlóan az Intelnél is. Ott sem tapasztalunk különösebb gondokat, persze ez csak a HD Graphics driverre vonatkozik, amit ténylegesen az Intel ír. Az ImgTec Atomhoz írt drivere tényleg problémás.Nem találom az óceáneltávolítót. Pedig több szóra rákerestem.
[ Szerkesztve ]
-
polonic
félisten
Most ez hogy jön ide? Ki írt amd meg nv driverekről? Bárki megemlített valami ilyet is? Nem emlékszem rá. Szépen elterelted a témát a lényegről. Gyerekes módon akkor is visszatámadok módszer.
Képzeld. Mióta amd-m van, ugyanúgy semmi bajom a driverekkel, mint ahogy előzőleg az nv driverekkel sem volt semmi bajom. Sőt, az nv-t megelőző ati kártyámmal sem volt semmi baj. Talán különc lennék? Nem hiszem. . .
Inkább az a különc, akinek állandóan kínjai vannak.
[ Szerkesztve ]
-
Löncsi
őstag
Megunni? Azért ez elég nagy fail vagy hívják akárminek is. Ilyet nem lenne szabad csinálni.
És az AMD elhibázott meghajtóprogramjai? Hidd el, szvsz sokkal nagyobb hibákat követtek el sokszor teljesen alapvető funkciók nem működtek. De ezekről nem akarok írni, fórumban körbe lehet nézni.
Abu
Már nem emlékszem, de Crysis 2 topikban rákeresel ki fogja adni.
[ Szerkesztve ]
-
polonic
félisten
Megunni? Azért ez elég nagy fail vagy hívják akárminek is. Ilyet nem lenne szabad csinálni.
Az meg régen rossz, hogy külső program kell ennek a dolognak a kikapcsolásához. Nem inkább bele se kellett volna kerülnie ennek?
Őszintén szólva nekem nincsenek problémáim a mai dx11-es játékok grafikájával. Sosem úgy ülök le játszani, hogy a grafika részleteit nézem.
Az összképet nézem. Ami nekem általában bejön azoknál a játékoknál, amiket éppen játszom.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Low Noise #109 üzenetére
A textúrázás nem függ a DX11-től. Maximum annyiban, hogy 16kx16k textúramérethez DX11 render kell, de ilyet csak a Dragon Age 2 használ, azt is egy külön letölthető ingyenes DLC formájában.
Szebb játékokat játszhatsz. A DX11-es rendert a legtöbb program az effektek javítására fordítja. Ezért lassabb rendszert a DX11-es kód, mert a sebességelőnyt elköltik.
(#110) Löncsi: Melyik az a külső program?
[ Szerkesztve ]
-
-
Low Noise
senior tag
Részben igazad van, de a probléma valós. A fejlesztők a dx11-et valamiért csak alibiként használják, hogy elmondhassák igen mi kihasználjuk. Ám a játékosokat nem vigasztalja néhány teljesítmény növekedést okozó kód, ha mellette a nyert teljesítményt nem költik el sem dx11-es effektekre, de még tisztességes felbontású textúrákra sem.
Az egyetlen valós dx11-es játék az a Crysis2. Ahol szembetűnő a dx11-es látvány. Ha megnézi valaki dx9 ultra beállításokban a játékot, majd megnézi dx11 high beállításokban akkor ordít a változás, hogy már high-ban is köröket ver a dx9-es ultrára.
Az a probléma, hogy a mai dx11-es játékokkal, hogy nem használják ki az effekteket, megelégednek azzal, hogy gyorsabban fut a játék akár 40%-al, de egyébként nem térnek el a konzol játékok minőségétől, csupán a rég megszokott előnyök maradnak meg amihez nem kell dx11: Fullhd felbontást, anizosztropikus szűrést és élsimítást kapcsolhatunk be.
Így jogos a felvetés ha 1 játék van a piacon ami észrevehetően is kihasználja a DX11-et akkor hova rohanunk. Nem ezt kéne kihasználni, megtanulni a fejlesztőknek?
-
Abu85
HÁZIGAZDA
A Gaming Evolved programon belül született a játék, de az NV-nek is elég sok köze volt hozzá. [link] - ezzel reklámozták az új Parallel Nsight képességeit. Így utólag nem lehetett túl jó reklám.
A sajna a tesszellátor ilyen. A felület fizikailag nem létezik, csak vizuálisan. Ez szopás, de ha nem kell figyelni arra, hogy tesszellálás nélkül is működjön, akkor már jó lesz ez is. Egyébként meg POM. Az jobb a talajra. Az eredmény hasonló, csak nem valós geometriát hoz létre. Probléma vele, hogy nem kompatibilis az AF, de lehet már LOD utasításokkal egyéni szűrőt írni.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ez nem a motortól függ. Minden DX11-es rendert tartalmazó motor DX11-es. Ezt kell felfogni.
Mondtam, hogy nem kell a játék megjelenése előtt pár héttel a DX11 implementálása mellett dönteni. Ezt az NV is felfoghatta volna a Batman esetében. A többi az más tészta. A Crysis 2-t tudjuk, hogy magas gépigényre készült. A Metro 2033 nem rossz, de valószínű, hogy az elején még nem volt sok tapasztalata az NV-nek a DX11-gyel. Na meg a csapatnak sem. A Lost Planet 2 implementációja gyenge, de legalább alapból gyors. A HAWX2 csak tesszellálást tartalmaz, és szinte mindenen van 60 fps-ed. A Homefront az csak szimplán Gather4-re tartalmaz DX11-gyet. Nem sok, de ez rendben van. Az L.A. Noire: The Complete Edition szintén nem sokat profitál az API-ból, de működik. Star Trek Online dettó.
A Dragon Age 2 esetében az NV később írt rá jó drivert. Addig nagyon gyenge tempót mutatott a program GeForce-on. A dolog érdekes, mert a Bioware volt az NV egyik első kuncsaftja az Parallel Nsight fejlesztőkörnyezetre. Fura, hogy nem vették észre, hogy valami nem működik a GeForce-on.
[ Szerkesztve ]
-
Shing
őstag
Jó hallani, hogy DX11-es kártyákkal is működik majd pár új fícsör.
-
Löncsi
őstag
Az Oil Rush-t, az Unigine motor hajtja, na az ízig vérig fel van készítve, az OK.
Felsorolt játékok biztosan jól mennek, de inkább nV-s gémeket tolom (bár alapvetően keveset játszom). És az ezekhez kapcsolódó hírek mind negatívak voltak, meg állítólag Dragon Age esetén is csak szívás volt a DX11 mód. Egyszerűen ez nem jött össze olyan jól, nincs probléma, ki lehet kapcsolni.
-
Abu85
HÁZIGAZDA
Lopni kell az offline render technikákat, mert ott is sokat kell dolgozni, de már kidolgozták az egyszerűsítést, amivel ez megoldható. Annyi opció van erre. A Disney Ptex az egyik legígéretesebb.
A DX11 az nem csak a látványról szól, hanem a sebességnövekedésről. Ott a HDAO, ami a legjobb AO algoritmus. D9-ben 7x lassabb a kód, mint DX 11-ben. Ha szerinted ez nem éri meg, akkor nincs miről beszélni.A Batman AC-t elbaszarintották. Nyilván nem árt figyelembe venni, hogy hetekkel a megjelenés előtt nem lehet normális implementációt csinálni. Ha mondjuk hat hónappal a megjelenés előtt kezdik a munkát, akkor más lett volna a helyzet. Vannak a DX11-re negatív példák, de ezek mind abból erednek, hogy a fejlesztés során nem figyeltek kellően oda a tesztelésre, vagy nem kértek segítséget, vagy megrendelést teljesítettek magas gépigényre.
Nézd meg a Dirt és F1 játékokat, az új Deus Exet, az Oil Rush-t, vagy a Shogun 2-t és az Anno 2070-et, vagy akár a BF3-at ... lényegében problémamentes DX11 implementációk, de még mondhatnám az AVP-t és a Civ 5-öt is. Gond tehát az API-val nincs, csak nem az utolsó utáni pillanatban kell beépíteni a DX11-et, emellett, ha kevés a tapasztalat, akkor ott vannak a gyártói partnerprogramok.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A Crysis DX10-es módja is új render volt. Pár effektet gyorsabban dolgozott fel, és néhol szebb volt az eredmény is.
Az MS szándékosan vágta el a DX10 kompatibilitását a DX9-cel, hogy a korábbi API problémáit ne hurcolják tovább. Ezért tartja már Carmack is jobbnak a DX-et. Az OpenGL-nek is ilyen reform kellene, csak azt nem olyan egyszerű megtenni, mert rengeteg pénz van a régi CAD/CAM programokban, ahol a kompatibilitás mindenek felett áll.
A Samaritan semmivel nem több, mint egy mai DX11-es program. Ugyanúgy DX11 a render és kész, szinte ugyanazok a technikai megvalósítások is. Egyszerűen több idejük volt a fejlesztőknek egy relatíve kicsi téren kidolgozni a grafikát. Egy játéknál két év alatt a teljes játékteret össze kell dobni és nem csak egy utcát csinosítgatni. Szépnek szép a Samaritan, de ha megkérdezed magadtól, hogy mi benne a forradalom, akkor semmit sem tudsz mondani. Az egész azért szép, mert egy apró teret tökéletesen kiépítették az elmúlt két évben. A legtöbb mai program így nézne ki, hogy a játéktér kidolgozásán ~10000 ember dolgozna két évig, mert akkor az egyes csapatoknak sok lehetőség jutna a tökéletes tartalomkreálásra. Anyagilag ez azonban nem tartható.[ Szerkesztve ]
-
Löncsi
őstag
Én úgy vagyok, hogy Crysis - DX10 kombó óta csak erős szkepticizmussal hiszem el az ilyen fejlesztéseket. DX11 jó és szép, csak az implementáció erősen össze-vissza dolog. Ha már DX11, akkor Samaritan, na majd ott meglátjuk mire is jó ez a sok minden. Ha pedig a kódot újra kell írni a DX11 miatt akkor ezt a M$-nél elszúrták, mert a szemétbe vágták a kompatibilitást.
[ Szerkesztve ]
-
bozont
veterán
Szerintem meg attól lesz az, de mindegy. De pl a WoW igen messze áll attól hogy DX11-es legyen, az meg egy dolog hogy lecseréltek egy-két kódot. Ha alapjaiban DX11-ben írják meg, valószínűleg még gyorsabban futna, meg még több grafikai feature került volna bele, de mivel 2004-ben még a DX10 sem volt sehol, így nehezen lehet DX11-es.
-
Ribi
nagyúr
válasz
Sennalacy #91 üzenetére
Minden idegen szó, funkció után le van írva, hogy az mire is jó. Ennél érthetőbben nehéz elmagyarázni, ennél bővebben meg felesleges szerintem. Bővebben/érthetőbben csak részletekbe belemenve lehetne, amiből mégtöbb idegen szó születik és pont még érthetetlenebb lesz.
[ Szerkesztve ]
-
Sennalacy
aktív tag
Nagyon sok szép idegen szó volt a cikkben, de lehetne ezt kicsit érthetőbben az átlag felhasználó számára is fontos információkkal kiegészíteni? Az ok, hogy meg van említve minden egyes új funkció, de mi lesz azoknak a tényleges gyakorlati haszna? Két lehetőség van, látvány, illetve sebesség, ezek szerint szétosztva, előzetesen esetleg megbecsülve, hogy mit jelenthet egy-egy új funkció.. Tudom, hogy ez nem könnyű feladat, de ennek lenne igazán értelme..
Ami a leginkább érdekes szerintem az az IGP kihasználása végre, remélem a szoftver gyártók rávetik magukat, és számoltatnak vele fizikát.. az szerintem fontosabb lenne mint a postprocess effektek. Nagyon hiányzik egy korrekt ütközésszámítás a játékokból, karakterek belógnak textúrákba, tereptárgyakba stb.
Amennyiben implementálják a WDDM 1.2-t Win7-re, akkor lehet rajta teljes értékű Dx11.1-es kódot futtatni?
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Fenéket. Azért építenek a DX11-re, mert gyorsabb a feldolgozás. A gyártók csak segítenek, hogy jó legyen a program. Vannak persze fizetett DX11-es módok, ahol a gépigény egekbe tolása volt a cél, de szerencsére ez nem jellemző. Ami probléma szokott lenni az az elbaszarintott kód, pl. a Batman: Arkham City. Ott az utolsó pillanatban tették bele a DX11-et. Nyilvánvaló volt, hogy ez sok jót nem fog jelenteni. Szerencsére ez sem jellemző, csak egyszeri esetről tudunk. Itt is inkább dobni kellett volna az ötletet, mert három hónap alatt nem lehet normális implementációt csinálni. Nem is sikerült. A mai napig foltozzák patchekkel, és már ki is vettek kódrészleteket.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
-
hackeeeee
Jómunkásember
Ez így igaz.. Csak ettől ha még 1 hardver követelmény 1 adott programhoz, azt nem tudod megkerülni sehogy. Ha DX10, ill. DX11-es hardver a minimum követelmény, ebből adódóan win7 is, akkor azt ha fejen állsz, akkor sem fogod tudni DX9-es vga-val futtatni, win7 alatt sem..
Meg lehetett volna szokni már a PC piac "robogását.." Ha van rá szükség ha nincs...
Amúgy a DX11 egy külön dolog, mert pl. ott is van olyan játék, ami tesszalátort használ pl. a dx11-ből, mást nem, de attól függetlenül viszont minimum követelmény a dx10.
(#84) Löncsi: Miért is illene?
[ Szerkesztve ]
-
-
djculture
félisten
-
-
TTomax
félisten
Igazad van,valóban csak 11 virit a dobozokon,én néztem el... no de akkor most vissza az összes dobozt egy '1"-es lemaradt róla?
Egypontnullás user honnan fogja tudni majd,hogy a 680 már támogatja az 580 meg nem?A dobozon dx11 van mindkét esetben...
Én azt már elöre boritékolom,hogy win7-re csak nagy nyögések közepette lesz wddm1.2 majd mondjuk sp2,vagy sp3-al... de csak ha jól fogy a win8... -
MCBASSTION
aktív tag
ez a WDDM eléggé jól jött OpenCL-es fejlesztésnél
míg linux alatt egy rossz sor és újraindítás, addig windows alatt csak ki kellett lőni a progit
A trinity már tudni fogja a DX 11.1-et?
-
bozont
veterán
Mondjuk ebből nem derül ki teljesen, hogy pontosan melyik az a játék ami alapjaiban DX10/11-ben íródott, vagy csak kapott pár effektet. Mert nem mindegy. Az amelyik később kapott egy patchet amiben mókoltak valami DX11 terén (most mindegy hogy plusz effekt vagy csak kódsorok cseréje a gyorsabb futás érdekében), attól az nálam még nem teljes értékű DX11 játék.
[ Szerkesztve ]
-
Löncsi
őstag
válasz
Jim Tonic #73 üzenetére
Elhiszem, de játékokon kívül másra nem jó, és nem tudod feltörni a rajta lévő oprendszert. Sokan elfelejtik a játék-szoftver árát is beleszámolni (12-15K).
Ja de várj.. Te vagy a profi programozó Te lehet meg tudod oldani, hogy fusson az OS-X.
Vagy csak Pascalban írtál kódot?
-
polonic
félisten
válasz
Runner_fxr #62 üzenetére
Úgy látom, ez hiába van megemlítve kétszer is.
Nem sok dx11-es játék meg 9-re íródnak? Nagyon nem vagy képben.
-
A Sony veszteséges, nem az X-Box. A processzor, a GPU és a memória miatt pedig összehasonlítható. Egy Power alapú processzorról és egy ATI GPU-ról beszélünk. Nem kellene belehalni, hogy egy korábbi OS X-et beindíts rajta.
#71: Bakker, idáig erről beszéltem. Mert ha konzolnál is eljönne az, hogy évente kell cserélni, az összes felsorolt előnyét elveszítené PC-vel szemben.
#72: elgépelni egy szót, vagy felcserélni az újat az ujjal azért nem ua.
[ Szerkesztve ]
-
djculture
félisten
válasz
Jim Tonic #65 üzenetére
Én ezt mind megértem, csak azt nem értem miért nem hozták ki már az új generációt. Ha sokáig húzzák még a kocagémerek is elfordulnak a konzoloktól annyira trágyalén néznek ki már a játékok. Nem akarok én ebből konzol vs pc ph világháborút kirobbantani de ezt szerintem mindenki látja még egy konzol fanatikus is.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Senki sem írhatta rá a dobozra, hogy DX11.1 kompatibilis. A draft specifikációk alapján mondhatták a gyártók, hogy megfelel a DX11.1-nek a termék. Ezek persze nem véglegesek, de most, hogy az MS lezárta a speckókat az AMD és az NV is ráírhatja a termékek dobozára a DX11.1 támogatást.
Az NV annyit nem beszélt a DX11.1-ről, mert még nem volt végleges spec. De ettől a Kepler megfelelt a draft specnek, és most már a véglegesnek is megfelel.A DX11.1 és a WDDM 1.2 Win 8 alatt biztos lesz. Win 7-re lehozható, de ez az MS döntése.
Ha a TDR-t a program váltotta ki, akkor azt az új WDDM 1.2 jobban helyre tudja állítani. Persze a TDR-t kiválthatja hardveres hiba is. Ilyenkor a WDDM 1.2 tehetetlen. Továbbra sem csodafunkció a TDR, de a szoftveres oldalon keletkező hibákat jó eséllyel képes helyrehozni. -
TTomax
félisten
Na most valamit nem értek...
ad1:Hogyan irhatta rá az amd az uj kártyáira hogy DX11.1 amikor még a követelmények sem voltak véglegesek?
ad2:Az nV miért "csak" dx11-et irt a keplerhez???
Ha jól látom akkor egyenlöre csak win8 alatt lesz elérhetö as ficsör.Jól értelmezem én azt,hogy ha valami gond van akkor csak az adott játékhoz tartozo dolgokat inditja ujra a wddm1.2?Hogy is van ez? -
Televan74
nagyúr
válasz
Runner_fxr #62 üzenetére
Olvass egy kicsit visszább. Én is ezt tettem.
-
válasz
djculture #56 üzenetére
Egy konzol architektúra nem egy évre szól. Beleraknak egy videókártyát, ami kb. az aktuális felhozatal main stream szintjének felel meg. Ennek a vasnak kell kihúznia kb. 4 évig. Olcsónak kell lennie. X-Box pl. szinte egy asztali gép. Milyen játékra alkalmas gépet tudsz Te összerakni 60e forintból?
Sokkal könnyebben programozható. Adott egy fix környezet. Addig optimalizálod, ameddig csak akarod. Ugyanilyen vasra nem tudnál Windowsra sem szebb játékot készíteni. -
atti_2010
nagyúr
válasz
Runner_fxr #62 üzenetére
Úgy látom szegény Abu hiába koptatta az újait, megy a hülyeség tovább.
-
Most már tényleg itt lenne az ideje az új konzol generációnak, mert amíg az nem jön, addig nem, hogy dx 11.1 ,de még 10-is csak ritkán lesz, leginkább 9-re íródnak a játékok.
-
atti_2010
nagyúr
Hu-ha, ma nem sok hírt kapunk Abunak van ideje irkálni, pedig kiszivárogtatna még valami a Trinityről.
-
Abu85
HÁZIGAZDA
Ahogy a DX11-nek sem volt sok köze egy speciális igények szerint tervezett hardverhez. Az API azért van, hogy valamilyen szinten összefogja az elérhető termékeket és egy köztes rétegen keresztül lehessen ezeket programozni. Egy konzolnál ez teljesen más. Nincs értelme kompromisszumot kötni, mert a hardver adott, és nem fog változni a termék élettartama alatt. Az API állandó kompromisszum, mert nem egy, hanem jóval több hardvert kell kiszolgálni. A GCN architektúra is jóval többet tud, mint amennyit az API-ban jelenleg ki lehet aknázni. Egyszerűen annyi a gond, hogy sok dolgot nem lehet szabványosan megoldani. Valamit meg lehet, amire az MS reagál is, gondolva itt a Conservative Depth Outputra, amit máig csak a Radeonok támogatnak hardverből, míg a többi hardver emulálja ezt. A végeredmény ugyanaz, csak más a sebesség. Egy API-ban tehát arra kell törekedni, hogy általánosan lefedje a felület a gyártók rendszereit, egy konzolban arra kell törekedni, hogy a hardver összes képessége kihasználható legyen. Így lehet az, hogy egy hét éves hardverben több funkció van, mint a legújabb API-kban.
(#43) csaabz: Játékfüggő. Ha sokkal több effekt jelenik meg DX11 alatt, akkor az nyilván sokkal több számítás, vagyis a sebességre nincs jó hatással, ellenben a képminőség jobb.
(#45) Jim Tonic: Ezt én úgy hallottam, hogy a Windows 8 az Xbox 360 játékait tudja futtatni, de szkeptikus vagyok. Amíg nincs bejelentés, addig nem lehet tisztán látni. Amit el tudok képzelni, hogy egyes XBLA címeket lehet majd futtatni PC-n.
(#51) Ribi: Ha valami nem kerül bele az új API-ba, akkor az gyártói döntés következménye. Az MS nem egyedül fejleszti az API-t, hanem a gyártókkal együtt. Megint a Conservative Depth Outputot tudom felhozni, mint példát. Eredetileg már a DX10-ben benne lett volna, de kivették, mert az ATI/AMD-n kívül nem támogatta senki. A DX11-be rakták bele, mert megoldották úgy, hogy nem kötelező a támogatás. Vannak olyan eljárások amikre viszont kötelező hardveres implementáció. Ha a gyártók között nincs egyetértés ezekre vonatkozóan, akkor az eredeti speckókból kikerülnek, mert az egységesség fontosabb, mint az újítás.
(#52) Dagidög: Mikor véglegesítették a DX11-et, akkor még csak NoSplit és BinSplit volt. Nem kérdés, hogy a NoSplit volt a jobb döntés. Azóta persze már vannak jobbak, mint a DiagSplit. Idővel ez bekerül, de ehhez módosítani kell a futószalagot, amit egy köztes DX váltásnál nem biztos, hogy érdemes meglépni. Valszeg idővel bekerül, de lehet, hogy marad a NoSplit, mert a Disney Ptex elég erős opció lehet a jövőben az alkalmazásra, ami alapból megoldja a tesszellálás kellemetlenségeit.
A DX11-ben is így volt. Vannak kisebb futtatási szintek és leskáláz az API. [link] - ennek a lapnak a végén le van írva, hogy a futtatási szintek mire jók. Persze a skálázásról a fejlesztő dönt, és úgy nézem, hogy DX10 alá nem szívesen skáláznak. Oda inkább írnak egy DX9 rendert még.(#56) djculture: Némely exkluzív cím azért erősen jól néz ki. A felbontás és az AA gyengesége már általános, de a technikai megvalósítás felveszi a versenyt a PC-vel, sőt ... nekem jobban tátva maradt a szám egy God Of War 3 tól és egy Uncharted 3-tól, mint mondjuk a Crysis 2-től.
[ Szerkesztve ]
-
ng0ofy
KORREKTOR
válasz
djculture #56 üzenetére
Mert annyit bír a vas
abu85: köszi a választ. Olyasmit várok, hogy az IGP-re köthetem a monitort és majd a driver használja a másik kártyát ami erősebb, de csak akkor megy, ha kell a combos teljesítmény, mint az optimus, csak valóban okosan, nem pedig ilyen sete-suta módon... Alacsony-Fogyasztás mániás vagyok (:
[ Szerkesztve ]
-
djculture
félisten
Csak akkor nem értem ha ennyire könnyű programozni miért néz ki a konzol játékok jó része úgy mint egy 2005 szintű pc játék... A hülye azért nem vagyok boltban szoktunk velük játszani szoba fal nagyságú lcd tv-n, de olyan randa a háttér és pl egy autós játékban a fű mintha egy colyn McRae rally 2 lenne. Közbe meg a legújabb csúcs ps3 játék.
[ Szerkesztve ]
-
pakriksz
őstag
"Ha natívan programoznának egy mai videokártyát, az szvsz porba alázná a konzolokat, csakhogy akkor gyakorlatilag az összes videokártyára külön kódot kell írni."
Erre megy az amd, a HSA (ex FSA) pont ilyen majdnem natív(sőt végül is natív mert a hardvernek kéne értelmeznie, az más kérdés hogy az még alakítja) általános kódot jelentené.
És ezt elvileg az m$ is támogatja, bár szerintem rögtön kihátrálnak ha meglátják, hogy ezzel a direct3d m$ platformhoz láncoló ereje megszűnik.
-
Dagidög
senior tag
Nem pont ők döntöttek arról, hogy a NoSplit tesszelálás kerüljön a DirectX 11-be? Ezt most pont korrigálhatták volna, nem? Vagy ahhoz megint egy vadonatúj API kell?
"...a kód futhat DirectX 11-es, 10.1-es, 10-es, 9.3-as, 9.2-es és 9.1-es módban." - tehát mostmár a fejlesztők csak megírják a DX 11.1 kódot, az meg szépen elmegy alacsonyabb hardveren? Elméletileg nem ugyanez volt DX 11 alatt is? Mégis vannak játékok, amik lefelé DX 10-ig támogatják a hardvereket, akkor most mi van? Egyébként a 9.1/2/3 a 9.0a/b/c akar lenni?
-
Ribi
nagyúr
Ezt én is tudom, nem ez volt a kérdés. Sebesség a direkt programozhatóságnak köszönhető, de mi köze a DX9-11 közti különbséghez? Egy ős hardver miért tud olyat amint ami még DX11ben sincs benne? Akkor hogy került bele és miért nem tudják a mostani hardverek? Csak a direkt vezérlés miatt? Elég "szándékosan kimaradt" dolgonak hangzik.
-
Löncsi
őstag
válasz
likeaRAINBOW #48 üzenetére
Igen, de amíg DX10-ben futtatod a kódot, nem feltétlen kapsz bármilyen előnyt a DX9 képest. Lásd. Crysis 1 féle Very High. Sok minden függ a motortól is.
-
M3Ny3'T
senior tag
Úgy, hogy az 1000+1 hardver között kell megtalálni azt a kompromisszumot, amit lehetőleg mind az 1000+1 képes lefuttatni. Ezzel szemben a konzoloknál nincs szükség ilyenre, teljesen fix a hardverük. Egy kód kell pl. a PS3-hoz és egy másik az X360-hoz, de azok így natívan vannak programozva, minden kompromisszum nélkül, így minden utasításukat/képességüket ki lehet használni.
Ha natívan programoznának egy mai videokártyát, az szvsz porba alázná a konzolokat, csakhogy akkor gyakorlatilag az összes videokártyára külön kódot kell írni. -
Anno valahol olvastam, hogy az új konzolok (X-BOX) játékait majd PC-n is lehet futtatni. Ebből mi az igaz? Akkor DX11.1 és esetleg specializált Win8 lenne az alapja?
-
visz963
csendes tag
Akkor az Ivy Bridge HD 4000-es grafikája, ami most zárkózott fel némileg, máris kikerült a normális kategóriából?
[ Szerkesztve ]
-
csaabz
őstag
Azt lehet tudni, hogy miután bekapcsoltam az adott játékban a directX 11-es effekteket, az fps szám rögtön felére csökken-e?
-
Ribi
nagyúr
A többet tud az mégis mit jelent? Mert egy 7 éve megjelent hardvernek szerintem nem sok köze volt a DX11-hez. A direkt programozhatóságnak megint nemtudom mennyi köze van a DX11-hez. Szóval az, hogy a köztes réteg miatti lassulást próbálják más módon behozni, nagyrészt erőből, annak mi köze a DX verziókhoz? Nem értek az egészhez, csak nem értem, hogy egy 7 éves hardver hogy tud többet a mostaniaknál software oldalról?
-
Abu85
HÁZIGAZDA
Olyasmi lehet, hogy egyes feladatokat át lehet adni az IGP-nek, vagy egy másik dGPU-nak például. Persze ez kérdés, hogy milyen minőségben működik.
Nem hiszem, hogy olyan mint a hydra. Itt inkább a DirectCompute képességek átadásán lehet a hangsúly, például fizikát, vagy post-process effekteket számolni.
Nem hiszem, hogy ehhez DX11.1-es kártya kell. A DX11.1-es API működik DX11-es kártyákon is, csak egyes részei nem érhetők el.Amit én logikusnak tartok, azok a post-process részek. Ott a dGPU, ami számol, majd a monitor az IGP-re van kötve. Ezzel lehet csinálni a fejlesztőknek egyfajta virtuális vsync-et, illetve mondjuk a post-process AA-t átadhatják az IGP-nek. Ilyesmire nagyon jónak tűnik.
[ Szerkesztve ]
-
ng0ofy
KORREKTOR
" A DirectX 11.1 lehetővé teszi, hogy a DirecX10 és 11 API használjon egy alárendelt eszközt."
Mármint egy másik videokártyát? Tehát ha 11.1-es videokártyám van és telepítve van a 11.1-es driver is, akkor elvileg tudja használni a processzor IGP-jét vagy egy ősrégi maradék kis fogyasztású kártyát "besegítőnek"? Ez olyasmi, mint a lucidlogix hydra vagy virtu? -
Abu85
HÁZIGAZDA
Nem igaz. Még mindig van olyan rész az Xbox 360-ban, ami többet tud a DirectX 11-nél.
Felejtsük már el, hogy egy konzol DX9-es, mert ez nem igaz. A konzol az konzol. Fix hardver, amit direkten lehet programozni.
A DX11 pont a konzolok egyik legnagyobb előnyét próbálja behozni. Fix hardveren a fejlesztők játszva elérnek 20000 rajzolási parancsot 60 fps mellett. PC-n a DX9-cel max 3000-et tudsz elérni. DX11-ben vért izzadva hozható az 5000-6000.[ Szerkesztve ]
-
Ribi
nagyúr
válasz
hackeeeee #26 üzenetére
Pont annyira személyeskedés amit írát mint Supra. Szerintem.
Supranak részben igaza van, mert a játékok elég nagy része konzolport. Ott meg ugye híre sincs dx10-11-nek.
Vagy ez tán nem igaz? Nyilván van pár ahol kell a kártya, de nagyrészt konzolportok jelennek meg manapság. -
Abu85
HÁZIGAZDA
Az meg értelmetlen, mert azokra végképp nem szabványos API van. Megfigyeltem már, hogy a userek alapvető fogalomzavarban élnek. Az API-t azért tartjuk, mert több hardvert kell programozni, és ezt ezen keresztül könnyebb megtenni. Egy konzol hardvere adott, vagyis minek is rá szabványos API ugye ...
Félelmetesen lassan kopnak ki ezek a fránya legendák.[ Szerkesztve ]
-
djculture
félisten
Azért mostanában vagy 20 játékhoz ez volt írva: windows xp-n nem futtatható..Minimum System Requirements Graphic card: DirectX 10 or 11 compatible Nvidia or AMD ATI card, ATI Radeon 3870 or higher, Nvidia GeForce 8800 GT or higher.
Ami magával hozta azt is hogy a dx9 mód mint olyan ezeknél már nincs. -
Abu85
HÁZIGAZDA
Onnan tudja, hogy kihasználja, hogy ha DX10/10.1/11/11.1-re külön kód kell, mert nem kompatibilis a DX9-cel. Win 7 alatt van visszaskálázás maximum, de ekkor a játék nem fut XP-n még akkor sem, ha DX9-es path van benne.
Melyik másik három platformról van szó? Csak a PC használhat DX-et, mert másra nem érhető el az API. A Mac az OpenGL. Az iOS és az Android OpenGL ES.
[ Szerkesztve ]
-
hackeeeee
Jómunkásember
Aham.
Szerintem Én nem személyeskedve írtam meg a hsz-emet, Neked sem így kéne..
Ott van a link alattam, nézzél utána, hogy hány dx10-11-es játék van már napjainkban...
Lassan kilyukadunk oda, hogy telepítsünk XP-t, mert elég az minden játékhoz, mert elég az a DX9-el. Aztán meg megy a pislogás, hogy egy új játék el sem indul.. Igen, az újabb siker játékok között van már pár ilyen, hogy csak min. DX10-es hardverrel, rendszerrel hajlandó működni.
Mellesleg, nem kötelező lépést tartani a technológia fejlődésével, csak aztán meg nem kell hisztizni, ha valami nem megy.
Másik 3 platform? Felettem erre meg válaszoltak...
Hiába lenne elég. Nem elég.. Ha tetszik ha nem.. Ha nézed a százalékokat, ha nem.. Ez van? Nem tetszik? Így jártál.
[ Szerkesztve ]
-
Supra
tag
válasz
hackeeeee #12 üzenetére
Hackeee: ez egy olyan ing, amit inkább vegyél fel, mielőtt szövegelsz!
Miért, te honnan tájokozódsz? Ujságból? Marketing szövegből? De okos! Nekem a tridef kiirja induláskor, hog az adott játék ténylegesen milyen DX módot indított - eddig kétszer láttam DX10 felíratot...
De ha már olyan baromi okos vagy: http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support
Szerinted ez hány százaléka a piacon lévő játéknak? 1%? 1,5%?
És ha még egy adott játék DX10-et is inicializál, miből tudod, hogy ki is használja azt?Szerinted egy játék, ami 3 másik platformon DX9 szintű motrral fut, mennyire használja ki a DX10 lehetőségeit TÉNYLEGESEN?
A Mass Effect 3 megjelenése előtt írtak is erről...
-
mrhitoshi
veterán
Még hogy nem lesz újítás a Windows 8-ban. Remélem észre is fogjuk venni az újításokat.
-
hackeeeee
Jómunkásember
Arra a játékra eleve sok panasz van, épp ma olvastam.
-
djculture
félisten
Az még nincs meg neki nagyon új game de majd megkérdezem nála mit muzsikál
Amúgy akkor legyen 3 játék ami megfogja a rengeteg közül, mondjuk biztos hogy jön most már rengeteg ilyen. De egyáltalán én azt se értem miért nem dx11 minden játék és annyi. Gondolom a konzolok miatt, más okot nem látok miért támogatják még a dx10-et.[ Szerkesztve ]
-
radi8tor
MODERÁTOR
Várjuk a sok-sok DX11.1-es játékot.
-
hackeeeee
Jómunkásember
Nem ám.
Nos, ha benne van a cikkben, akkor elnézést, de csak gyorsan átszaladtam rajta.
Hardveres támogatás szinten ez mit takar mint az
ATI-nálAMD-nél, mint az nVIDIA-nál? Mely szériák fogják támogatni?(#7) Supra: Haha, inkább nézzél utána a dolgoknak, mielőtt hülyeségeket írsz.
[ Szerkesztve ]
-
Supra
tag
Hehe...
Ez a 22-es csapdája, illetve a körbezárult:
A Console-ok fix HW-e lassítva a játékok fejlődését, amit eddig a PC húzott. Ezért viszont PC-re sincs játék, ami technikailag elöl járna: így viszont pár hülyén kívül, akik kifizetnek 3 tech demo megnézéséért 100-200 ezret, senki nem fog váltani. Így viszont kenheti a hajára az új szabványt az MS
És tényleg, már évek óta nem láttam "hűha!!!" grafikát, és semmi kéztetésem sincs a mostani kártya cserére, amikor mér DX10-es játékot is csak véletlenül találni.
Kis szerencsével a következő konzol generáció idején meg már DX12,13, vagy a jó ég tudja mi lesz, szóval tényleg lehet a semmiért cserélni.
-
mghltm
addikt
"Az AMD GCN és az NVIDIA Kepler architektúrája már támogatja a felületet, melyet korábban még csak az előzetes specifikációk alapján lehetett megtenni, de a végleges követelmények ismeretében ez most már teljes bizonyossággal kijelenthető."
mokas lett volna, ha az ms valamit gyokeresen megvaltoztat az elozetesen leirtakhoz kepest
-
Televan74
nagyúr
Én Pató Pált játszom. Ej ráérünk arra még!
Nem kell rögtön szaladni a boltba DirectX 11.1 kártyákért.Szerk.: Nekem úgy is várni kell, még kijön egy elfogatható felszereltségű, viszonylag jó árú(300k körüli), DX11.1 notebook.
[ Szerkesztve ]
-
SkyS1gn
félisten
Simán megtilthatnák az agyontesszelálást is már ilyen alapokon
szerintem ennek sok látványbeli haszna nemigen lesz -
Egonyolc
aktív tag
Azt lehet tudni, hogy a dx11-es kártyák kompatibilisek lesznek-e hw-esen?
Új hozzászólás Aktív témák
ph A Microsoft felvázolta a végleges specifikációt. Az AMD és az NVIDIA új generációs architektúrái hivatalosan is támogatják az új API-t.