- Apple asztali gépek
- Milyen házat vegyek?
- OLED TV topic
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Mikrokontrollerek Arduino környezetben (programozás, építés, tippek)
- VR topik (Oculus Rift, stb.)
- HiFi műszaki szemmel - sztereó hangrendszerek
- Melyik tápegységet vegyem?
- Bluetooth hangszórók
- Amlogic S905, S912 processzoros készülékek
Új hozzászólás Aktív témák
-
PPSH
őstag
gyerekek sztem amire a dx 10-et rendesen kihasznalo jatekok megjelennek addigra mar mindenki vigan tud majd valtani.meg dx 9-es jatek is nagyon keves van szoval nem ertem hova ez a fejlesztes,az biztos hogy a lehuzas a legelso cel
-
MooN00
aktív tag
most nincs nagyon kedvem kutatgatni és nézegelődni...
de valaki megtudná mondani, hoj meik kártyák támogatják ??
egy link is megfelelne....
...még1x bocs a lustaságomért -
LittleG
tag
''Az Intel már az idén megkezdi a DirectX 10 támogatást nyújtó Graphics Media Accelerator 3000 videovezérlőt tartalmazó G965 és Q965 chipkészleteinek szállítását a Core 2 processzorokhoz. Úgy hírlik, a GMA 3000 minden tekintetben modern felépítésű grafikus mag, egységes shader architektúrával, 32 bites lebegőpontos futószalagokkal, a memóriasávszélesség-igényt csökkentő trükkökkel (pl. early Z-check), valamint a H.264 és WMV9 hardveres támogatásával.''
[link]
Váó. Bár nem fognak a chipek fejlődni az évek folyamán, meg nem ismerni a pontos specifikációkat, így látatlanban szerintem mégis ez lesz az első, akár játékra is használható integrált gpu. -
rudi
nagyúr
Igen, nagyjából erről van szó, vagyis az Xbox 360 nagyon közel áll a DX10-hez és a Vistaban debütáló driverkezeléshez. Itt van egy Xbox360 szlájdsor [link], amiben a hardver és szoftver meg játékfejlesztés kapcsolatát magyarázzák Xbox 360-on. Ezek közül bagyon sok részlet hasonlít a DX10-es menutatókban olvashatókra.
-
Tyberius
aktív tag
Köszönöm a kimerítő válaszokat cousin333-nak és legfőképpen rudinak!
Azt hiszem, már nem nagyon maradt több kérdésem
Ami rudi összefoglalóját illeti, tényleg nem ártana egy elméleti alapú cikket írni belőle, így egy topikba lehetne gyűjteni azokat, akik érdeklődnek a téma iránt. Ha majd lesz DX10-es hardver, akkor úgyis mindenki csak a screenshotokra és az fps-ekre lesz kíváncsi
Tyberius
[Szerkesztve]
[Szerkesztve] -
FTeR
addikt
ok. de azért lehetne egy pl ''Mit várhatunk a dx10től?'' vagy ''Miért is várom a dx10et'' jövőbe tekintő összefoglaló elemzés.
kicsit magamért is beszélek =P mert egyszerűbb lenne egy cikket linkelni, mint megpróbálni elmagyarázni azoknak, akik úgy vélik -vmilyen oknál fogva- a dx10 csak a dx9 csinosítgatása.
olyannal is találkoztam, aki kijelentette, h kissebb a jelentősége mint az előző kettő között.
kb úgy képzelem el, mint ezt [link] a cikket, csak részletekbe menőebben. -
rudi
nagyúr
válasz
cousin333 #283 üzenetére
A GPU és CPU kiterhelése megint sok kérdést vet fel. Ha már két magos a CPU is, akkor biztosan sokkal több mindent rá lehet majd lőcsölni, komolyabb AI-t lehet írni. A játékok nem voltak feltétlenül procilimitesek, igazából magunk sem tudjuk megmondani, mi limitálta őket, de két sejtésünk van:
Az egyik lassító tényező a CPU és GPU közötti átviltel szűkössége. Ha a CPU számolja a dinamikus fizikát, az akkora adatforgalmat igényel a VGA-felé, hogy valahol korlátba ütközik. Nagyon az az érzésünk, hogy ez a korlát nem is a PCI Express szélességi határa, hanem a rendszermemória környékén kereshető.
A másik sejtés valamiféle quad határ lehet (de a renderelő folyamat más pontján is lehet elakadás, fenetudja), amire abból következtetünk, hogy gyakran a 3 quados GF 7600 GS és a 6 quados GF 7900 GT is ugyanolyan szebességet mutatott, ráadásul a CPU gyorsításával sem változott a helyzet. Könnyen lehet, hogy volt valami olyan komplex shaderkódba futottunk bele, ami miatt egy quad annyira lelassul (olyan sokáig csinálja az adott kódot) hogy a többieknek várniuk kell. Persze ez még csak egy feltevés, még sokat kell gondolkodni és kísérletezni rajta. Ebből is jó a DX10, mert seregnyi ellenőrzőeszközt is beleépítettek, ami mutatja, hogy az egyes fázisok meddig tartottak, milyen erőforrásokat igényelte. -
rudi
nagyúr
válasz
Tyberius #282 üzenetére
Lássuk a szoftveres részt. Ez az egész VS-PS futószalagosdi valamikor a DX8 megszületésekor kezdődött. Egy shaderkód akkoriban, ha jól emlékszem 16-32 szekvenciális utasítás lehetett, se ciklus, se elágazás se semmi. Még anno, jópár évvel ezelőtt, a VGA.nfo-n nagyjából leírtam, hogy is vannak a régebbi shader modellek mi is ennek a lényege, akit érdekel, nézzen bele [link].
Mára Shader Model 2.0 (DX9 alapkövetelménye) is hatalmas előrelépést jelentett az SM1.x modellekhez képest, de a hardver számolós része nem szélesedett olyan mértékben, mint amennyit emelkedett az esetleges kód komplexitása. Az első SM2.0-s hardverek a Radeon 9500-9700-ak voltak, de nagyjából az X850 és GF6 idejére jutottunk el oda, hogy nagyjából olyan potens volt a hardver, hogy bármilyen (pontosabban inkább szokásosan megvalósításra kerülő) SM2.0 kód CPU-limitesen tudott futni rajtuk. Persze a GF6 és X850 idejében már a GPU-gyártók az SM3.0-ra és HDR-re verték magukat, amint, mint láthatjuk az Oblivion vagy TR Legend alapján, még a mai hardverek sem bírnak el, pedig ma már a fizika az, amire a GPU-gyártók verik magukat
Összegezve:
A fícsörlista mindig jópár lépéssel a hardver képességei előtt halad, ezt diktálja a PR-gépezet. Jó példa lehet erre a hátizsák és a sherpa esete:
1. adott a sherpa aki 50 kilós zsákot bír el normálban (hardver számolási képessége)
2. a sherpaközvetítő (GPU-gyártó) rácsap a szegény hordár hátára egy 80 kilós zsákot és büszkén hirdeti: ''ez az ember 80 kilót is elbír''
3. amikor a kedves hegymászó (kóder) felbéreli a 80 kilósnak reklámozott, de csak 50-et bíró sherpát, és rápakol 80 kilót, akkor az csak négykézláb bír mászni, DE viszi! Ergo az ''ez az ember 80 kilót is elbír'' állítás igaz, csak ugye a kis csillagos rész...
4. mire szegény sherpa haverunk feledződik annyira, hogy már a 80 kilóbval is tud normálisan haladni, akkor mi történik? Jön a nagy kijelentés: ''ez az ember 150 kilót is elbír''
5. megint jön a négykézlábmászás...
6. goto 4. pont
Mit lát ebből a megrendelő (felhasználó), aki X kilót akart a hegymászóval és expedíciójával felvitetni a hegyre (vagyis full fícsörben akar játszani)? Ezt látja: ''kurv@életbe! felbéreltem a legjobb csapatot, beigérték, hogy 3 nap alatt felvisznek X kilót, és erre b@sszus 6 nap kellett rá...''
Na, erre jön a DX10-es csavar: váltsuk le a sherpánkat szamárra! Teljesen másképp működik, az összes hátizsákot, cipelőcuccot át kell hozzá tervezni, de ez 500 kilót bír -
rudi
nagyúr
válasz
Tyberius #282 üzenetére
A DX10-zel nem csak a softveres (API-s) megközelítés változik gyökeresen, hanem a GPU-k hardveres felépítése is, kicsit boncoljuk ezt.
Egy klasszikus GPU (legjobb példa erre a G7x sorozat, mert az X1000-es Radeonok más kicsit a jövő felé léptek) felépítése nagyos specifikusan blokkosítva van, ez a kép jól mutatja:
Látható, hogy vannak a VS-esk (hozzájuk lehet venni még a Cull/Clip/Setup részt, ami a geometriát építi fel és kiszedi a takarásban lévő részeket stb.), majd egy elosztó, majd ismét szélesesdik az architektúra - jönnek a PS-ek - aztán megint jön egy crossbar osztónű és a ROP (raszterizáló egységek). Ehher kívültől csatlakozik még a memvezérlő, amit itt elég egyszerűen vázoltak fel, de az is egy masszív crossbar vezérlő, 256 bit esetén 4 ággal.
Mi az a corssbar? Egy olyan összeköttetés kétfajta hardveregység között, ahol az egyik oldal minden eleme össze van kötve a másik oldal minden elemével.
A G73 24 pixel shadere 6 négyes blokkba (quadba - elgyen annyi elég, hogy a quad a 2x2 pixelt jelent, és mindenféle pixelszámolás alapja) szervezve és a 16 ROP egysége között 96 szálat kell megvalósítani. 32 pixel shader (8 quad) és 20 ROP esetén már 160 szálat kellene kivitelezni, amit már eléggé bajos megvalósítani helyügyileg is. Nem csoda, hogy az R580 48 shaderét (12 quad, de még azon sem lepődnék meg, ha nem csak négyes blokkokba lehetne őket szervezni) már nem corssbarral valósították meg, hanem egy osztóművel és egy nagy közös (ez fontos, hogy közös) regisztertömbbel.
De mi is az a regiszter? Nos az egy olyan, mondhatni adathely, amit a GPU számolói ''közvetlenük'' (idézőjelben, mert itt is van címzés meg pointerezés, de ez megint csak mellékes) nagyon kis késleltetéssel érnek el, ezekben található adatokkal hajtják végre a számolási műveleteket.
No, de térjünk vissza a hardverfelépítéshez. Szóval adott egy halom, specifikus VS és PS, aminek mindnek megvannak a maguk kis cachejei (ezekbe töltik a szükséges textúrákat és adatokat) és korlátozott számú regisztereik (ezekbe töltik fel a Cacheből az éppen szükséges adatokat, amikkel a számolás zajlik). Egy ilyen felépítést (sok kis részegység, mondhatni processzorblokkok a processzoron belül) hardveresen megvalósítani, és összehuzalozni meg összeszervezni nem egyszerű feladat. Éppen ezért van az, hogy olyasmit pusmogtak pl a G70 (GeForce 7800 GT/GTX GPU-ja), hogy hardveresen 8-10 quad (vagyis 32-40 pixel shader!!!) meg van benne valósítva, de ebből átlagosan csak 20-24 életképes (!). Állítólag a G73 (GF7600-ag GPU-ja) is hardveresen 4 quados (16 PS-es).
Ebből is látszik, hogy ez a quadozósdi már eléggé nehezen kezelhető felépítés lett. Mi a megoldás? Az, amit az ATI R5xx chipjainél láttunk, vagyis annak a továbbfejleszétse. Mit is tud az R5xx architektúra? A VS rész maradt a régi csak a pufferkezelését oldották meg (ez még fontos lesz). Utána viszont a PS-ek, textúrázók és ROP-ok kezelése gyökeresen megváltozott. Nézzük csak az R520 (X1800 GPU) blokkdiagramját:
Van először is a ''diszpécseregység'', ami a munkát osztja (no alapvetően ő már egy nagy titok, és a jövőben érdekes lehet, kinek mennyire jön össze a megvalósítása). Utána jönnek a PS-ek egyelőre (ez is fontos lehet) quadokban. Amit észre kell venni, hogy ezek már nem közvetlenül tartalmazzák, a textúrázókat, hanem azok is külön blokkba kerültek, és a diszpécser kezeli őket. A textúrázók másik vége a most már közös, baromi nagy regisztertömbnél van. A pixel shaderek quadok működése most (Radeon X1000 családnál) úgy megy, hogy a diszpécser kiszól ''itt ez a shaderkód, és ez a regisztertartomány, tessék kiszámolni''.
A közeljövőben, az uinified shaderes felépítéssel úgy módosul, hogy a diszpécser nem csak a PS-ek hanem általános shaderek fölött uralkodik. Innentől kezdve az utasításai nem úgy kezdődnek, hogy ''hé, pixelquad!'' hanem úgy, hogy ''hét ti, X számú általános sahder!'' az sem biztos, hogy továbbra is négyesével szóllítja majd meg a számolókat. A megszólítás úgy folytatódik tovább, hogy ''van itt egy VS vagy GS vagy PS meló''. Ez azt eredményezi, hogy amikor a korábbi 6-8 vertex shadeből 2-3 számolja a geometriát, a többiek beállnak pixelt vagy mást számolni. Ráadásul ennek a VS/PS terhelési aránynak még érdekesebb az eloszlása mint gondolnánk. Az alábbi ábra azt mutatja, hogy egy kép kiszámolása közben mikor, milyen terhelés van a VS és PS egységeken. Látható, hogy egyszerre szinte soha nincsenek kiterhelve.
A másik dolog, hogy az ATI az X1000-ben már a sokhuzalos Crossbar vezérlőt is leváltotta Ring-busra. Erre most nem térek ki, az X1000 cikkben elmagyaráztam [link]
Summázva. A szétválogatott blokkok, regiszterek és sok-sok összekötő huzal helyett most úgy épülhet fel egy GPU, hogy a következő elemei lesznek:
- valami nagyon titkos, trükkös és okos diszpécser (ez lesz az érdekes rész)
- baaaromi nagy általános, egyforma szhader számolókból álló hadsereg (ezt könnyebb lesz megvalósítani mint a mai, azért eltérő számolókat
- az R580 256 kB-os tömbjénél is nagyobb regiszteróriás (ez tudtommal egyszerűbb megvalósítani mint számolókat vagy kisebb memóriablokkokat
- amire az Xbox 360 GPU-ja (Xenos) alapján következtetni lehet, lesz még egy On-DIE (vagyis a GPU-val egy lapkára pakolt) memória, ami veszettül gyors lesz és akár 8-16 MB is lehet.
- egy ring-bushoz hasonló memóriakezelés
- kell még egy ügyes buszrendszer, ami összeköti a számolókat és egyéb egységeket.
A nagy kérdés az lesz, hogy egy ilyen architektúra felületre/fogyasztásra/tranzisztorszámra/órajelre vetítve milyen hatékonyságot mutat majd a mai cuccokkal összevetve. Valószínű, hogy jóval hatékonyabb lesz.
mindjárt folytatom a programozós résszel -
cousin333
addikt
válasz
Tyberius #282 üzenetére
Addig is, amíg Rudi kielégítő válasza megérkezik, egy két gondolatot hozzáfűznék:
Először is, mit jelent az, hogy aránytalan. A legújabb, VGA éhes játékok érkezéséig (F.E.A.R, Oblivion, Tomb Raider) erősen procilimites volt a dolog a csúcskártyák esetében (SLI-ről, Crossfire-ről nem is beszélve). Másrészt ha belegondolsz, rengeteg játékhoz bőven elegendő egy 3000+-os A64, nem nagyon veszed észre a különbséget egy gyorsabb procival.
A GPU kétségkívül átvállal 1-2 dolgot, például a fizikát. Hisz arról van szó, hogy pl. a régebbi VGA számolná a fizikát, a mellé kötött új pedig a grafikát. Esetleg külön bővítőkártya használata lehet a megoldás (Ageia), bár szerintem elkéstek vele, mert lehet, hogy jobb és gyorsabb, de nem olyan mértékben, mint amilyen problémát okoz az új alkatrész bevezetése (ár, kompatibilitás, meghajtóprogramok).
Namármost a fentiek kétségkívül több ''teret'' engednek a CPU-nak, de ez nem jelenti azt, hogy nem lehet leterhelni. Eleve nem egyfajta játékstílus létezik. Egy FPS-ben sokat számít a VGA. De egy stratégiai játéknál, legyen az akár Age of Empires, Civilisation, Heroes vagy Simcity nagyon sok múlik a processzoron. De még ha csak az FSP-eket nézed is, ott van mindjárt az AI. Nem is kell messze menni - elegendő szemügyre venni a 3DMark2006 procitesztjét, ami gyakorlatilag AI számolás (remélem, nem tévedek...) - hogy lássuk, ezzel az egy részfunkcióval is le lehet terhelni egy mai csúcsprocesszort. Stratégiáknál meg egyértelmű a dolog: több, intelligensebb egység, reálisabb szimuláció -> növekvő játékélmény (persze a fentiek önmagukban nem elegendőek).
Összességében elmondható, hogy általában nem azért tudnak a mai programok annyit, amennyit, mert bénák a programozók, hanem mert a hardverek jelenleg ennyire képesek (persze mindig vannak jobbak, akik azonos konfigból többet ki tudnak hozni).
Írtam már egyszerű társasjáték AI-t ami skálázható volt. Úgy érzed, a következő lépés kiszámítása túl gyorsan megy a gépnek (pl. 0,2 mp)? Semmi gond, egyetlen konstans értéket kell átírni ahhoz, hogy ugyanez mondjuk 3 percig tartson ugyanazon a gépen. És akkor már lassúnak fogod találni, és ha egy komoly, jó játékról lenne szó, rohannál a boltba új prociért. Viszont amellett, hogy lassabb, sokkal több lépést gondolkodik előre, ezáltal sokkal versenyképesebb ellenfél, sokkal jobban közelíti a valóságot, az emberi ellenfeleket.
Mindebből azt akarom kihozni, hogy ha a GPU át is veszi a terhek egy részét, még mindig marad elegendő feladat a CPU számára is. Csak több tere lesz kibontakozni,és ezzel új lehetőségek nyílnak meg. A fizika, a grafika, az AI (...) előtt egyaránt, mert nő a rájuk fordítható számolási teljesítmény.
Annál is inkább, mert - mint írtad is - ''the show must go on'', a fejlődés nem állhat meg, ez a processzorgyártók érdeke is (és ha figyelembe veszük, hogy volt szó arról, hogy a kisebbik processzorgyártó, az AMD esetleg megveszi az ATI-t, akkor az arányokat is láthatjuk). És ha kijön egy játék, ami a felszabaduló pluszt is kihasználva, leterheli a legújabb csúcsprocikat is, és a többinél jobb játékélményt nyújt (pl. x ezer harci egység egymástól független, egyidejű kezelése), akkor a többi játék és a felhaszálók számára is az válik mércévé (mint anno a far Cry, ami után már nem ütött annyira a HL2 és a Doom3), és aki nem akar lemaradni, az ebbe az irányba kell, hogy továbbmenjen.
Szóval úgy gondolom, nem kell temetni a CPU-t, mit a játékgép egyik legfontosabb elemét.
[Szerkesztve] -
Tyberius
aktív tag
Hali!
Na akkor kérdezek én is.
Azt ugye eddig is láthattuk, hogy a játékokban egyre hangsúlyosabb szerepet kap a GPU, a múltkori CPU-GPU párosítós tesztből egyértelműen látszott, hogy a legtöbb konfig VGA-limites. Ez a DX10 modell, ahogy látom, a munka még nagyobb részét fogja áthelyezni a GPU-ra.
Tehát fennáll a kérdés: nem fog ez aránytalan eltérésekhez vezetni a játékok processzor- illetve videokártya-igényei terén? Tehát hogy egy akármilyen szutyok proci elég lesz a gamer gépbe, mert játékok csak a VGA-t fogják igazán megdolgoztatni? Én mondjuk nem lennék ellene a dolgok ilyetén alakulásának, elvégre jobb, ha csak egy alkatrészt kell fejlesztgetni a gépben, mint ha kettőt, de kérdés, hogy az AMD és az Intel is így lesz-e ezzel... -
fiATHaLON
őstag
Köszönöm, a lényeget kezdem leszűrni...
Kicsit nagyobb léptékben használódnak el a mai DX9-es kártyák...
Bár, ha ilyen tendencia lesz, mint az eddigi újításokkal (pl. SM3.0),
akkor egy darabig nem kell félni, mert az is kb. most kezdi kiforrni magát, és
tömegesen megjelenni a játékokban... -
rudi
nagyúr
válasz
fiATHaLON #279 üzenetére
Bármi nem világos a DX10-zel kapcsolatban, tessék kérdezni. Jelenleng nincs energiánk egy 10 oldal körüli írásra, ami teljesen az alapoktól magyarázza el a megjelenítés lépcsőfokait, de azért beszélhetünk rőla.
Eddig is az volt a gyakorlat, hogy az alacsonyabb DX verziószámú kártyák nem támogatjáűk az új dolgokat, most sincs ez másképp. Az komplikálja a helyzetet, hogy a DX10 gyökeres változást jelent a DX9-hez képest, nagyobb lesz a különbség mint DX8 és DX9 között. A 8-as és 9-es verzió között az volt a különbség, hogy az újabb nagyobb precizitással dolgozott és összetettebb (shader) programokat lehetett készíterni benne. Ha csak DX8-as hardver állt rendelkezésre, akkor az egyes effekteket lehagyták, egyszerűsítették és kész.
Most, a DX10-ben megjelent a GS (geometry shader), aminek olyan a felépítése (geometriai promitíveket kezel), amivel a korábbi, DX9-es VS és PS nem nagyon tud mit kezdeni. Ráadásul az is változott, ahogyan az adatokat kezelik. Korábban (DX9-ig) az volt az alapvető teljesítménybeli követelmény, hogy minél kevesebb (lassú) textúrázást használjanak a kódolók és minél több (gyors) számolást. Most, a DX10 kapcsán, olyan hardveres architektúrát építettek fel, aminek nagyon fekszik a textúrázás (valami textúrakezelés-szerűséggel komunikál a VS-GS-PS), szóval fordult a világ.
Kóval összesummázva a DX9-es hardver DX10 lehetőségeit/korlátait.
- DX9-ben a GS (Geometriai/fizikai) számolásait át kell helyezni a CPU-ra vagy valami fizikai motorral (mint amilyen a Havok) a PS-ekre. Ez komoly lassuláshoz vezet
- a textúrázás felé eltolt utasításmegoldást vissza kell tolni számolós felé.
- aztán ott van még a DX9-es HW korlátja, hogy fix számú VS és PS egység van, amiket nehezebb rugalmasan kihasználni. -
fiATHaLON
őstag
Kicsit, hogy az egyszerűbb embereknek is érdekes legyen a fórum
(nekem), ha van most valakinek egy DX9-es kártyája,
az nem fogja tudni futtatni a 10-es játékokat, vagy lassabban/szolídabb
lehetőségekkel ? -
rudi
nagyúr
Pontosan azt csinálja! Eddig a CPU számolta ki az animációt csont (bone) vázak alapján, tologatta el a modelleket a fizika szabályai szerint, majd ezt az eltologatott jelenetet küldte a GPU-nak, ami csak vertexek és pixelek tömegét tudta kezelni. Most arról van szó, hogy az eredeti modellek kerülnek a VS-be, utána a GS megcsinálja a fizikai dolgokat (primitívek ütköztetése, csonok animálása, stb.) ezt visszatölti a VS-nek vagy továbbküldi a PS-nek. Az egyszerűsítés pedig abban rejlik, hogy a VS, GS és PS számolásokat is ugyanazok a számoló hardverek (ALU-k) csinálják, nincs többé dedikált VS és PS számoló, csak általános számoló.
-
Turmoil
senior tag
Amikor írtam még nem. Csak éppen elképzeltem, hogy az eddigi shaderek közé illesztve mire lehet képes egy kis extra szilícium. No meg a neve is utal a funkciójára.
Most rákerestem és [link] találtam róla valami leírást, ami alátámasztja a feltevésemet, mely szerint ez csak a megjelenítés lehetőségeit bővíti, nem fizikát számol (ütközések, stb...). Nem mindent értek a cikkből, de a lényege, hogy a háromszögekkel lehet trükközni még a kirajzolásuk előtt... -
AMD The Best
tag
sztem ez csak arra megy, hogy hogy rántsák le az embereket még jobban!!!
-
Yushchenko
őstag
hehe, roszra válaszoltam
-
Yushchenko
őstag
válasz
Komplikato #268 üzenetére
De szvsz ez akkor sem ide való. Engem legalább is nagyon nem érdekel. Amúgy az Xbox360 egy nagy bukta a Microsoftnak. A PS3 és a WII simán megverik majd eladásokba. De beszéljünk már inkább a dx10-es kártyákról.
-
Komplikato
veterán
És tegyük hozzá, hogy ha sikeres egy PC játék, akkor (legalább is német/osztrák részen) 4-6 hónap után feleződik az ára, ha ''futott még'' kategóriás, akkor 2-3 havonta, ha meg bukta, akkor megjelenést követő 1-2 hónapban 5-10-20 euroért utánad dobják. Konzoloknál sajnos sokkal lasabban esnek az árak.
-
rudi
nagyúr
válasz
Yushchenko #264 üzenetére
Pedig DX10 kapcsán kénytelenek vagyunk elővenni az Xbox 360-at. Nézz bele ebbe [link], no szinte teljesen ugyanilyen lesz a DX10 és az ATI következő generációs GPU-ja.
-
faster
nagyúr
válasz
Yushchenko #264 üzenetére
A konzolok ott vannak mindenhol, nemsokára átveszik a hatalmat az emberiség fölött. Tulajdonképpen a Mátrix is egy naaagy konzol, nem láttad a designját?
-
Yushchenko
őstag
Most lehet hogy velem van a baj, de ki a halált érdekelnek a konzolok a dx10-es topicba?
-
fiATHaLON
őstag
Olyan örömmel csaptam le erre a topicra, mint gyöngytyúk a meleg
takonyra...
Na mondom, ebből majd kiokoskodom, ki mit tud az eljövendő játékokról,
platformokról...
Ehhez képest itt semmi ilyesmi nincs (az első oldalnál tovább nem lapoztam...)
Crysis Ez egy idevágó hozzászólás volt... -
rudi
nagyúr
Azért vegyük bele azt is, hogy ma egy A-s játék kiprodukálása sokkal költségesebb mint korábban volt (még ha nem is érezzük jobban a korábbi játékoknál). Pl. egy NFS:MW-hez egész komoly filmes bandát kellhetett szerződtetni. Megy ugye az is elég izmos kiadás, hogy az Xbox 360-at annyiért adják, amennyiért.
-
Raymond
titán
Hmmm...nem egeszen ertem miert irtad ezt nekem, mert elottem is vilagos es egy velemenyen vagyunk
Azt szerettem volna hogy az emberek ne gondoljak hogy 64 EUR online vagy 75 EUR besetalos uzletben nem sok egy jatekert nyugaton. Mert sok.
Egy megjegyzes a kolcsonzeshez: PC-s jatekokat nem kolcsonoznek es hasznaltan nem arulja semmilyen uzlet. Csak a konzolos jatekokkal foglalkoznak igy. -
kovsol
titán
-
MUŁĐER
addikt
erre megoldás hogy nem kell mindennel ész nélkül játszani, hanem tényleg csak a jókat megvenni, vagy nem kiadáskor megvenni hanem használtan, stb.... meg külföldön lehet kölcsönözni játékot mint itthon a dvd-ket, ez nagyon jó dolog, örülnék ha lenne nálunk is ilyen..( vagyis pesten tuti van, de ahol én lakom ott nincs sajna...) van egy csomó játék amit egyszer végigtol az ember 2-3 nap alatt ,és annyi...nem rakja el a gyűjteménybe, erre tökéletes a kölcsönzés
-
Raymond
titán
''Ez a drága a játék csak számunkra Magyaroknak drága, nyugaton annyira nem eget rengető a dolog,...''
Loof@szt!!! Mar hogy igy kell leirnom....
Csak hogy az aranyokat lassuk: Egy Xbox/PS2 uj A kategoriaju jatek ara 48 EUR szemben az Xbox360 64 EUR-javal. Es ez online rendeles esten, brick&mortar uzletben meg roszabb a helyzet (kicsivel magasabbak az arak). A PS3 jatekok tervezett ara 80 EUR !!!! Ennyi penz nyugaton sem keves, ne eljen senki ilyen tevhitben. Foleg a manapsag kiadott jatekok hosszat es minoseget tekintve. Nagyon elferdultek az ar/szolgaltatas aranyok... -
Cathfaern
nagyúr
Ez egy érdekes probléma. Létezik egy kifejezetten tájkép generálására alkalmas program, a Terragen, van itt a PH!-n is topicja. Az ebben elkészített képeknél (amik vízfelületet is tartalmaznak) az egyik legnagyobb probléma annak a megoldása, hogyan tüntesse el az ember ezt az egyenes vonalat a víz és a szárazföld között...sajnos teljesen nem is lehet. Valószínűleg ez részben a program korlátja is, de ha egy több órás renderidővel alkalmas programban ez a helyzet, akkor a real-time játékokban mit várunk...?
Más:
felvetődött az a kérdés apucik vagy a hardcore gamerek van többségben. Igazság szerint egyik seA piac döntő többsége a cégek. Egy nagyobb cég megrendel egyben 2000 gépet...ehhez képest az, hogy a hardcore gamer besattyog a boltba és leemel a polcról egy 130ezer Ft-s VGA-t, gyakorlatilag aprópénz. Volt régebben egy kimutatás az ATI vs. NVIDIA vs. Intel, eladott vga chipek számát nézve. Az Intel magasan verte az előző kettőt. Ja, hogy csak integrált vga-ja van? Ja, hogy a céges gépek nagy részében ez van...? (még nagyon zárójelben szeretném hozzátenni, hogy épp ilyen okokból nem lételeme a MS-nek a PC-s game, ha esetleg soha többet senki se vesz PC-t játék célra, az MS akkor is vígan ellesz
-
-
rudi
nagyúr
Korábban már kértem, hogy melőzzük a konzol vs PC vitát! Most megkérek mindenkit még egyszer, mellőzzük a konzol vs PC vitát! Aki mégis ebben a témában akar megnyilvánilni, tegye itt: [link]
-
gaben88
őstag
Ez a drága a játék csak számunkra Magyaroknak drága, nyugaton annyira nem eget rengető a dolog, de év végére hivatalos támogatást kap M.o.-on is a 360 és még olccsóbb lehet az egész konzol koceráj, de mivel mi Magyarok már ''szinte'' elvből warezolunk leírom azt is, hogy a warez már lélegzik 360-on is, méghozzá úgy, hogy a live-ról se kell lemondani! Meg jön a ki be kapcsolható chip! És Xbox-on is van a classic dolog ami olyan mint pc-n a EVM! De hagyjuk ez a topic télleg nem erről szól, egy biztos akinek 360-ja van az qrwaára le fogja x*rni, hogy mi lesz a 150ezer ft-os dx9-es vga-val, meg ezzel az egész váltással!
-
gaben88
őstag
jesszus mária, de útálom ezzeket a pc-s hozzáálásokat, sz*rt se értenek a konzolhoz de okoskodnak! bocsi de ezzek mellet nem tudok szó nélkül elmenni, tudom h*lye vok de ISTENEM! Tehát a 360bőven tud 1080i felbontást ami sztem igen brutális akárhogy is nézzük, és ha az embernek nincs naon pénze akkor is ki tud hozzni 1280x1024-es felbontást a 360-ból úgy, hogy a mezei crt pc-s monitorják köti box-ra! A fps meg rts kérem szépen se probléma, mert szó nélkül köthető usb-s egér és bill. a 360-ra, de amugy a gamepad is sima ügy csak rá kell állni, meg ez a remegés meg mit tom én sokkal kényelmesebb hosszú távon! De külfödlön már laza a 106cm-es hd tv-k amik hihetetlenek minden szempontból! KONZOL
-
CocooN-z
őstag
Ez a COD 3 as előzetesek nekem egy turbózott COD2 esnek tűnik. Sztem ha megjelenik jobb lesz, ez csak egy hír hogy lesz cod3, mint ingame preview.
-
tjhooker464
őstag
Szerintem az mindenkinek csak jó lenne ha egyszerű lennea portolás! Felpörgetné kicsit az amúgy szerintem nem túl acélos PC s játékkínálatot(bocs ha valakiben ezzel megforgatom a nagykést ez csak személyes vélemény), az MS több játékot adna el(sok fejlesztő cég birtokosa), nekem meg elég lenne egy közepes pc mellett a Wii vagy a Ps3, hogy szinte minden játékkal tudjak játszani. Kánaán lenne.
-
rudi
nagyúr
El rejteni el lehet a DX9-DX10 különbséget, de ahogyan írtad, komplex móka lesz, és, ahogyan én írtam, gond lesz a teljesítményével, mert a CPU-t vagy SM3.0-s Pixel Shadereket terhelő fizika sokkal kisebb teljesítményű lesz mint a GS-es.
A legtöbb DX10 cuccot most R2VB-vel és masszív multipassolással próbálják DX9-ben megoldani, ami ugye nem valami gyors.
A DX9 és OpenGL 2.0 ugyanarra a shader ASM-re épül, max a fordító más. DX10 halom mindennel bővült hozzájuk képest. Néztél már DX10 leírásokat? -
faster
nagyúr
Az OpenGL és DX9 tözött távolról sincs akkora eltérés (lásd Cg, ami crossAPI), mint a DX9 és DX10 között.
Én nem osztom ezt a nézetet.
A GS benn van a VS és PS ''futószalag'' kellős közepén, ahova a CPU elég bajosan tud benyúlni.
Egy jó wrapper osztállyal, ha el lehet rejteni az OpenGL és DX9 közötti különbségeket, akkor el lehet rejteni azt is, hogy a fizikai részt melyik alkatrész számítja ki. Szerintem.
Persze az engine-nek írása még komplexebbé válik, és ezért elképzelhető, hogy még kevesebb engine-gyártó lesz, és több engine-licenszelő.
Nem ismerem azt, hogy a fizikai modellezés mennyire igényel szabadon variálható shadereket, de jelenleg a fix fizikai API kielégítő megoldásnak tűnik. Így az api-ra van bízva, hogyan és milyen hardveren végezteti el a számításokat.
Annak sem látom még az egyértelmű cáfolatát, hogy a GS rendszert a DX9 capsbit rendszerébe vagy az OpenGL bővíthető extension kezelő részébe miért is ne integrálhatnák bele.
[Szerkesztve] -
rudi
nagyúr
Nézd meg milyen fizikai képességei vannak a DX10-nek és azt, hogy CPU-ból mit lehet. A GS benn van a VS és PS ''futószalag'' kellős közepén, ahova a CPU elég bajosan tud benyúlni. Az OpenGL és DX9 tözött távolról sincs akkora eltérés (lásd Cg, ami crossAPI), mint a DX9 és DX10 között. Persze nem mondom, hogy nem megvalósítható, de gondok lesznek vele és valszeg jó lassú (pontosabban kisebb teljesítményű) lesz.
-
faster
nagyúr
No, emiatt a máshogy miatt lehetnek gondok, majd meglátjuk.
Erre valók a Havoc vagy az Ageia féle motorok, amik a hardvertől viszonylag függetlenül képesek elvégezni a fizikai számításokat (az Ageia api-ja is úgy van megírva, hogy nem csak Physx kártyán, hanem a CPU-n is képes elvégezni a modellezést, mindezt az alkalmazás szempontjából transzparensen, és a Havocnál is hasonló törekvéseket látni)
Anno a Far Cry, ami híres volt szép grafikájáról, úgy készítették el, hogy működjön DirectX9 és OpenGL felületen is, csodálkoznék, ha nem lehetne megoldani a DX9 - DX 10 - fizikai számítások vonalon a portablitási problémát. -
rudi
nagyúr
Aha, értem. Szerintem az javarészt textúra, kcsit megphotoshopolják és már jó is lesz. Persze nem szabad még ezzel a DX10-zel szemben sem világigényesnek lenni, ez is csak számítógép, nem lesz egycsapásra olyan, mintha a valóságot vetítenék monitorra. Azt kell megnézni, mekkore fejlődés lesz DX9-hez képest (baromi nagy).
-
nem a katonáról beszélek, hanem a rom amin áll. A rom és a pocsolya széle természetellenesen egyenes. Ilyen nincs, legalábbis elég valószínűtlen. Majd talán a DX12 környékén lehetséges ilyen részletek odafigyelésére. A robbanások, meg a filmszerű effektekkel nincs baj, csak a 3D-s terep/környezetre nem fektetnek még mindig akkora hangsúlyt.
-
rudi
nagyúr
-
rudi
nagyúr
Arról van szó, hogy a DX10 gyökeresen más mint a DX9. Anno a DX8 és DX9 között annyi volt az eltérés, hogy a shaderek (VS és PS) programozhatóságát fejlesztették. A DX8 kompatibilitás annyi volt, hogy a túl komplex kódt igényló hatásokat visszabutították, vagy kivették.
A DX10-ben a VS és PS közé beraktak egy harmadik shadert a geomatriás GS-t. No, ennek a munkája bajosan szimulálható a másik kettővel, és mivel többek közt fizikát is számol, ezért nem lehet csak egyszerűen elhagyni ezeket a nem szimulálható részeket, hanem valahogy máshogy kell megoldani. No, emiatt a máshogy miatt lehetnek gondok, majd meglátjuk. -
rudi
nagyúr
Ez szerintem maxibadarság, a maxibbnál is maxibb! A64 3800+ két Radeon X1900 XT-vel eszik közösen 300 watt körül. Maradjunk inkább a felében, 150-ben, de bármit is akkor lehet majd mondani, ha tudjuk, milyen csíkszélességen, hány (millió) tranzisztroból állnak majd az új magok és hány MHz-re tervezik őket. Az X1900XTX 90 nm-en, 380 millával, 650 MHz-n legrosszabb esetben is max 150 wattot eszik egy ugyanekkora chip 65 nm-en akár 100 wattra is visszaeshet.
-
Mackósajt
senior tag
Ha jól értettem a cikket, akkor az ATI és az nVidia nem nyilatkozott a várható a fogyasztásról. A tápgyártók mondták, amit mondtak. Ők meg nyilván minél több brutális tápot akarnak eladni.
-
Ribi
nagyúr
Hat ez valami rossz vicc !?!? Leglabbis remelem.
A mostani legdurvabb konfigra irtak hogy a tenyleges fogyasztas 300W alatt van. Most kitalaljak hogy CSAK a Vidkari megeszik ennyit ?? Hat lol. Aztan kijonnek a 4 magos procik, azok is megesznek 250-300W-ot es akkor johetnek a KW-os tapok. Ez egyszeruen siralmas. -
Sziasztok!
Érezni a fejlődést, mondjuk sztem ezzel a fizikai újítással biztos, hogy nagyot fognak aratni, meg a 4-es shaderrel, de! Láttátok pl. a COD3-ról készült videót és screenshotot? Még mindig vannak olyan részek, ahol egy hosszú egyenes szakasz van, amin kép baloldalán gugol egy katona... Na ezeken lehetne javítani, hogy ne legyen annyira háromszöges pontosabban, hogy hasonlítson az igazira.
[link] -
rup1u5
nagyúr
Ami hátrány, hogy DirectX 9-es videokártyával gyakorlatilag nem lehet emulálni a DirectX 10-et, ez pedig alaposan lelassíthatja az új API térhódítását.
Ezt én nem értem.
Elmagyarázná valaki? -
Frigo
őstag
Olvastátok ezt a hírt:
''DirectX 10 GPUs to Consume up to 300W ''
[link]
Hát azt hittem lepetézekMostmár lehet venni (persze jó pénzért) külön VGA tápot is .
-
ploteus
aktív tag
Az durva lessz, ha az ATI előrukkol XBOX 360 grafikus meghajtójához hasonlóval....Amúgy ahogy írták, a DX 10-es API-kat nem támogatják a DX9 karik, és ezért nehezen is fog elterjedni. Ez hasonló lessz a PSyHx kártyákhoz.
-
Dare2Live
félisten
konzolos topic [link]
-
BCS CORPS
csendes tag
Úgy látoma dx 10 egy újabb láncszem, hogy áttérítség az embereket a vistára.
off
Ez egy értelmetlen vita.
Nyugaton az az alap hogy van egy pc és egy konzol és az ottani piac az ami számít.
PC = fps meg stratégia gamék, internetezés, warezolás, fejlesztés,
Konzol = minden más kategóriájú game
Ennyi, a kettő tökéletesen meg fér egymás mellett.
on -
rudi
nagyúr
Ő... lécci hagjuk ezt a konzol vs PC a kényelmesebb jétkészer vitát, itt kicsit (eléggé) off...
Új hozzászólás Aktív témák
Hirdetés
- SAPPHIRE RX 9060 XT 16GB GDDR6 PRUE OC - Új, Bontatlan, 3 év garancia - Eladó!
- AZONNAL VÁSÁROLOK RTX 4090 és RTX 5090 videokártyákat! Akár nem működő, hiányos, sérült is lehet!
- GIGABYTE Radeon RX 7600 XT Gaming OC 16GB GDDR6 Videokártya !
- MSI GeForce RTX 4060 VENTUS 2X BLACK OC 8GB GDDR6 Videókártya!
- GIGABYTE GeForce RTX 4060 WINDFORCE OC 8G
- Eladó egy wittings steel hr sport hibrid okos óra dobozával töltővel
- ÁRCSÖKKENTÉS Menő retró konfig: Q9550, Gigabyte P43, 4GB RAM, ASUS GT730
- Dell Precision 5810 Intel E5-1650 v3 128GB RAM 2x512GBHDD 1x512GB SSD Quadro K4200
- TELJES KÖRŰ IT BESZERZÉS
- Beszámítás! Apple iPad Pro 11 2024 1TB WiFi + Cellular tablet garanciával hibátlan működéssel
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest