- A Sony megmutatja milyen monitor illik a PlayStation 5-höz
- 2,5 gigabittel hasítanak a belépőszinten az új Asustor NAS-ok
- SteamOS gyere már PC-re! Nem, még nem jött el az idő.
- Fürge és gazdaságos üzleti monitorral jelentkezett az EIZO
- Annyira azért nem egyedi tervezésűek a Steam Machine fő komponensei
- Milyen monitort vegyek?
- Projektor topic
- Lenovo Legion Go: a legsokoldalúbb kézikonzol
- Újra nekifeszül az asztali konzolok piacának a Valve
- Mini-ITX
- Házimozi belépő szinten
- 5.1, 7.1 és gamer fejhallgatók
- Önvédelmi fegyvernek is elmenne a Keychron analóg billentyűzete
- Gigantikus fordulatot vett a GeForce RTX 50 Super sorozat törlése
- „Ezt a sorozatot emberek készítették!”
Új hozzászólás Aktív témák
-
rudi
nagyúr
Nem VGAcset, DX10-ről szóló topic!

-
rudi
nagyúr
-
djxp01
senior tag
Lehet hülyén csináltam, de sok ember sajnos beleesik ebbe a hibába'', kérdem én... Megéri ez nekünk?
-
djxp01
senior tag
Grat magamnak mikor megvettem 147k-ért a kártyám..., kb mire normális ára lesz a 8800nak vagy az r600nak , addigra 40-50et fog érni a mostani kártyám, hmm, másfél év alatt 100ezret bukok! Yesss!

Ja és még plusz 80-100at fogok rákölteni pluszban, tehát ~ 200ezer forintomba fog kerülni, hogy másfél - 2 éven át, full grafikán játszhassak minden gaméval! Hm.
[Szerkesztve] -
Foglalt név
addikt
válasz
Firestormhun
#393
üzenetére
Jogos.
Elnéztem, mi maradt a vágólapon. 
De valóban ott is megtárgyalták.
[Szerkesztve] -
Firestormhun
senior tag
válasz
Foglalt név
#391
üzenetére
Erre gondoltam.

[link] -
Raymond
titán
válasz
Foglalt név
#391
üzenetére
Szerk. Most olvasom a commenteket.
[Szerkesztve] -
Raymond
titán
válasz
Firestormhun
#389
üzenetére
''Jelen állás szerint mindkét hardver unified shader működésű lesz.''
Hmm...a G80 az NV szerint nem US, kulon feldogozo egysegek vannak benne VS, GS es PS-re is.
''Az ok ,hogy DX10-nek nem feltétele unified shaderes hardver, csak az érdekel hogy....''
Igen, az API-nak az a lenyege hogy az aplikacionak mindegy legyen milyen vason fut. Csak az API altal elerheto funkciokat hivja. A DX fuggetlenseg pedig annyiban igaz hogy vannak funkciok amiket hardverileg megkovetel az API (mert mashogy nem lehetne biztositani), de a shader egysegek szama es tipusa nem tartozik ide. A DX-nek mindegy hogy egy kartya mondjuk 48 shader-ebol 8 allandoan VS-ken, 8 GS-ken es a maradek 32 PS-kent dolgozik vagy hogy barmelyik elvegezheti mindegyik funkciot. Az a lenyeg neki hogy visszakapja a kartyatol azt amit ker. Es ezt a meghajtotol keri nem a vastol. -
Firestormhun
senior tag
Jelen állás szerint mindkét hardver unified shader működésű lesz.
Az ok ,hogy DX10-nek nem feltétele unified shaderes hardver, csak az érdekel hogy maga az unified shaderes hardver hogyan működik. Akkor ezek szerint DX függetlenül, és csak is a driver és a hardver határozza meg, hogy az x. shader processzoral vertex vagy pixel shadert számoltat. -
Foglalt név
addikt
válasz
Firestormhun
#387
üzenetére
Nekem 2 hete ilyen van
Elég kellemetlen úgy használni, hogy kb. 0 a támogatottság 
[Szerkesztve] -
Firestormhun
senior tag
válasz
Foglalt név
#384
üzenetére
Hónap múlva elvileg már lesz ilyen kártya a piacon.
2002-ben is volt már ilyen, hogy egy kártya tudása megelőzte az adott API megjelenését.
-
Komplikato
veterán
válasz
Foglalt név
#384
üzenetére
Másik fórumon G80 témában éppen most beszéltük át, hogy:
2002 augusztus - Megjelenik az első DX9 vas, a Radeon 9700
2002 szeptember/október - kapni is lehet
2002 november - full DX9 + SDK
2002 december - hivatalosan kijön a ''végleges'' Dx9.0a
2003 tavasza - 3D Mark 2003
2004 közepe - érkeznek az első ténylegesen DX9 játékok ;)
Szóval nem első eset. -
Raymond
titán
válasz
Firestormhun
#383
üzenetére
''Unified shader egységek működése API független? Tehát DX9 alatt is tudni fogja-e a kártya hogy abban a jelenetben épp több vertex kapacitás kell mint pixel és fodítva?''
A mukodesuk fuggetlen az API-tol, de nem ugy ahogy leirtad. Pont azert amit utanna irtal - nem az API hatarozza meg a hardver felosztast. Az aplikacio megmondja az API-nak mit akar, az API megmondja a drivereknek es a driverek + hardver dolga azt visszaadni amit az API ker tole. Hogy hogyan csinalja az az o dolga. Tehat az API-nak mindegy hogy milyen vas fut alatta mindaddig amig azt kapja vissza amit kell. Egy jo pelda az R600 es a G80 - mindket kartyahoz lesz DX10 meghajto de az egyik hardver Unified Shader a masik nem. A DX10 alatt nem a hardver shader egysegeknek kell egyesitve lenniuk, hanem a shader programoknak amiket a kartya kap elvegzesre. Remelem erthetoen irtam. -
Foglalt név
addikt
válasz
Firestormhun
#383
üzenetére
Hogy hogyan kéne müködnie az érdekes kérdés, ahogy jelenleg áll az pedig siralmas. Mondjuk engem az azért érdekelne, hogy hogyan kerül forgalomba egy olyan hw, amihez nincs oprendszer, api és driver. Ettől függetlenül én örülök a dx10-nek, meg a us-nek. Remélem pár hónap múlva már használni is tudom a ''modern'' gépem

-
Firestormhun
senior tag
Pár kérdés.
Unified shader egységek működése API független? Tehát DX9 alatt is tudni fogja-e a kártya hogy abban a jelenetben épp több vertex kapacitás kell mint pixel és fodítva?
Ha nem, akkor egy unified shaderes kártya, hogy működik DX9 alatt? Driverből lockololnak x shader egységet vertex/pixel számolásra? -
Raymond
titán
Bonuszkent dobunk be egy kis PR lecket amihez epp az Alan Wake-et hasznalhatjuk mert nagyon jo pelda. Itt a riport az IDF2006 kerdeses reszerol:
[link]
Ezzel kezd:
''Alan Wake was demoed...on an overclocked Core 2 Quad system running at 3.73GHz, mainly because the game itself is significantly multithreaded and could take advantage of the quad-core system.''
Es ezzel vegzodik:
''The demo ran extremely well on the test system, which was a Core 2 Quad running at 3.73GHz with a GeForce 7900 GTX. Markus said that it would have run just as well if the Core 2 Quad was running at its default clock speed, which we assume was 2.66GHz.''
Tehat a jatek sebessegevel nem volt gond, viszont ha ugyanugy megy 2.66Ghz-n mint 3.73Ghz-n akkor mar most VGA limitalt, ami a hasznalt kartya mellett nem meglepo. Az overclock csak azert volt hogy az Intel megmutassa ilyet is tud, nem azert mert szukseg lett volna ra.
''The game will actually spawn five independent threads: one for rendering, audio, streaming, physics and terrain tessellation.''
Tehat az ot thread all ket komolybol (rendering, physics), ket atlagosbol (streaming, tesselation) es egy emlitesre sem meltobol (audio). Az audio (szoftveres) mar most is hasznalhatoan fut a nep zomenek PC-jen az egymagos procikkal is, ugyhogy az felejtos. A tesselation a renderinghez kapcsolodik es meg elotte dolgozza fel az adatokat, igy az sem annyira terhelo mint a rendering maga. Ez viszont attol is fugg hogy van megcsinalva. Ha tenyleg a DX10 is komolyan hasznalva van (mint ahogy azt az MS le akarja nyomni a torkunkon), akkor a tesselation viszont abban a valtozatban nem komoly thread, mert arra lesz elmeletileg jo a Geometry Shader. DX9 kartyaknal viszont marad a CPU. Meg hat akkor is marad ha azert valamilyen szintu interaktivitas elvart a fizika es a valtozo terep kozt. A fennmarado ket threadbol a cikk szerint a physics egy mag kb. 80%-at hasznalja, a streaming pedig szinten messze nem terhel le egy teljes magot, talan ha a felet - a Core2 mag SIMD resze orult sebessegu dekompressziokra kepes.
Szoval akkor a nagy ''quad-core igeny''-bol eljutottunk kb. 2,5 core-ig 2.66Mhz-n max minoseg mellett.
Es meg ott all a kovetkezo is:
''... it may be possible to run on single-core Pentium 4 processors with Hyper Threading enabled, with noticably reduced image quality/experience.''
Es ez:
''With Alan Wake being developed simultaneously for both the Xbox 360 and the PC, efficiency is quite high.........With that said, Markus expects the visual and gameplay experience to be identical on the Xbox 360 and the PC when Alan Wake ships,...''
Szoval a game ugy van megirva hogy egy a bemutatott Core 2 Quad procinal lasabbal is menjen komolyabb minosegromlas nelkul. Az XBox360 CPU-ja harom darab, egyenkent 2 thread futtatasara alkalmas joszag. Az OS ebbol allando jelleggel lefoglal valamennyit es az egy magon futtathato threadek kozul van egy komoly es egy alacsonyabb prioritasu. Tehat a jateknak marad 2 full thread es 3 kicsi (vagy 3 komoly es 2 kicsi) attol fugg az OS mennyit is foglal le valojaban. Azon kivul ezek a threadek es a proci teljesitmenye ugy altalaban (joval) alacsonyabb mint egy hasonlo vagy valamivel alacsonyabb frekvencian futol Core 2 processzore.
Aztan meg ott a grafika (Xenos) ami a valosagban meg a cikkben emlitett 7900GTX-nel is gyengebb. Van 48 darab shader egyseg ami feldolgozza a vertex es fragment shadereket is 500Mhz-n. Aztan van (ha jol emlekszem) 16 TMU, viszont csak 8 ROP (eDRAM ide vagy oda). Ami modnjuk azert eleg is a megcelzott 1280x720-as felbontashoz. Ezzel osszehasonlithatod a 7900GTX-et a maga 8 VS, 24 PS, 24 TMU es 16 ROP egysegevel amik 650Mhz-n futnak. Meg az allandoan rendelkezesre allo 50+ GB/s memoria savszelesseg. Hiaba van ott a Xenos-nak az eDRAM ha csak 10MB van belole. Texturazas abbol nem megy, igy arra marad a 22GB/s main RAM amin a CPU-val osztozik. Ezert is nem latni az XBox360 jatekokban gyakorlatilag soha Anisotropic Filteringet - ott halna meg az egesz helyben. Eleg szomoru latvany 2006-ban, foleg annyi hype utan.
Lehetne meg errol irni, de eleg lesz mert a DX10-hez nem sok koze van
Maradjunk annyiban hogy a PR az PR a valosag meg kicsit azert mashogy fest 
[Szerkesztve] -
rudi
nagyúr
Bocsi, hogy meg kell ismételnem Raymond szavait:
''Remelem nem sertodsz meg, de lehet nem kene a PR-t olyan nagykanallal enni.''
Az felmerült már benned, hogy ki fogja megvenni azokat a gamekat, amik csak DX10-ben és csak a leges-legmodernebb hardvereken fognak futni? Arra gondoltál hogy ennek a ''tömegnek'' a pénzéből, eladási volumenéből bajosan fognak megélni a játékfejlesztők? Arra gondoltál, hogy a mostani (xbox360) és a közeljövőben várható (PS3), legmodernebb konzoloknál erősebb PC-k mellett ezeken a konzolokon is el kell futniuk ezeknek a játékoknak, ráadásul zökkenőmentesen? Remélem nem lep meg az sem, hogy ezeket a játékokat többnyire elsősorban konzolra fejlesztik.
Minden komolyabb VGA vagy CPU megjelenése előtt láttunk olyan techdemókat és játékokat, amikez az éppen adott nagy vas csúcsteljesítménye kellett, aztán, csodálatos módon ezekből a techdemokbol vagy nem lett végleges termék, vagy a végleges már sokkal kisebb hardverigényű eszközökkel is beérte. Anno asszem a Serious Sam 2 (Cro Team) egyik fejlesztőjétől olvastam, hogy pár sorban lehet olyan shaderkódot írni ami bármilyen hardvert megfektet, de nem az a művészet, hanem elfogadható hardverigényből a lehető leglátványosabbat kihozni. -
-
Raymond
titán
Annak hogy egy jatek 32bit vagy 64bit-re van kompilalva semmi koze a textura felbontasahoz vagy formatumahoz. A VRAM meretehez meg mar vegkepp semmi.
''Tehát ha pl. a Crysis-t vesszük bla bla bla........'' - ennek pedig mar abszolute semmi ertelme:
1) Honnan tudod a video vagy kepek alapjan eldonteni milyen eroforrasokat igenyel pontosan egy aplikacio?
2) Mi koze van a szamolasigenyessegnek ahoz hogy egy proci 32 vagy 64bit-es az X86 csaladon belul? Belenyugodhatsz hogy a magonkent 3 darab 128bit SSE feldolgozoegyseget tartalmazo Core 2 Duo megeszi a Crysis-t reggelire.
Remelem nem sertodsz meg, de lehet nem kene a PR-t olyan nagykanallal enni. -
FireGL
aktív tag
Csak arra szerettem volna rámutatni, hogy az említett HL2, FarCry, UT2004 64bit-es verziója nemcsak annyiban különbözik, hogy 64bit-re van megírva hanem hogy nagyobb a geometriai részletesség és ehez több tömörítetlen textúrát is tartalmaz. 1024x768-ra épphogy elég a 256MB VRAM. De még így a nagyobb grafikai terhelés ellenére is ugyanazon a hardveren több FPS-t tud 64bit-en mint 32bit-en.
Tehát ha pl. a Crysis-t vesszük mint Dx10-es játékot akkor a videoprezentációkban látható grafika szükségessé teheti a 64bit-et, mert oda még a dualcore is kevés lesz 32bit-en hogy élvezhető legyen a játék sebessége. -
rudi
nagyúr
válasz
Komplikato
#375
üzenetére
Ez itt a DX10 topic, amikez nem sok köze van a Play Station 3-nak.
-
rudi
nagyúr
Éppen ezért írtam, hogy távolról sem ugynaz, bár hasonló. A DX10 szerintem 3 fő blokkbak különbözik a DX9-től. Az egyik a GS a másik az új filozófiájú futószalag és memóriakezelés (stream out és sok textúra jellegű buffer), a harmadik pedig az új driverhozzáférés, amit a Vista tesz majd lehetővé, bár ez inkább Vista mintsem DX10 fícsör. Meg ott van mág a no cap limit, no extra codepath mindenféle GPU-nak, no félig teljesített követelmények.
-
-
Djuree
félisten
Nem lesz olyan jó azoknak a grafja, már láttam működés közben, HDtv-vel igen, de arra meg sanszunk sincs jó dara
big -
rudi
nagyúr
No, mára végeztem a dedóval. Akinek kérdése van az egyrészt olvassa szépen el ezt a topicot, másrétsz pedig nézegesse a PH-s teszteket. Harmadrészt pedig gondolkodjon kicsit, művelődjön

-
rudi
nagyúr
Esetleg valami indoklás?
Én annyit mondanék ellenérvként, hogy a PS3-ban egy G71 GPU (GeForce 7800-7900) dolgozik, nagyon sanszos, hogy csak 128 bites memóriakezelős, bár a PC-stől jelentősen eltérő, memóriabuszon. A GeForce 7950 GX2-n két G71-es van.
Az XBox 360 Xenosa 500 MHz-n megy és 48 unified shadere van. A Radeon X1950XTX-ben 650 MHz-n jár 48 pixel számoló, amit még 8 vertex egység egészít ki, ja és két X1950 XTX-et is össze lehet kötni. -
Speed
addikt
Értem de azt még közel sem tudni hogy én pl. menyivel fogok kevesebbet látni ugyan abból a dx 10 es gameból (pl.:crysis) mint xy dx10 es karival ugye? Merrt azon gondolkozom hogy most veszek valami 7900GS szintű karit és jövő nyár elején cserélek valami értelmesebb dx10 karira szerintem még akkor sem fogok nagy hátrány és elvesztegett garfiakai elemek szenvedni
Meghát ha jól tom egyenlőre dx10 csak a ful csúcs karikban lesz elejinte amik 100k fölött lesznek valahol. -
Raymond
titán
-
Raymond
titán
Ugye egyitek sem gondolja komolyan hogy a DX10 megjelenesevel vege a DX9 jatekoknak? Gondolkodjatok mar legyszi egy kicsit. A DX10 csak Vista-n jelenik meg. Szerintetek mennyi lesz a Vista piaci reszesedese mondjuk 2007 vegeig ha megjelenik ''idoben'' meg tavasszal? Na ugye hogy nem sok. Es ebbol mennyi gep lesz olyan amiben jatekokra kicsit komolyabban alkalmas grafikus kartya talalhato? Az meg kevesebb. Csak egy pelda a multbol:
A DirectX9 2002 vegen jelent meg. Az elso jatek amely nem indult el ha a grafikus kartya nem tamogatta a DirectX8.1 alatti PS1.3-at. Ekkor mar tobb mint egy eve a piacon volt az elso DirectX9 tamogatassal biro Radeon 9700 is (megjelenes 2002 Augusztus).
Szoval ennyit a valtas sebessegerol. Meg annyit kell megjegyezni hogy meg ha most vannak is konzolok amik miatt gyorsabb lehetne a valtas mert nagyobb kepessegekkel rendelkeznek mint az akkor piacon levok a valtas akkor sem lesz rohamszeru mert a konzol hardver mar a mostani csucs PC kartyakhoz hasonlitva is le van maradva teljesitmenyileg. -
Speed
addikt
Azt is jó lenne tudni hogy meddig lesz ez az állapotn hogy a dx10 melett jelen lesz a dx9 is annak okán hogy érdemes e most egy relatíve jobb ''7900GS,X1900GT vagy esetleg egy 7900GTO karit'' vagy elég lesz egy 7300GT annak aki most akar okosan dönteni
Vajon kihúzhatja még egy évig az ember egy dx9 karival úgy hogy aránylag normálisan tud gamelni. -
rudi
nagyúr
Nem, nem is erre a marhaságra gondoltam
Bízom benne, hogy csak elírtad. -
rudi
nagyúr
Nem: Én csupán azt akarom végre már megmondani, hogy ami DX10-es az nem fog mennia mai VGA-kon. Ebből remélem mindenkinek világos, hogy a játékok még jóideig úgy készülnek, hogy a lehetséges DX10 kód mellett ott lesz a régi, DX9-es is, hiszen egyelőre nem tehetik meg azt a játékfejlesztők, hogy csak a leges-legújabb hardverre fejlesztenek. Nem tették meg ezt a DX7-8 és DX8-9 váltás idején sem. Ninnentől kezdve nem az a kérdés, hogy DX10-es lesz-e egy game, hanem hogy lesz-e benne DX10-es codepath.
-
rudi
nagyúr
Lécci, ne írjatok sületlen badarságokat! A DX10 NEM KOMPATIBILIS A DX9-CEL, DX9-ES HARDVEREN NEM FUT A DX10-ES KÓD!
Továbbá hagyjuk az ilyen-olyan demok és shotok belinkelgetését i, ugyanis még sem hivatalos operációs rendszer, sem hivatalos szoftver, sőt még hardver sincs hozzá. Tessék kivárni azt a pár hónapot! -
FireGL
aktív tag
válasz
donsergiooo
#342
üzenetére
Vista-ra is lesz DX9 játék nemcsak DX10, de attól az UT2007 lehet hogy DX10 lesz. Reménykedjünk.
-
djxp01
senior tag
Ja és még egy vid, crysis trailer HD minőségben:
(jobb egér, cél mentése a linkre)
[link]
[Szerkesztve] -
djxp01
senior tag
[link]
sorry ha volt, de nincs időm végignézni a topicot. Elég brutal lesz a dx 10, úgy tűnik
Amúgy valaki nem tudja hogy az ut2007 dx10es lesz-é ? -
rudi
nagyúr
válasz
donsergiooo
#338
üzenetére
Van egy Vistas blogom itt a PH-n nézd meg. Korábban a beta 2-t már megnéztem NV driver, shaderképesség és egy játék szempontjából. Nemrég raktam fel az RC1-et, egyelőre még nem volt időm tesztelni vele. Amúgy elég sok gamehez kiegészítő kell a DX9 részhez. Nekem pl a Heroes 5 volt ilyen. DX10 teszt, hardver és megfelelő szoftver hiányában még jódarabig nem lesz. Egy Beta 2 tesztet az X Bit Labs is kirakott, nekem hasonló eredmények jöttek ki - van még mit csiszolni.
-
sghc_toma
senior tag
válasz
donsergiooo
#335
üzenetére
''DX10? ...Rudi többet tudhat róla, de sztem az is időbe jönn!''
DX10 pont akkor jön, mikor a Vista.. ahogy írtad, már a release candidate-nek is része..
a hiányolt .dll-eket meg bemásolod a 3dMark könyvtárba, oszt minden okk.
q4-et meg própáld futtatni xp compatibility módban.
[Szerkesztve] -
donsergiooo
senior tag
válasz
Komplikato
#329
üzenetére
+anynit, h a q4 volt kéznél a Vista teszthez, de a q4 (openGL), télleg olyan volt mint egy dx7-es game! Még a q3 is jobban nézett ki!

-
donsergiooo
senior tag
Az elmúlt időszakban lehetett licensz kódot kapni a Vistához! ..ez amúgy az RC1-es változat, NEM BÉTA! Teljesen jól működött, teljesen eltünt a direkt draw gyorsítás, helyébe tényleg a d3d került! Nem eszi a cput! ....ami a lényeg, h a tesztekből kiderült, hogy 512mb rammal simán elketyeg, ami nekem nem tetszett, hogy kb 7gb helyet foglal és nem találtam meg, h hol udnám a 2gb-os hiberfil file-t kikapcsolni! Nos ... most, hogy a dx10-hez legyen köze, szoftverileg támogatott volt. De 3dmark05 nem akart elindulni a dx9 hiánya miatt, vagyis pontosítok, a dll hiányok miatt! Nos! A szépségnek az árát meg kell fizetni mindenkinek! Télen kinn lesz a picur MS Vista! ....lehet tunningolni.... DX10? ...Rudi többet tudhat róla, de sztem az is időbe jönn!

-
FireGL
aktív tag
válasz
Firestormhun
#330
üzenetére
Shader 2.0 is tud HDR-t. Az első R9700 is tudta már, igaz a játékfejlesztők nem nagyon foglalkoztak vele.
-
Firestormhun
senior tag
válasz
Komplikato
#329
üzenetére
Ezek a DX10-es patchek is kb annyival fognak felérni mint FarCry-hoz az SM 3.0. Max lesz pár százalék teljesítmény javulás és kész.
Én meg még várom az első igazán SM 3.0-ás játékot. Mostanában tetszetős, hogy a next gen játékok be vannak harangozva SM 3.0-nak, közben amikor megjelenik, a shader cacheben ott virít a 2.0a, és az SM 3.0 mód nem más mint HDR és egy kis soft shadow.
Sehol semmi dynamic branching és társai. -
Komplikato
veterán
A HALO2 kivételével összes ''bejelentett DX10'' játékról nyilatkozta valaki, hogy utólagos patchel lesz csak DX10. A HALO2 for Vista screenshotok meg olyan randák, hogy akár DX7 is lehetne. Én is csak az El Matador-ból láttam ''DX10'' screenshotokat, de ott mindenhol placeholder textúrák voltak, és semmi érdemleges nem látszott némi ''mégjobban néz ki'' HDR-en kívűl ...
-
rudi
nagyúr
Beszéljönk mindjárt a DX200.20-ról
Elég sokat rágtam a témában a netet és mindenhol csak írják, hogy hű, meg há meg jön meg mindent, ott a sok (szerintem prerenderelt) állókép és a low-quality DX10-es videó, de Vista lejobb esetben is csak január végén lesz, semmi értelmes, konkrétumokat tartalmazó írás nem jelent meg DX10-zel kapcsolatban, a HW gyártók meg még egyetlen pici kilobájtni infót sem toltak ki DX10-es hardverrel kapcsolatban, 80 nm-ről is hallgatnak, szóval korai még ezt feszegetni. -
Raymond
titán
válasz
Komplikato
#326
üzenetére
Ez elnezted. Az DX10.1 jon viszonylag hamar a DX10 utan, de valoszinutlen hogy a hardver a DX10.1 megjelenesenek idejen kint lesz.
-
Komplikato
veterán
válasz
várnarancs
#324
üzenetére
Beyond DirectX 10 - A glance at DirectX 10.1 - Elite Bastards - [link]
Nos, ha jól értelmeztem a cikket, akkor a DX10.1 a Vista megjelenése után (Január 30?) 6-8 hónappal jön, tehát DX10.1 compliant kártyák legkorábban 2007 nyár vége, őszére várhatóak.
Ez persze ''vicces'' mert sose lesznek második generációs DX10 kártyák, picit olyan mint a Dx8.0 vs DX8.1 időszak, csak itt nagyobb különbségek lesznek mint DX8 és DX9 között?
[Szerkesztve] -
rudi
nagyúr
válasz
várnarancs
#324
üzenetére
Bakker, ne fárasszatok már, és ne qrjátok szét az elméletet szépen összefoglaló topicot gyerekes, türelmetlenkedő benyögésekkel!!!!

-
rudi
nagyúr
válasz
TESCO-Zsömle
#322
üzenetére
Sokára. Majd ha jönnek, lesz róluk PH-s hír meg teszt.
-
TESCO-Zsömle
titán
Mikor jönnek DX10-es VGA-k???
(Főleg a csúcsszegmes érdekelne...) -
Peet210
őstag
Szerintem se érdemes most várni a DX10-re mer beletelhet egy kis időbe míg megjön és ha meg is jön nem hiszem hogy rögtön minden game ki is használja nameg nem mindenki fog azonnal átnyergelni a Vistára.
Ha engem kérdezel nyugodtan megveheted a 7900GT (vagy 7600GT ami még jó ár/teljesítmény és amivel még kihúzhatod addig)
Persze ez csak az én véleményem.
VGA ügyben itt kérdezősködhetsz: [link]
[Szerkesztve] -
TaMat
csendes tag
Hi!
Nem tudtam pontosan h hova irjak, remélem nem nyúltam nagyon mellé...
Új gépet fogok venni októberben (legkésőbb november közepén), és egy 7900GT-re gondoltam (a többi most lényegtelen). A lényeg h érdemes e várni a DX10-es karikra, vagy értelmetlen. Ha visszaemlékszem pár évvel korábbre, a DX8.1-es időkre, és akkor nagy beharangozás és itt a DX9, és az első széria (Gef FX 5xxx) széria hatalmas bukás volt...
Az esély megvan h most is el lesz valami rontva, mert mindenből a 2. próbálkozás a jó...
Szerintetek érdemes megvárni és egyáltalán mikor jönnek az első karik?
Előre is kössz.
Bye -
donsergiooo
senior tag
válasz
Komplikato
#314
üzenetére

Ez igazán remek,....
-
Komplikato
veterán
válasz
donsergiooo
#313
üzenetére
A probléma szoftver szintű (lásd Vista VGA driver felépítése, avagy miért NEM lesz DX10 XP alá), ezért DX10 kód NEM fog futni DX9 hardware-en, tehát a programozó kénytelen lesz mindkettő változatot beleírni a programba. Viszont a DX9 kártya DX10 driveren keresztül DX9-ben lehet gyorsabb lesz, mint DX9 alatt volt. Már ha igaz a jelenlegi drivermodelből fakadó 70-80%-os malmozása a GPU-nak ...
-
donsergiooo
senior tag
Nem lenne értelme a Gpu-t CPUba tenni ...Jó ha egyes feldolgozó egységeket külön válaztunk ..sztem...
Rudi - Szted a DX10 megjelenése (mint irtad elvben teljesen más felépitésű lesz, mert megszünnek a fix feldolgozó egységek, igy minden feldolgozó egység végezhet bármilyen geometriai, shadder számitást) mennyiben változtathatja meg a DX9es kártyáknak a számitási teljesitményét! Gondolom ez nem olyan mint a dx8.1 -ről átállni a DX9-re ugye?
Szal ha van 16pixel pippeline és bekapnék egy DX10-es kódot, vajon az miben nyilvánúl majd meg a DX9-es karin? ... :S Bocs, de csak részben vagyok jártas benne, a programozást meg nélkülözöm...
Szted ugyanúg hasit, egy ugyanolyan poligonszámú, texturázott + shadderelt objektum, mint dx9-esen? ha tetegyük fel, ugyanannyi feldolgozó egysége lenne a DX10-es karinak és a frekije is ugyanakkora lenne!
-
rudi
nagyúr
válasz
he7edik.
#311
üzenetére
Valószínű, hogy az AMD színrelépése egyáltalán nem fogja befolyásolni az ATI fejlesztését, ugyanis a csúcs GPU-k rettenetesen távol állnak a fejlesztői profiljától. Jelenleg olyan komplex shaderkódokat lehet írni már DX9-ben is, hogy az megfektet bármilyen GPU-t, de akár a négyszeresét is.
A GPU CPU-ba költöztetésére tett kísérlet eddig mindig befuccsolt, szerintem értelmetlen túlbonyolítása egy chipnek. Ehhez képes sokkal olcsóbban kivitelezhető egy északi hídba integrált VGA. Az AMD azért valószínűleg megpróbálkozik valami ilyennel, de szerintem fölösleges.
Ami érdekes lehet az a Hiper Transportra trükközés. Ez az átviteli módszer ugyanis szabadon használható szabvány, és már eddig is születtek érdekes megoldások ebben a témában [link]. Valami ilyesmi elég érdekes lehetne ATI oldalról is. -
he7edik.
addikt
OFF: Rudi szerinted most hogy az AMD megveszi az ATI-t ill. hogy az új GPU/VPU-k egyre jobban veszik/fogják levenni a terhet a CPU-ról
elképzelhető hogy a GPU beköltözik a CPU-ba?
Esetleg olyan multicore CPU is elképzelhető amiben dinamikussan változik a magok funkcioja az alkalmazástól függően? -
rocket
nagyúr
Shader model osszehasonlitas:
![[kép] [kép]](http://www.kepfeltoltes.hu/060808/dx10_sm_www.kepfeltoltes.hu_.jpg)
[Szerkesztve] -
PPSH
őstag
hat emberek a crysys eleg durva game lesz,lattam valahol a grafikajat ahol ossze volt hasonlitva a valo elettel
hat nnem sok elteres volt 
-
mikk2000
őstag
Szia, elsőre is sokat megértettem abból amit írtál, tehát eddig a fejlesztők rá voltak kényszerítve ''előregyártott'' textúrákra azért, mert a PS kód hossza limitált volt.
Magyarán az előregyártott textúrára mint ''pufferre'' volt szükség, mivel az azt előállító kódnak nem jutott hely.
A linket ismertem, bár csak a root-ját
amit belinkeltél abból látszik hogy ez kőkemény DX programozás, ezért is írtam azt, hogy ténylegesen megérteni teljes valójában csak akkor tudnám, ha programoznám, viszont ha tudnám programozni, nem kérdeztem volna meg 
Köszönöm a választ! -
rocket
nagyúr
Develop Conference 2006 - D3D10
[link] -
rudi
nagyúr
válasz
mikk2000
#304
üzenetére
Úgy megy a móka, hogy adott fényforrás és objektum pozíciójának megállapítása (vagyis nagyjából a VS műveletek) után következik egyből a fény/árnyék textúrák generálása, amihez esetleg előregyártott adatokat is használnak, majd ezután jön még a pixel shader rész, ami közben használódnak fel ezek a textúrák. Korábban erre azért volt szükség, mert a fény/árnyék textúra kiszámolása + a Pixel Shader program nem fért bele a maximális PS programohosszúságba.
Most (DX9-ben), a hosszabb lehetséges kóddal meg lehet azt csinálni, hogy belerakják azt a számolási részt is a programba, amit a textúrát generálta. Így kimaradhat a textúra memóriába írása majd onnan visszaolvasása, de a számolásigény megnő. Éppen azért kell/érdemes ezt a textúra elkerülős módszert alkalmazni, mert a memóriapiszkálás elkerülésével többet nyernek mint amennyit a többletszámolással veszítenek.
A másik dolog a procedurális textúrahasználat. Erről régebben írtam részéletesebben [link]. -
mikk2000
őstag
Emésztettem...de 100%-ra megérteni csak akkor tudnám, ha foglakoznék DX9 programzással.
Azt mindenesetre nehezen tudom elképzelni, hogy mondjuk egy figura elmegy egy gyertya meg egy lámpa mellett, és ügye ekkor a figura minden egyes érintett textúrájának van egy gyertafény, meg lámpafény effektezett textúrája is?
-
rudi
nagyúr
válasz
mikk2000
#301
üzenetére
A textúrázás az általad megfogalmazottnál sokkal komplexebb dolg. Egy objektumra nem csak a mintája kerül rá textúra formájában, hanem például fények, árnyékok hatása, rücskösség stb. Ezeknek a hatásoknak a többsége azért van textúrában, mert így kisebb a számolásigénye, ugyanis az aktuális kép kiszámolásakor nem kell őket újragenerálni (számolni) hanem egyből felpakolhatóak a felületre.
Egy textúrázó művele memóriaolvasást/írást igényel, ami nagyságrendekkel lassabb mint egy regiszterekből dolgozó számolás. A mai nagy számítási teljesítményű GPU-k már kevésbé lassulnak attól, hogyha minden pixelre újra és újra kiszámolják a korábbn textúrában tárolt fény, árnyék vagy egyéb paramétereket, mint attól, ha ezeket a dolgokat textúrából olvassák ki. A DX9 kódolási irányelvek az ilyen jellegű textúrázási mennyiség csökkentésére vonatkoznak. -
mikk2000
őstag
''Korábban (DX9-ig) az volt az alapvető teljesítménybeli követelmény, hogy minél kevesebb (lassú) textúrázást használjanak a kódolók és minél több (gyors) számolást. Most, a DX10 kapcsán, olyan hardveres architektúrát építettek fel, aminek nagyon fekszik a textúrázás (valami textúrakezelés-szerűséggel komunikál a VS-GS-PS), szóval fordult a világ.''
Szia, kis felhomályosítást kérek, nem igazán értem, mi az a ''textúrázás'', de csak azóta, mióta olvastam amit írtál, azaz mint írod DX9-ben korlátozták ezek használatát. Én eddig úgy tudtam hogy a ''textúra'' az nem más, mint a kiszámolt 3D (objektum) felületére ráhúzott kép, ami végülis a megjelenítés, azaz amit látok...Ezt pedig korlátozni bajosan lehetne. Dehát ezek szerint ez nem így van,szóval mi az a ''textúrázás''?
Új hozzászólás Aktív témák
- Megtartotta Európában a 7500 mAh-t az Oppo
- Xiaomi 15T - reakció nélkül nincs egyensúly
- Call of Duty: Black Ops 7
- Kínai és egyéb olcsó órák topikja
- Hivatalos a OnePlus 13 startdátuma
- Milyen monitort vegyek?
- Filmvilág
- Konzolokról KULTURÁLT módon
- Projektor topic
- Portfolio Performance - befektetések nyomonkövetése
- További aktív témák...
- Gigabyte AMD Radeon RX 9060 XT GAMING OC ICE 16GB(Bontatlan)
- MSI GeForce RTX 3080 10Gb GAMING Z TRIO
- Hp NVidia RTX 2070 Super 8Gb Videokártya - HP L84981-001
- EVGA GeForce RTX 3080 FTW3 ULTRA GAMING 10GB GDDR6X (10G-P5-3897-KR) Videokártya
- ELKELT - Sapphire PULSE AMD Radeon RX 7900 GRE 16GB - Csere is
- Samsung Galaxy A32 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
- Samsung Galaxy S24 Ultra 8/256 GB Titanium Gray 6 hónap Garancia Beszámítás Házhozszállítás
- Bomba ár! Dell Vostro 3550 - i3-2310M I 4GB I 250GB I DVDRW I 15,6" HD I HDMI I Cam I Garancia!
- Kaspersky, BitDefender, Avast és egyéb vírusírtó licencek a legolcsóbban, egyenesen a gyártóktól!
- OnePlus Pad Go Green nagy kijelző, könnyű hordozhatóság 8/128 GB Használt, karcmentes 3 hó
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest


megy másik gépbe...(szerencsére én ''olcson'' szereztem anno
)


Elnéztem, mi maradt a vágólapon. 



big





