- Lassan állítjuk a fát, és a hardverek is be vannak csomagolva
- Klasszikus kínai festmények ihlették a Colorful legfrissebb memóriáinak külsejét
- Ultrakompakt Key E SSD-vel jelentkezett a Silicon Power
- Mesterséges intelligenciára kihegyezett mini PC jött az ASUS műhelyéből
- ASUS blog: ExpertBook P5 notebook, a munkagép
Új hozzászólás Aktív témák
-
rocket
nagyúr
3 jatek mar keszuloben van a DX11 Trinigy enginnel (lehet tobb is, de egyelore ezekrol van info) : Gothic4, Settlers7, Dungeron Hero.
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
Persze. Hiszen az RGSSAA működése speciális az új DX verziókkal. Másképp nem lehet megoldani. Eleve ez az egyetlen lehetőség az élsimításra a Deferred Rendering játékokban. DX9-en és OpenGL-en fog működni az opció, de a Deferred Rendering játékokra csak tesztelés után lesz ráengedve. Esetleg ha nem jó az eredmény, akkor külön profil is kell.
Amelyik játék MSAA-t is tud, arra nyilván nem kell majd tesztelés, hiszen a kompatibilitás valószínűsége nagy.Ha nem így működne nem lenne eredménye a Dead Space alatt. A képek alapján pedig aktívnak látni az élsimítást.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
"Azokkal a játékokkal működik az SSAA, amikre a driverben van engedélyezés."
Ez teljesen mast jelent mint amit korabban irtal:
"Ami előny, hogy a HD 5000 már tud RGSSAA-t, így minden játékban működik az élsimítás."
Tehat akkor az AMD-re kell varni amig lesz szives engedelyezni az adott jatekhoz driverben a SSAA-t, es nem mukodik alapbol minden jatekkal, ez igy akkor a "nagyobb a fustje, mint a langja" kategoria, pedig ahogy elneztem a Wolfenstein teljesitmenyet, siman elbirna a 4x SSAA-t.
Remelem nem ABC sorrendben haladnak mert igy mire sorra kerulne a Wolfenstein mar senkit nem fog erdekelni a SSAA tamogatasEgyebkent biztos vagy benne, hogy ez igy mukodik?
Mert itt mast irta OpenGL guy.
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
-
rocket
nagyúr
"Ami előny, hogy a HD 5000 már tud RGSSAA-t, így minden játékban működik az élsimítás."
Ez sajnos nem igaz, a SSAA modok csak abban az esetben mukodnek ha a jatekban van MSAA tamogatas
Probaltam a Wolfeinstent, es hiaba rakom a CCC-ben SSAA-ra nincs AA a jatekban.
"A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
válasz x-calibur #216 üzenetére
Grafikailag semmi sem változik. A sebesség pedig attól lehet lassabb, hogy esetleg erősebb az új generáció paraméterszinten. Ami előny, hogy a HD 5000 már tud RGSSAA-t, így minden játékban működik az élsimítás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
"A lower resolution generally means that there can be more quality per pixel."
-
x-calibur
csendes tag
Ez lehet kicsit láma kérdés lesz, elnézést előre is. A kérdés az lenne, hogy mennyiben más, ha egy DX10, vagy 10.1-es motorral szerelt játékot egy 48xx-es Radeonon futtatunk, mint egy 57/8xx-en? Mármint mi változik, sebességben, látványban, előnye, hátránya van egyiknek, másiknak?
[ Szerkesztve ]
HP 6730s noti eladó. Érdeklődni privátban.
-
Abu85
HÁZIGAZDA
Általában címfordításra használják az SFU MUL-t. Másra sajnos nem nagyon lehet.
Az ütemező dönt a kérdéses esetekről. Nyilván ha skalár az utasítás, akkor jobb a skalár ALU-t használni, hiszen hátha lehet mellette egy független vektor utasítást nyomni.
Egy utasításban lehet több operandus. Nyilván a vektor száma nem az operandusokra, hanem az utasításokra vonatkozik.
Az SFU az butácska volt a régi rendszerben. (Bár ez az extra MUL sem nagyon volt használva, nem véletlenül került ki.)gbors (#206): Igazából az AMD sem tagadja, hogy képezhet szűk keresztmetszetet (mondjuk ezen nincs mit tagadni, a napnál is világosabb. ). Gondolom az a temérdek tranyó, ami kellett volna a két tri/clock-hoz nem fért volna bele a Sweet Spot stratégiába. Inkább a könnyebb oldalról közelítettek ... kis befektetéssel izmosítottak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
RootRulez
félisten
Köszi az írást! Megint okultam kicsit.
═════════════════════════════════════════
-
ddekany
veterán
Mivel ezzel az "ellustult programozók" dologgal gyakran találkozok fél-laikusok közt, hagy általánosítsam ezt egy kicsit, tehát most már nem (pont) 3D-ről van szó: a szilikont elérhetőbb/olcsóbb mint az agy. Avagy, azért is jó az erősebb vas, mert a fejlesztő számára jobb szoftverfejlesztési megközelítéseket enged meg, ami végeredményben szolgáltatásaiban és megbízhatóságában jobb szoftvert eredményez (adott fejlesztési időt figyelembevéve), ami hála ez erősebb hardvernek mégis elfogadható sebességgel fog futni. Ettől persze sokan őrjöngenek, hogy de bezzeg régen, stb., de az van, hogy a fő akadály amit le kell manapság küzdeni az ember (a fejlesztő) biológiailag korlátos intelligenciája, ami egyre nagyobb probléma ahogy nő a szoftverek komplexitása. (OK, ehhez hozzájárul a fejlesztői tudás és odaadás hígulása is... ma már nem csak az programozó, akit az valóban érdekel, és nekik nyilván kevésbé fekszenek az über-kocka dolgok...) És akkor az ember mindenféle absztrakciókat talál ki ennek kezelésére, ami lehet hogy 3x akkora erőforrás használatot fog jelenteni, de a chippeket tudjuk fejleszteni, az agyat egyenlőre nem. Ez van, sajnálom... majd ha lehet kapni kiegészítőt az agyamhoz, esetleg sebességre optimalizálással is jut idő (bár akkor is kérdés, megéri-e), most maradnék annál, hogy kb jó algoritmust választok, igyekszem az odaillő API hívásokat használni... kinek van ideje/energiája ennél tovább hegyezni a dolgokat? Persze ha valami abszurd mértékben lassú, akkor persze az ember ránéz, hogy mit tolt el. Ilyenek sajnos benn maradnak sokszor, de hát ezek gyakorlatilag bug-ok, vagy nagyobb léptékű tervezi gondok...
-
Hardzsi
tag
Van egy olyan érzésem, hogy a szoftveres emuláció irányába lépéssel (mint Intel Larrabee és most az nVidia Fermi) ezen cégek picit hamar hozakodtak elő. Bár elképzelhető, hogy ezek az univerzális CPU-szerűségek játékok grafika-számolásán kívül kívül minden másban (AI és fizika-számolás, illetve tömörítés, videókódolás/dekódolás, kódtörés, kutatási területeken használt szimulációk stb.) messze lenyomják a grafikára kihegyezett célhardver (ATI Cypress), viszont a játékokban (DX9-11) talán harmatosabban muzsikálnak.
Márpedig a modern grafikai motorokkal felvértezett HD+ felbontású játékok részletgazdag megjelenítése mégiscsak az elsődleges szempont kellene legyen és ha itt elvérzik a Larrabee és a Fermi, a játékstársadalom számára perpill. értéktelenek. Nyilván ez a jövő útja és ha 10x ilyan erősek lesznek, kukázható a DX és OpenGL és az egész poligonalapú 'valóságközelítés' és jöhet helyette a real-time raytracing, de a mostani generációjú kártyákkal ez még szánalmasan harmatos, elég megnézni az IDF Larrabee videót.
Szeritem Intel és nVidia is jobban tette volna, ha most még DX11 célhardvert fejleszt és csak ezzel párhuzamosan, a háttérben kezdi meg a full szoftveres emulációs procik fejlesztését a DX11-éra utánra. Ha pedig ők megszívják a mostani fejlesztéseikkel, mi végfelhasználók is (pl. árverseny nuku).
Kreatív: "Köztudott rólad, hogy mindig nagyon elegáns vagy. A munkád miatt, vagy eleve fontos számodra az elegancia?" Schwarz Gábor (Ustream): "Ezzel azt kérdezed, hogy 'szarul áll a póló'"?
-
mcsabee
senior tag
válasz motorhead #207 üzenetére
Ezt nem tudásnak hívják. Sajnos a PC-s ipar olyan, ahol a specifikus tudással semmire sem mész. Nem lehet egy-egy hardverelemre orientáltan tudni programozni, mert van mellette még 40 másik, amiket figyelembe kell venni. Általánosságban kell tudni azt, amit csinálsz, hogy minden hardveren jól menjen, ne csak mondjuk Core i7-en, és HD5850-en, és a többi meg le sincs kaksizva.
Még a HD konzoloknál sem tudnak 100%-os kihasználtságot produkálni, pedig ott tényleg két cél hardver van - ha exkluzív a játék, akkor csak egy ugye, de pont a Forza 3 fejlesztői (Xbox 360 exkluzív játék) mondták, hogy még ők sem tudják 100%-on járatni a konzolt.
Csak azt akarom mondani, hogy lehet látni az nVidia, meg ATi, esetleg AMD, és INTEL logokat a játékok elején, ha minden játék minden hardverelemen 100%-on menne, akkor kifizetnéd ezeket az apró reklámokat a fejlesztőknek, és a kiadóknak? De ahogy a srác is írta fentebb: "100%-os kihasználás" egy szép sport (lásd pl. C64 demo compo), de nem praktikus cél.".
Stay a while and listen...
-
Ateszzero
őstag
Én az Intel Amd közötti váltásra gondoltam.Igaz,egyelőre I7 veri,ha jól informálódtam eddig
Az Nvidia ATI különbsége mára már egyértelmű.Mindenki Atira vált,akinek kevés a pénze.Mondjuk az is akinek több van.Mindenki jó cuccot akar a gépébe a pénzéért.
Én is első szériás 8500Gt -t vettem az első gépembe,ráadásul nem én választottam ki, hanem bátyus.Akkor még lehet jobb is volt mint a hasonló árkategóriájú Ati.Nem biztos,azért írtam "lehet".Az viszont biztos hogy nem bánom a váltást, Immár azóta a második Ati-m van.Ami most van a gépembe sztem ezt az évet bőven kibírja.Sőt![ Szerkesztve ]
-
nagyúr
válasz motorhead #207 üzenetére
ez nem így működik. a kedves programozót nem azért fizetik, hogy minden cutting edge technológiára ráugorjon, hanem azért, hogy elvégezze, amivel megbízzák. mások mondják meg neki, hogy milyen eszközökkel dolgozzon, és ezek a mások elsősorban pénzügyi szempontok alapján váltanak, vagy inkább nem váltanak másik eszközre. ha új programozói gárdát toborzol, akkor lehet természetes opció a DX10/DX11, de ha vannak rutinos DX9-es fejlesztőid, akkor nagyon meggondolod, hogy megéri-e rengeteg extra időt, amit pl. egy DX10-es átállás megkövetel. az 1-2 játék alatt biztosan nem térül meg, hosszabb távra kell tervezni - erre nem mindenkinek van lehetősége...
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
motorhead
aktív tag
-
nagyúr
a köcsög mindenit... ahhoz képest, hogy eddig arról ment a vakítás, hogy az 1 tri / clock kevés lesz a tesszeláció miatt. amúgy szerintem is kevés lesz...
komolyan, egyszer úgy felhúznak ezekkel a vakításokkal, hogy megtanulok GLSL-ben programozni, és írok egy saját architektúra-tesztelőt
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
DriderG
tag
Igen, kezd világos lenni. Tehát ha jól értem az SFU csak 4 ciklusonként egyszer tud lefutni. Az SFU MUL utasítást milyen ideális esetben használják? Visszatérve az NV40/G70-es architektúrához, a fő számításokat ott a 3-as komponensű VU-k számolták? Úgy értem, ha kapott pl. egy kétoperandusú fp32-es MUL utasítást a Vertex Shader, akkor mi döntötte el, hogy azt a skalár, vagy a vektoros egység számolja(esetleg az SFU, bár ott még csak exp, log, sin, cos, stb. műveleteket tudott, ha jól emlékszem)? Naivan az operandusok számára gondolok, viszont a vektoros egységeknél hány operandussal számol? 3-at szoroz/MAD-ol össze komponensenként, vagy 3-at szoroz/MAD-ol össze még 3-mal?
-
ddekany
veterán
válasz Ateszzero #203 üzenetére
Elég egyértelmű... sőt, nVidia már visszafelé fejlődik. Egyik cég sem arról híres, hogy el tud készíteni egy becsületes kontrollpanelt (vagy bármit ami szoftver de mégsem driver), de arra talán csak az nVidia képes, hogy visszafelé fejlődik ilyen téren: először kivették a cinema módot (ott valami más volt a neve...), aztán a jobb gombos color profil választást (de mintha régen hotkey-es is lett volna). De vettem az üzenetet: "ne vásárolj tőlünk". OK...
-
Ateszzero
őstag
Nem csalódtam Abu85!!
Most is nagyon jó lett az írásod.Köszi
Csak annyit fűznék hozzá hogy elképzelhető hogy ha továbbra is ilyen mértékben fejlődik az AMD,nagyon előre lesznek.Nincs kizárva hogy Váltani fogunk néhányan.Főleg ha még olcsón is adja majd a portékáit. -
ddekany
veterán
válasz motorhead #16 üzenetére
"Emiatt én még mindig azt harsogom amit eddig is.
AMI VAN AZT KELLENE MÁR 100% KIHASZNÁLNI KEDVES PROGRAMOZÓK!"Régi hozzászólás, de reagálnék: KIFIZETED A DUPLA FEJLESZTÉSI KÖLTSÉGET ÉS KIVÁROD A KÉSŐBBI MEGJELENÉST KICCSÁVÓ??? A "100%-os kihasználás" egy szép sport (lásd pl. C64 demo compo), de nem praktikus cél.
-
Abu85
HÁZIGAZDA
Ezt az AMD-től kérdeztem meg, tehát tuti az infó.
Igazából a rajz az csak szemléletes (vagy félrevezető ... kinek, hogy tetszik ). Valójában egy okosított raszteres egység van csak, aminek a scanline conversion motorja van kigyúrva, de a triangle/clock az továbbra is 1 háromszög. Az AMD szerint ez elég a hatékony tesszelláláshoz. A 2 triangle/clock azért gázos, mert konkrétan dupla Graphics Engine-t követel, és még az ütemezést is hatékonyan kell összegyúrni. Ennek 100 milliókban mérhető a tranyóigénye.Keldor papa: Egy valag pénzért sokan pacsiznak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igen ... felfogható úgy, de nyilván a négy komponensen ugyanaz az utasítás fut le. A G80-G200 a vektor utasításokat szétbontja skalárra. Ezeket futtatja a skalár procikon. Gyakorlatilag az eredmény ugyanaz. Azt viszont érdemes megjegyezni, hogy streaming elven működnek. Erről a reformok korában írtam:
Egy TPC tartalmaz egy textúrázó blokk-ot és két Streaming Shader Processzort. Fontos, hogy a Shader Processzorok nem a GPU órajelén dolgoznak, hanem az úgynevezett Shader órajelen, emellett a TPC-n belüli szálvezérlésről is ők gondoskodnak. A Shader processzoron belül 8 darab általános Stream processzort találunk, amelyek logikailag négyes csoportokra vannak osztva. Ezen csoportokhoz tartozik egy-egy Speciális Funkció Egység (SFU). Az efféle felépítés újdonság a GPU-k világában. A régebbi rendszerek főleg vektoros egységeket tartalmaztak. Az új elrendezés alapvetően módosítja a feldolgozás folyamatát is. Az adatok mostantól úgynevezett komponens folyamonként érkeznek feldolgozásra. Az elnevezés egy kicsit ijesztően hangzik, de nézzük meg a gyakorlatban, hogy miről is van szó. Példaként most elemezzünk két rendszert pixel számítás alapján (vertex esetén is hasonló a működés). Tudjuk, hogy egy pixel 4 elemből áll (piros, zöld, kék, átlátszóság), ezen elemek értékei alapján kapjuk meg a végső pixel színét. A G70, az architektúrája szerint 4 pixelt számol egy futószalagon. Ez összesen 16 elemet jelent (4 pixel és pixelenként 4 elem). A G80 ezzel szemben 16 pixelnek egy elemét számolja egyszerre egy TPC futószalagon (lehet ez akár piros, zöld, kék vagy átlátszóság). Az elméletet terjesszük ki 16 pixelre. A G70-nek ezen feladat számításához egy futószalagon 4 ciklusra lesz szüksége (minden ciklusban számolunk 4 pixelt, azaz összesen 64 elemet). A G80-nak egy TPC blokk-on szintén négy ciklusra van szüksége, mivel négyszer számolja 16 pixel egy elemét (összesen 64 elem). Első ránézésre nincs különbség a két architektúra közt, de ne kapkodjuk el a dolgokat. A valóságban igen sokszor előfordulnak olyan Pixel Shader kódok ahol nincs szükség a számításhoz mind a négy komponensre. Ilyen esetben a G70-nek mindenképp szükséges a 4 ciklus lefuttatása, mivel a Shader egység különböző komponenseket számol. Abban az esetben, amikor az átlátszóság információi nem szükségesek, a Shader egység elméleti teljesítménye kihasználatlan marad. A G80 esetében egészen más a helyzet. Például ha nincs szükség az átlátszóság információira, akkor a negyedik ciklus egyszerűen nem fut le. Eredmény szempontjából ugyanott van a két feldolgozási elv, viszont a G80 három pixel elem számításánál mintegy 25%-al hatékonyabb. Minél kevesebb pixel elemre futtatjuk a Shader kódot, annál kevesebb ciklus fut le a G80-on.
Igazából négyes csoportban állnak és ezekhez kapcsolódik az SFU. A vektor ide nem jó szó, inkább Stream csoport, amúgy maguk az egységek skalárak. Az SFU speciális utasításokra van, plusz ideális esetben tud egy MUL-t, de annyira nem magas ennek a kihasználtsága.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Dr. Akula
félisten
Az előzetesek alapján sejtettük, hogy a Microsoft nagyon jó munkát fog végezni, de az összes információ birtokában a kalapunkat is megemeljük a redmondi óriáscég előtt.
Windows7 telepítésnél ezzel fog kezdődni az installáció. -
nagyúr
nekem is teccett az írás, viszont valamit nem értek:
A Cypress továbbra is egy háromszöget dolgoz fel órajelenként, ugyanakkor a scan conversion egységek számát megduplázták
az összes diagrammon két raszterizáló szerepel, és tudtommal a setup azon belül zajlik. vagy inkább úgy kérdezem, hogy Te mit értesz setup alatt? azt látom netszerte, hogy kb. mindenki mást. nálam a legutóbbi verzió az, hogy először eldöntjük, hogy a háromszög kuka vagy nem kuka, és ha nem kuka, akkor a scanline conversion rávetíti az érintett pixelekre. most akkor nem ebből csinál ciklusonként kettőt az RV870 és egyet minden más unified shader GPU?
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
DriderG
tag
Köszi a választ.
Tehát akkor a Vec4 egység fizikailag 4 egybekapcsolt skalár processzor? Írtad, hogy a G80-G200-ban a shader az skalár alapú. Ez mit jelent? Egy 3-4 komponenses Vec-egység végez skalár műveleteket, vagy párhuzamos skalár processzorok vannak? Esetleg az NV40-G70-hez hasonlóan párhuzamosan egy skalár+egy Vec3 végez műveletet? Az nv fórumán egy CUDA-s topicban olvastam, hogy a G80-G200 shaderjei skalárok ugyan, de vektortömbben állnak, tehát nem "tisztán" skalár egységek, azaz 3-4 komponenst tudnak egyszerre számolni, skalárt nem. Ez sem teljesen világos: az SFU egység váltotta volna a skalár egységet, míg a shader egységek vektoros egységként üzemelnek? -
Abu85
HÁZIGAZDA
A Vec 4 egy négykomponenses vektor utasítást tud végrehajtani, míg a Vec3+skalár párhuzamosan számol egy háromkomponenses vektort és egy független skalár utasítást. A Vec4 utasítást szét lehet bontani egy Vec3+skalárra, ami kihasználásban már jó. De ha a Vec3 és a skalár utasítás megy a Vec4 ALU-ra, akkor az két órajel lesz, mert nem lehet egyszerre végrehajtani a kettőt.
A mátrix szorzást először le kellene bontani utasításokra és akkor kiderülne mely egységek dolgoznak. Ezt így nem lehet röptében megmondani.
Az SFU egységek a G80 és az R600 óta tudnak mindkét rendszeren általános utasításokat a speciális mellé, de a régebbi rendszereknél ez nem volt így. Ott többnyire sin-cos fügvényekre voltak, ésatöbbi.
A G80-G200-ban a shader processzor az skalár. A rendszer elve Stream alapú, így a TPC-k komponensfolyamokon dolgoznak.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
hfrankee
senior tag
Az a legviccesebb,hogy nemrég vettem DX10-es VGA-t,de most már "el is avult"
DE még csak XP!! alatt használtam,tehát még nem is láttam a gépemen DX10-et sem....
Jó reggelt nekem....[ Szerkesztve ]
-
hfrankee
senior tag
A legkomolyabb a majd mindenféle DX-el kompatibilitás,ez elég jó húzás volt a MS részéről!
-
Equitem
tag
Szép elmélkedés, csak azt nem tudom, miért csúfolják TESZTnek :S A videókártya teszt arról szól, hogy videókártyát tesztelnek. Ebben egy darabot nem teszteltek :S Én már nagyban azt hittem, valami zsír új kártyát hajtottak meg...
Equitem
-
DriderG
tag
Először is gratulálok a cikkhez!
Másodszor, lenne egy-két kérdésem: az NV40-nél és a G70-nél is 2 részből áll a szuperskalár FP32-es ALU viszont az NV30-35-ös diagrammon csak egy vec4 részegység van, ami ugyanazon műveletek elvégzésére képes(MAD,ADD,MUL), mint a szuperskalár vec3+skalár felépítésű NV40(bár itt csak MUL van)/G70. Mi a különbség a kettő között, illetve hol jelentkezik a skalár processzor? Valós példával élve: egy projekció során (mátrixot szorozzuk a vektorral) mely részegységek dolgoznak? A SIMD skalár egységnek van-e szerepe, vagy csak és kizárólag a MIMD vektoros egység dolgozik? Esetleg van köze az SFU egységeknek az ilyen számolásokhoz? + Még valami: a G80 Egységes Shader architektúrában a Stream Shader Processor is szuperskalár felépítésű?(vec3+scalar) Sajnos nem sikerült még rájönnöm...Harmadik dimenzió
GeForce 7 hagyományos futószalag
Szuperskalár processzor -
LackoMester
addikt
Nagyon jó kis cikk.hát igen,de jó ,h.van itt egy Abu gyerek aki tud ilyen irást
ott a kisértet a ganéná.... by: Bendegúz
-
zuchy
őstag
Abu!
Azt nem tudod, hogy az Assassin Creed 2 melyik DX-t fogja támogatni?
Ha meg titok, akkor szerinted? DX11-nek szvsz kevés esélye van, de bármi megeshet.
Vagy ami még inkább valószínű egy későbbi felpatchelés DX11-re, ha nem az lesz.PC-STYLE.hu
-
Ottoka
őstag
Jó cikk Abu, grat!
[ Szerkesztve ]
Mezőhegyes
-
zuchy
őstag
Ide: [link]
Az új széria 150-200 dolláros áron fog jönni, (HD57XX), de teljesítményét még nem nagyon tudni, csak becslések vannak. A 4870 körül lesz kb a HD5770. A DX11 miatt érheti meg rá várni, ha neked az fontos, hogy a DX10.1-hez képest 20%-al gyorsabban mennyenek a jövő játékai, vagy ugyanolyan sebességgel, de szebben.
PC-STYLE.hu
-
Sanyix
őstag
semmi nyögvenyelős nem volt benne, xp után teljesen természetes volt minden, főleg mert egy ideig classic skinnel használtam, ami ugye ugyanaz mint xp-nél ;) az aero-val sem volt gond.
Bár én mindig kivliteoltam a faszságokat belőle, ahogy már a win7-el is megtettem, ami így 5 gigára települt(eddig csak virtualboxban, mert a vista sp2-t most nincs kedvem cserélni)[ Szerkesztve ]
szövegértelmezés, az ÉRTELMEZÉS a fontos, mert az olvasás mindenkinek megy, de az ÉRTELMEZÉS már komoly probléma a magyaroknál. Gondold ezt át mielőtt marhaságot írsz...
-
Sanyix
őstag
van hozzá egy olyan elnevezésű dolog hogy vista patch. Ez felrakja a szokásos 4.50-es patchet és mellé valami haxot, amivel elindul.
A létrehozott parancsikonnal kell indítani, mert simán nem indul. Nekem mindig online módban indul, és csatlakozni akar, le kell cancelezni, pár másodpercre megfagy, majd a főmenübe lép.
szövegértelmezés, az ÉRTELMEZÉS a fontos, mert az olvasás mindenkinek megy, de az ÉRTELMEZÉS már komoly probléma a magyaroknál. Gondold ezt át mielőtt marhaságot írsz...
-
szekto
aktív tag
Sziasztok!
Lehet, hogy nem a legjobb helyre írok, ezért előre is elnézést kérek. Egy olyan gondom lenne, hogy a közeljövőben szeretnék VGA-t cserélni. A kérdésem az lenne, hogy várjak-e a DX11-es HD 5770-re (úgy hallottam, lesz ilyen), vagy vegyek inkább 4770/4870-et? Ezt a kérdést inkább arra értem, hogy teljesítménybe jelent-e annyi pluszt a játékoknál/különböző 3D-s alkalmazásoknál, hogy megérje rá várni.
Segítségeteket előre is köszönöm szépen!
Gigabyte B450M-DS3H // AMD Ryzen 5 2600 // 2*8 GB Kingston FURY DDR4 2666 MHz // Gigabyte RTX 2060 Gaming OC 6 GB // 1*Kingston FURY Renegade 500 GB nVME M.2 SSD // 500 GB + 1 TB WD Blue HDD
-
Aprósólyom
addikt
Ilyet is régen olvastam, hogy meg kell emelnünk a kalapunkat a (óvatosan is fogalmazva) redmondi cég előtt. Csak hogy véletlen se mondjuk ki: elismerésem a microsoft-é. Lassan hülyének fogom érezni magam. Mi történik ezzel a világgal?
Jevons paradox
-
BemAnyó
senior tag
Nagyon pöpec írás lett már megint, köszönet abu mester
Személyes véleményem az eddig elhangzottakhoz tömören : A DX11 nagyon jó dolog, a Win7 el együtt végre kézzelfogható fejlődés, és igen a dx10 nagy áttörés volt még ha át is ugrottuk nagyjából, akinek DX9 vagy régebbi rendszere van, és az xp nél újabbat nem is akar az minek alkot véleményt ezekről, hiszen nem is érinti, ha meg bizalmatlan is mellé akkor várjon ki és fogja be, olyan még úgysem volt hogy ma kiadnak egy új op rendszert/api -t és holnaptól 1000 új erre irt játék/program fut rajta tökéletesen és mind szebb és gyorsabb mint valaha (és nem is lesz, minő csoda), ehhez képest a mostani helyzet jobb mint eddig bármikor, de persze sírni meg kötekedni azt mindig kell, még ha nem is értünk hozzá.szerintem,
Bem
u.i. :az szerintem az Nvidia leírását legfeljebb papíron gyakoroljátok
[ Szerkesztve ]
-
brd
nagyúr
Sajnos a munkámból kifolyólag látom eleget ahhoz, hogy kösz', ne kérjek belőle. (Próbáltam egyébként saját gépen is, pont az SP1 után, kb. 2 hónapig használni, de az XP után/mellett nagyon nyögvenyelős a használata, 2 magos gépen, 2 GB RAM-mal, 60-70 MB/s-et töltő HDD-vel). A Win7 egész jó, már csak a felesleges komponenseket kellene kiírtani belőle, vagy megbarátkozni azzal, hogy az eddig max. 6-8 GB-os rendszerpartíció 20 GB kell legyen...
De hogy a topichoz is hozzászóljak, én sokkal jobban szórakozom "holmi" Braid, vagy Trine, Portal-féle igényes játékokkal, még ha a grafika nem is feltétlen használja ki a mai VGA-kat. Szerintem inkább ilyenek (ötletek) alkotására kellene "pazarolni" az energiát, nem arra, hogy az összes növény levele aliasolva legyen (persze az sem baj, csak később legyen a rangsorban). Aki használt valaha Commodore gépeket, az biztosan tudja, milyen egy jó játék, pedig azoknak a grafikája egy mai gépének a nyomába sem ér.
The only real valuable thing is intuition.
-
addikt
-
Lacika001
aktív tag
Amikor megláttam a címet megörültem hogy már van HD5XXX teszt, hát pofára estem , de a harmadik oldalon azért van egy kis olvasnivaló.
Egy fél évet még biztos ki lehet bírni DX11 nélkül, addig hátha lendít az NVIDIA is valamit, meg az árak is mérséklődnek ha elül a por a DX11 körül. -
pengegyerek
aktív tag
Nagyon jó írás.
Úgy vettem észre, hogy ehhez a DX 11- hez kis monitor már felesleges mert nemadja ki azt amit tud nagy képernyőn lesz élvezetes a játék meg több képernyőn de naggyon jó lett vagy lesz igaz még a tesztektől is függ de szinte biztos vagyok benne, hogy nagyobb sikere lesz mint a DX 10- nek"Aki pálinkát iszik a temetőbe kiviszik ki pálinkát nem iszik azt is oda temetik."
-
proci985
MODERÁTOR
+1! végigpróbáltam mindent, sőt még a Chicane - Far from the maddening crowdsát / Oldfield - Tubular Bells 3ját is bekészítettem (azokkal mentem a legjobb időket). sajnos sehogy se indult, pedig nagyon rákészültem.
a Porschét ezekután én is végigvittem mégegyszer Vista alól (min negyedszer ), szóval az ment.
Don't dream it, be it. // Lagom amount.
-
mcsabee
senior tag
válasz #16729600 #161 üzenetére
No akkor, csak pár igen jól sikerült játék szeptemberből:
Champions Online
Section 8
Mini Ninjas
Need for Speed Shift
Batman: Arkham Asylum
Resident Evil 5
Red Faction: Guerrila
Aion
Order of WarEzt akárhogy nézem, csak 9 cím, csak erre hónapra, csak PC-re... Innenstől ki beszél ökörséget? Arról nem tehetek, hogy te mondjuk csak RTS-ekkel játszol, ergo az Order of Waron kívül más nem érdekel innen...
Mielőtt azt mondod, hogy ökörséget beszélek, nem árt tisztában lenni azzal, hogy mi a jó játék megfelelője, mert a fentiek, az adott stílus szerelmeseinek igencsak kellemes pillanatokat tartogatnak... Ha tényleg igaz lenne az a 95%, akkor régen lenne már piac, ami ki lehetne adni a játékokat... De gondolom, te jobban tudod, hisz minden stílust szeretsz, mindennel játszol, ebből kifolyólag tényleg az összes megjelenő játékról véleményt tudsz formálni, ezáltal teljes mellszéllességgel mondhatsz akkor butaságot, hogy a játékok 95%-a rossz...
Stay a while and listen...
-
fecg21
aktív tag
Nagyon szép írás, bár egy-két dolog nem egészen világos.
Az összes újítás közül én legjobban a computer shader-t "várom" , végre nem a nyamvadt CPU-val kell majd a videofájlokat konvertálni. Rengeteg olyan újítást hoz a DX11 ami megkönnyíti a fejlesztők munkáját, csak az a kérdés hogy vajon a "szét warezolt" Pc-s piacra érdemes lesz e dolgozniuk? Szerintem nem... -
zoltanz
nagyúr
Reméljük lesz javulás a DX10.1 es vezérlőkkel is, én meg csak csak elvagyok egy ha kis bealssúlás tapasztalható itt-ott, de ha komoly 3D prezentációt is be kell mutatni a nagyfejűek elött akkor már gáz, pár FPS is számít...
-
-=V3rthil=-
őstag
Mindig mosolyogva olvasom, hogy mennyire fel tudják hergelni magukat egyesek ilyen dolgokon, amik valószínűleg elég kis befolyással vannak az életükre.
Szerintem felesleges ebből hitvitát csinálni, hogy az egyes API-k jók, rosszak, a fejlődéshez nyilván kellenek kevésbé sikerült lépések is. Aki mindent elhisz, amit a médiában olvas - akár ilyen, akár más témában - az megérdemli, hogy mindig mindenből a legújabbat, legdrágábbat vegye ész nélkül, nagyrészt úgyis csak azok csinálják, akik megengedhetik maguknak. Azzal, hogy az előző DX-ek "nincsenek kihasználva" nem értek egyet, pontosabban ilyenről szntem nincs értelme beszélni, a lényeg, hogy a fejlesztők egyre több és könnyebben használható eszközt kapnak a kezükbe. Az már más kérdés, hogy sokszor jó lenne az optimalizációra nagyobb hangsúlyt fektetni... De ha egy adott műveletet lényegesen egyszerűbb elvégezni (lekódolni) egy újabb API-val, akkor nyilván több idő jut az optimalizálásra is, esetleg nem is kell akkora hangsúlyt fektetnie rá a fejlesztőnek.
Az is vicces, hogy egyesek háborognak, hogy minden a pénzről szól. Miért, miről kéne?? Puszta jószándékból ücsörögjenek a fejlesztők a gép előtt? Ha nem a pénzről és a profitról szólna az egész, sehol sem lennénk fejlettségben.hey-ho-let's-go
-
Flame_
tag
válasz #16729600 #163 üzenetére
Nos, bár faxot nem küldtek senkinek sem róla - pláne akkoriban - de már jó rég megmondták erről a frankót. Mindezt úgy, hogy egyébként én - szigorúan a játékok terén - egyetértek a fanyalgó hangokkal.
[ Szerkesztve ]
-
#16729600
törölt tag
"Annyi jó játék jelenik meg, hogy össze is rottyantanád magad, ha neked azt mind meg kéne venned saját pénzből - kivéve, ha havi szinten 400 ezer körül viszel haza"
Ezt a velőtrázó ökörséget ugye te se gondoltad komolyan? A 95% is erősen idealizálta a mai játékok minőségét.
-
mcsabee
senior tag
"mindegy hogy a mai game-ek 95%-a hulladek"
Hagyjuk már ezt abba... Manapság már minden rossz... Fúj DX11, fúj Vista, fúj nVidia/ATi, fúj AMD/Intel, fúj játékok... fúj-fúj minden... Manapság tök mindegy mi jön, az már csípőből rossz...
Annyi jó játék jelenik meg, hogy össze is rottyantanád magad, ha neked azt mind meg kéne venned saját pénzből - kivéve, ha havi szinten 400 ezer körül viszel haza...
A DX11 is jó lesz, nem ma, vélhetőleg nem is holnap, de nem kell leírni már most egy technológiát. Egyébként egy olyan technológiát mutassatok, ami a megjelenése napján azonnal forradalmasította a piacát, és mindenki vásárolta, mint a cukrot, mert annyira elérhető, és használható volt - természetesen maradjunk PC fronton.
Jó lesz, szép lesz, de meg kell tanulni használniuk a fejlesztőknek, és kell hozzá egy olyan operációs rendszer, mint az XP, hogy hosszútávon fix játékplatform legyen a gamer PC-k segge alatt.
Stay a while and listen...
-
m1sk4r
aktív tag
-
Killing
addikt
Ülj le, csillagos 5-ös.
Meg mért pont most jönne ki a táp gyengesége, mind a két kari annyira nagy teljesítményű, h már bootkor pezsgőt bontanak a DÉMÁSZ-nál?-by finest
-
Sanyix
őstag
válasz proci985 #153 üzenetére
"az NFS4 az egyetlen a szériából, ami nem futott rendesen Vista alatt "
Én is vistán játszom vele ;)A legjobb nfs az 5-el együtt.
[ Szerkesztve ]
szövegértelmezés, az ÉRTELMEZÉS a fontos, mert az olvasás mindenkinek megy, de az ÉRTELMEZÉS már komoly probléma a magyaroknál. Gondold ezt át mielőtt marhaságot írsz...
-
proci985
MODERÁTOR
pontosan, a Hot Pursuit (aka NFS3) bugzott (gyakorlatilag csak softwaresen indult és úgy meg futott vagy 5 fpssel, valami gáz meg volt még a belső nézettel is az egész tetejébe, patch javította) a bansheevel, szóval amikor kijött a high stakes kapásból a glidevel próbáltam (annyira nem volt fontos, hogy glide, inkább csak a nosztalgia miatt írtam bele meg tényleg nagyon tetszettek a színei). furcsa, de az NFS4 az egyetlen a szériából, ami nem futott rendesen Vista alatt (állítólag pár embernek elindult, nekem nem sikerült sajnos beröffentenem).
igazából az alapból glide alá írt programok (pl még: Diablo2) voltak érzékenyek a renderelelőkre, konkrétan a hd3870esemmel már futott olyan jól említett játék, mint a 16megás Bansheevel. az x1600proval lassabb volt, meg még rondább is... pedig volt D3D mód, csak éppen sebességben és szépségben meg se közelítette az eredeti glideos végrehajtást.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
Flame_
tag
Ki lehet tűzni nem csak a tálcára, hanem a start menüre is. Ikont vagy mappát. Ezzel a bal oldalára teljesen reprodukálható az XP-s (és azelötti) klasszikus start menü, ha erre gondoltál. Valahol még ki kell lőni azt is, hogy használat alapján cserélgesse az ikonokat (GUI-n láttam rá lehetőséget 7100-as build óta) és a lényeg készen is van. Egyébként a keresősávot én bevallom hasznosabbnak találom
-
Raymond
félisten
Joval szebb volt aprosagok miatt. A szineken kivul peldaul amikor a havas palyan bementel az alagutba majd kijottel a masik oldalon ott azon a reszen ahol alacsonyabban volt az ut ott "megult" a suru kod. Ez a sima valtozatbol hianyzott.
MOD: Bocs, osszekevertem a Hot Pursuit-al. A HS-t mar en is csak Glide alatt jatszottam.
[ Szerkesztve ]
Privat velemeny - keretik nem megkovezni...
-
Sanyix
őstag
válasz proci985 #143 üzenetére
Miben volt más az nfshs glide-ban? Én is voodoo2-n glide-ban kezdtem azt, de nem vettem észre különbséget. Egyébként a glide mód előhívására való a glide wrapper dx alatt.
szövegértelmezés, az ÉRTELMEZÉS a fontos, mert az olvasás mindenkinek megy, de az ÉRTELMEZÉS már komoly probléma a magyaroknál. Gondold ezt át mielőtt marhaságot írsz...
-
motorhead
aktív tag
proci985!
Ez nem hozzászólás....se nem elemzés..ez egy cikk. Már csak néhány képet kellett volna belevágni az említett játékokhoz.
[ Szerkesztve ]
..--OLDSCHOOL FOREVER--..
-
fanti
addikt
Gratulálok az íráshoz!
Közérthető és lényegretörő, szép és tömör összefoglalása az új technológiának.
Köszönjük!
-
proci985
MODERÁTOR
figyelem: visszaemlékezéssel egybekötött elemzés lesz.
a Crysis mindhárom szempontból (AI, fizika, grafika) az élvonalban van, hát még amikor kijött. zöldsapkás fokozaton (alacsonyabb nehézségen az AI kevésbé kerít be agresszíven és úgy általában kevésbé érdekes) és very high fizika mellett jön ki igazán a program ereje. gyakorlatilag az AI mindenre tudott reagálni, és tette ezt gyorsan. pedig tényleg mindent megpróbáltam az összezavarására, a gerillázástól a ramboig. AI szinten csak a Stalker CS volt ilyen erős, igaz az inkább makroszinten, mikroban a Crysis verte. mondjuk hozzá kell tenni, hogy a Crysist négyszer vittem végig, mert annyire élveztem fogócskázni az AIvel (pár helyen mármár Red Alert Tanya mission fílingje volt tervezés szempontjából a misszióknak, RTSezni meg imádok).
a HL2 scriptelve volt, amint kifogyott a script kb csak álltak és lőttek az ellenfelek. a Far Cry 2 jó lehetett volna, de a spawnalgoritmusra nem fordítottak kellő figyelmet (nyakbateleportált csapatnéger gépágyúval (very hardon instant elkerülhetetlen halál) == FAIL).
a fizikaés a rombolható környezet nem véletlenül jött elő és tűnt el már pár helyen. volt pl a Deus Exben, eltűnt a Q3Aban, rombolható falak megvoltak a Q2 engineben, Q3Aban már nem, tükrök és szétlőhető karaktermodellek(!) voltak az AvP1ben (Rebellion saját engine), de az AvP2ben már nem. és az AvP tudott (pontosabban szimulált) olyan fényárnyékokat és effekteket (tükör, térhangzás), amiket legközelebb a Doom3ban láttunk viszont.
sőt, grafikábn is voltak ilyen változások: ott a Diablo2. nagyon sokat játszottam vele (volt olyan 15-20 80+os hell baalt legyőzött karim 1.10 alatt, ebből kettő 90es singleben és 5 85+osom retro mod alatt) és a 20adik kari környékén még mindig fedeztem fel újdonságokat (szárnyas szakállas tehenek A2 tombokban pl). részletességben talán a Sacred 2 a high textúrákkal már közelíti... és a Diablo2 még sprite alapú volt!
ugyanígy: imádtam az NFS4 (High Stakes) multitextúráit Glide módban. változott a DX, elvileg javult, gyakorlatilag az a sárga naplemente eszméletlenül hiányzott nekem (hangulata volt a színeinek). egészen 2008ig, a Stalker SoC particle enchanted modjáig (az alapjátékban is szép volt a naplemente és a napfelkelte, de az a tipikus aranyszínben úszó táj kimaradt).
DX7 vs 9? ugrás ott volt, amikor először bejött a hardvare renderer, a 16bit (q2 felrak, software vs hardvare renderer összehasonlít), a bilinear filter (minden AA és AF öreganyja) meg a Zbuffer (quake engine, 96). majd a mulitextúrák (q2, 97 vége). majd a full dinamikus fényárnyékok és a shader (doom3). majd amikor a full dinamikus fényárnyékokat elbírta rendesen a hardver nagy poligonszám és nagy pályák esetén is (avagy G80, R600 valamint a Stalker és a Crysis) úgy, hogy a fizikával és AIval se kellett spórolni.
akik szerint meg nem ért semmit az egész: Stalker SoC 1.05 felrak, levesz grafikát statikus fényárnyékokra, játszik, felrak full dinamikusra, játszik tovább. aki nem lát különbséget, az hazudik (talán ez a legjobb példája a fejlődésnek).
a fizika és az ai elsőre nem látszik annyira, ezért is lehet velük spórolni. tényleg jó ait pedig elég nehéz megírni...
a visszafelé kompatibilitás furán hangzik, de ha tényleg működni fog ugyanaz a kód az FX szériától az x800asokon át az 5870esekig, akkor meg fogja érni a fejlesztőknek használni. a sebessége már jobb kérdés lesz, dehát ha el elindul... a dx9.0c és dx10 lassú terjedése ugyanis ezzel is indokolható.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
luw2win
őstag
Köszönjük, és a cikk elején található felvilágosító linkeket is
Teszt meg várós.“Azért nem jut olyan sok ember sehova az életben, mert a hátsó kertben keresgélik a négylevelű lóheréket.”
-
zuchy
őstag
Nem hiszem, hogy ilyen hsz-k illetnék Abu85 írását, szóval személyeskedést, gyerekeskedést, abbahagyni pls. Aki XP-t használ, hát használja, aki meg nem az nem, kész.
[ Szerkesztve ]
PC-STYLE.hu
-
nkmedve
őstag
válasz Johnny Cage #136 üzenetére
Fényévekkel stabilabb, indulásnál lassab, de általános használatnál gyorsabb, kb ennyi.
A beépitett biztonsági eszközökről nem beszélek, mert azoknál nem éreztem különbséget, egyikkel se volt semmi bajom ilyen téren. -
válasz motorhead #126 üzenetére
A helyzet az, hogy neked bárkit, bármit mondhat, paranoiás vagy, ezért nem fogod elhinni.
Azért csak egy dologra rámutatnék. A Microsoft nem gyárt vga-t, ezért értelmetlen a hozzászólásod.
(#136) Johnny Cage: ez jó volt.[ Szerkesztve ]
Pénztárca bemutatók: https://www.youtube.com/playlist?list=PLYQxd5Rbby46cPtVVMQodEGZuxZm7csIo
-
válasz #06658560 #116 üzenetére
"#55 TomLion: hát, engem ez sem győzött meg a szebb látványról. Leginkább olyanról, amit csak erős nayítással lehet észrevenni, nagyon odafigyelve, ami játék közben nemigen van meg. Ellenben a fejlesztők dolgát teszi sokkal könyebbé."
Csak hogy ez pont azt jelenti, hogy - kevesebb erőforrás igénnyel és kevesebb energiával - szebb játékokat tudnak csinálni.
Egyébként meg nem tudom, hogy mire alapozod a megfigyelésedet, gondolom sok DX11-es játékkal játszottál mostanában.Pénztárca bemutatók: https://www.youtube.com/playlist?list=PLYQxd5Rbby46cPtVVMQodEGZuxZm7csIo
-
motorhead
aktív tag
"Ne vegyél soha semmit, mert úgyis lesz jobb ok?"
Oké nem veszek.
"Lófaszt lesz raytrace"
Oké,akkor nem lesz. Ha te mondod... (pedig de szerettem volna..)
"Pár év múlva sokszorozódni fognak a teljesítmények... csakhogy 10 éven belüli raytrace-hez hatványozódnia kéne. "
Jah... csak sokszorozódni.. Akkor bocs. Én már a hatványozódásra számítottam.
"Milyen éventéről beszélsz? Nekem az első dx10.1-es szériám van, egy hd3850, amit 2007 második felében gyártottak. Most 2009 második fele van, számoljál.
2 év jött ki. Az jó?
Na meg a dx10 az 2006-os
Itt meg 3 jött ki. Leülhetek?
..--OLDSCHOOL FOREVER--..
-
nkmedve
őstag
Használtad egyáltalán SP1 megjelenése óta? Mert én azt használom több mint egy éve, úgy hogy mellette fent van XP SP3 is.
XP-t azért hagytam meg, hogy ha valami kompatibilitási gond lesz akkor megyek át abba, megkérdezheted hányszor használtam azóta (1szer inditottam el nemrég, csak próbaként, mostmár megérett a letörlésre).Win7-et is próbáltam, kinézeten kivül nagy különbséget nem éreztem Vista SP1 vagy SP2-höz képest. Majd ha kijön a végleges változat, lehet váltok, egyetem adja bármelyiket, nem kerül semmibe.
Abu irása szokás szerint kiváló, nagyjából sikerült megemészteni. A DX11 tényleg hoz újitásokat, remélhetőleg elterjed hamar, és hosszú életű lesz. Szerintem se nagyon lesz már újabb DX, ehhez már éppen elég célegység kell, nem érdemes tovább bonyolitani a jelenlegi arhitektúrákat, tudva, hogy nem ez a jövő.
Azzal ellentétben amit egyesek itt irtak, a gyártók nem kell attól féljenek, hogy új DX hiányában nem tudják az újabb kártyákat eladni. Nem minden új GPU szériánál van új DX API, Teljesitménynöveléssel, csikszélesség- és fogyasztáscsökkentéssel nyugodtan ki lehet adni még minimum két szériát az elkövetkező 3 évben, azután pedig jöhet a software render.Mostmár csak jöjjön NV is valami ütős válasszal s akkor lehet elkezdek én is új kártya után nézelődni a felső-közép kategóriában.
#132 én is úgy toltam akkoriban, mégis tetszett
[ Szerkesztve ]
-
v.tom
őstag
Szerintem nem lenne jó egy játék, ha ocsmány grafikája lenne, de fantasztikusan reális fizikával rendelkezne. Pl.: mit szólnál egy autós játékhoz, amiben jó a fizika, de egyébként grafikailag egy f*s. Nem kell szerintem problémázni azon sem, hogy szar a játékélmény, stb. mindig is voltak jó és rossz játékok. 20 éve is, de ma már csak azokra emlékszik mindenki, amik jól sikerültek. Ennyi. Maga a grafika nem lett volna elég ahhoz, hogy a crysis ekkora siker legyen. A legtöbben anno kb minimum grafikán tolták, mert nem volt elég erős vasuk hozzá...
[ Szerkesztve ]
-
Sanyix
őstag
válasz motorhead #126 üzenetére
Ne vegyél soha semmit, mert úgyis lesz jobb ok?
Lófaszt lesz raytrace. Még ma is alig bírnak megmozdítani egy egyszerű jelenetben egy autót, és kinézetben is igenronda. Pár év múlva sokszorozódni fognak a teljesítmények... csakhogy 10 éven belüli raytrace-hez hatványozódnia kéne. Honnan veszed ezt az örök dx11 marhaságot? ott van a cikkben amit eddig is tudni lehet. Ez az utolsó fix feladatos külön gpu-s api, ezután már szoftver render jön, néhány év múlva.Milyen éventéről beszélsz? Nekem az első dx10.1-es szériám van, egy hd3850, amit 2007 második felében gyártottak. Most 2009 második fele van, számoljál. Na meg a dx10 az 2006-os
szövegértelmezés, az ÉRTELMEZÉS a fontos, mert az olvasás mindenkinek megy, de az ÉRTELMEZÉS már komoly probléma a magyaroknál. Gondold ezt át mielőtt marhaságot írsz...
-
motorhead
aktív tag
A DX11 nekem jó? Majd azért várjuk már meg, hogy ez a lefelé kompatibilitás mennyire lesz sebességben elfogadható. Mert ha nekem jó, akkor még sokezer másik hozzám hasonlónak is akinek mondjuk DX10-es karija van, vagy régebbi széria.
Ezt előre nem tudod azért azt gondolom. Bár te elég sokat tudsz már eleve rólam is.
De akkor vajon kinek adják majd el az új hardvereket, ha nekem nem kell váltani? Meg nem kell váltani a sok százezer vagy milliós DX10 tulajnak. Ha ugyan azt kapom csak kicsit gyengébb minőségben? Mert NEKÜNK nem kell, hiszen minden megy ugyanúgy. Te ezt elhiszed??"Sajnos még mindig nem érted, és ilyen hozzáállással nem is fogod."
Persze, tapsolhatok is az új hihetetlen API miatt Meg nézhetek nagyot De ezt inkább pont azok teszik akik mindent elhisznek.
De én inkább kivárok és megnézem, hogy a beígért nagyszerű dolgok mennyire mutatnak jól a valóságban. És mi valósul meg az egészből.
Néhány éven belül jön a ray tracing a 3D-s világba hardveresen, na akkor mi lesz a DX11 örökre szóló meséjével????Tulajdonképpen az egésszel semmi baj nem lenne, ha nem évente történne mindez.
[ Szerkesztve ]
..--OLDSCHOOL FOREVER--..
-
Findzs
addikt
jó írás köszönjük
de mi az a "konluzió" ?
a cikk legördülő oldalválasztójánál olvashatónekem továbbra is az a véleményem, hogy a játékoknál nem a látvánnyal van a baj hanem a játékélménnyel és a fizikával
a crysis is szép volt de a játékélmény nagyon gyenge (mondjuk ez szubjektív)
a portál grafikai szempontból nem volt egy nagy szám, vagy a plants vs zombie de a játékélmény nagyon jó volt
azon kevés tárgyaknak amik imitálják a fizika jelenlétét nincsen tömege
az autók össze vissza repkednek az emberek meg állva maradnak
meg sorolhatnánkcsináljanak a fejlesztők jó játékokat programozzanak bele megfelelő fizikát és ai-t
ennyi
nem kell hiper szuper grafika"Az embereket nem az igazság érdekli, hanem a saját igazuk."
-
Kiflinger
tag
Nagyon jó cikk, grat.
A DX11-et két összefüggésben kell vizsgálni szerintem. Egyrészről ott a Win 7, amivel kiköszörülték (le merem írni, bár még nem jelent meg...) a Vista csorbát és ennek része a DX10 "al-csorba" kiköszörülése is. Másrészt ott az XBox vonal, ami előbb-utóbb frissülni fog és nem mindegy mennyire lesz egyszerű a cross-platform fejlesztés.
Félig off-topic, de az XP-ről annyit, szép volt jó volt, nyugodjék békében. 2001-ben adták ki. Ma már többmagos processzorokkal felvértezett gépeken futtatunk grafikus gyorsítással felvértezett felületű oprendszereket. Lejárt az ideje. Lesz majd XP fanklub a Commodore fanklub tőszomszédságában. Én mindkettőt szerettem, benézek majd néha srácok!
-
-
Vistaboy
veterán
Jó lesz ez a DX11, amint tényleg elterjed, és nem csak egy-két game fogja támogatni, akkor majd én is befektetek egy ilyen VGA-ra, de egyelőre a HD 4890-el még elleszek egy-másfél évig.
"A battle has been fought, and is now over. Place your sword upon the ground, and rest in the temporal peace. After dozing in the warmth of a dream, a new day will begin." - Fate/Stay Night. Diablo III: Vistaboy#1222
-
P00By
nagyúr
Mosmá alapoztunk, jöhet a cikk!
-
Sanyix
őstag
válasz Devid_81 #111 üzenetére
szartam rá. vliteoltam feltelepítettem virtualboxban hogy műxike, aztán kiírtam, majd egyszer ha behal a vista rakom fel
szövegértelmezés, az ÉRTELMEZÉS a fontos, mert az olvasás mindenkinek megy, de az ÉRTELMEZÉS már komoly probléma a magyaroknál. Gondold ezt át mielőtt marhaságot írsz...
-
#06658560
törölt tag
Mert modnjuk az xp az7 igényeimet töükéletesen kielégíti, sebesség terén is, a gépem nem csúcsmodern, hogy az alkalmazásokat feltétlen a legmodernebb oprendszerenm futtatva többletet kapjak tőlük, és nem látom értelmét a jól működőről váltani egy teljesen újra.
#55 TomLion: hát, engem ez sem győzött meg a szebb látványról. Leginkább olyanról, amit csak erős nayítással lehet észrevenni, nagyon odafigyelve, ami játék közben nemigen van meg. Ellenben a fejlesztők dolgát teszi sokkal könyebbé.
#111 Devid_81: amennyiben gyakorlott win használó, s ennyi idő alatt nem találja meg, ott azért talán feltételezhetjük a nagy átalakítások problémáit is.
[ Szerkesztve ]
-
Peter13
senior tag
Én sem tudok egyetérteni a Vista-t szidó véleményekkel. Másfél éve használom, mert tavaly amikor választani kellett hogy mit vegyek a frissen összerakott gépre, nem XP-t vettem hanem ezt, remélvén hogy "future proof" leszek. Lehet hogy nem jött be, de nem volt system crash, pedig 3 gépen van már fent, ebből egy laptop, egy a (most már volt, de mindegy) bnő, egy meg a main asztali. Nem volt gond driverekkel (Ati 3850/4850/Mobility 4330), minden ment ahogyan kell, gyorsan, szépen, stabilan. Nincs az XP-vel se semmi bajom, egyszerűen csak az újabb OS mellett döntöttem mert azt hittem az jobb lesz (64 bit kiterjesztés, DX 10, meg egyszerűen frissebb)...és nem kellett visszasírnom az elődjét (amit szintén volt szerencsém igen sokáig használni, és a másodlagos laptopon még mindig az van)
Nekem pedig azért tetszik a dx11, mert végre nem KELL váltani, hanem LEHET...ez valahogy szimpi...
"No, I'm not immortal: I'm just not good at dying..."
-
nLali
őstag
Tiszta, érthető írás. Jó volt olvasni ! Köszönöm !
Bérelhető reklámfelület
-
Sasal1ty
tag
Kellemes írás, kár hogy SuSe linuxot használok és semmire nem jo a DX9se.
GTA V : Pacikuki007
-
JanR
addikt
Szep iras, grat. Kivancsi vagyok az nvidia-ra is, meg persze, hogy a DX11 utan mit talalnak meg ki
-
Devid_81
félisten
Jo kis iras, thx!
Szerk: (#109) Sanyix: hehe, nem adtal neki sok idot az szent
[ Szerkesztve ]
...
-
félisten
válasz antikomcsi #106 üzenetére
Lehet, hogy arra gondolt hogy Warezolni kényelmetlenebb, mert torrenten nem terjed belőle a Corporate változat, ami átmegy minden genuine ellenőrzésen, ezért trükközni kell. Bár, én csak hallomásból tudom, sosom warezoltam Vistát, mert van egy jogtiszta XP-m.
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
Sanyix
őstag
Éppen az hogy a win7 nem sokat újít a vistához képest. Én se rohanok váltani ezért, főleg a win7 hülye menüje miatt (idegesítő, és nem találom hogy lehet klasszikra váltani a startot, bár 30 secnél tovább nem kerestem)
szövegértelmezés, az ÉRTELMEZÉS a fontos, mert az olvasás mindenkinek megy, de az ÉRTELMEZÉS már komoly probléma a magyaroknál. Gondold ezt át mielőtt marhaságot írsz...
-
brd
nagyúr
válasz antikomcsi #106 üzenetére
Az. A Win7-hez viszonyítva bőven (az XP-ről pedig ne is beszéljünk).
Szerencséd volt. Ill. ha nem látod a különbséget, nem én fogom felnyitni a szemed.
The only real valuable thing is intuition.
-
válasz motorhead #82 üzenetére
Sajnos még mindig nem érted, és ilyen hozzáállással nem is fogod. Amivel egyetértesz, azt megérted a cikkből, ami pedig nem illik bele az elképzelésedbe, azon keresztül nézel.
A DX10 egy nagy előrelépés volt, és az MS naivan azt gondolta, hogy a fejlesztők ontani fogják a DX10 only játékokat. Persze nem ez történt, mert a Vista fogadtatása nem volt annyira rózsás, és ha a fejlesztők csak DX10-re fejlesztettek volna, ugyan teljesen ki tudták volna használni a DX10 adta lehetőségeket, de elvesztettek volna egy csomó vásárlót. Most viszont pont ezt orvosolta az MS, sőt még DX11-es kártyát sem kell venni a DX11 játékokhoz. Persze oprendszernek kell a Vista vagy a Win7, de hát az XP már 8 éves, előbb-utóbb váltani kell.Te pont az ellenkezőjét próbálod belemagyarázni a cikkbe. Szóval nem érted, hogy a DX11 pont neked jó, mert megtarthatod a DX9-es vagy DX10-es karidat, és így is tudsz majd játszani a DX11-es játékokkal.
[ Szerkesztve ]
Pénztárca bemutatók: https://www.youtube.com/playlist?list=PLYQxd5Rbby46cPtVVMQodEGZuxZm7csIo
Új hozzászólás Aktív témák
Hirdetés
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Axon Labs Kft.
Város: Budapest