Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #20 üzenetére

    Biztos nem. Az Oban fejlesztését az MS állta. Kizárt, hogy odaadják a Sony-nak. :) Az persze elképzelhető, hogy a Sony is egy hasonlót épít.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sundesz #18 üzenetére

    A unified shader talán nem olyan érvágás egy konzolnál, mert erősen lehet építeni a hardver képességeire. A fő baj szerintem az RSX-szel az volt, hogy a dynamic branching 880 pixelre volt végezve, míg a Xenos 16 pixellel dolgozott. A hatékonyság itt összemérhetetlen. Az Xbox fényévekkel jobb volt, és ez a modern grafikában nagyon számít.
    Jó megfigyelés ... pont az UE3 a nagy dynamic branching kedvelő. Emlékszem, hogy amikor megjelent az UT3, akkor az új DX10-es kártyáknak jól ment, de a régi X1000 és a GeForce 7 esetében egy pite X1600 elvert egy GeForce 7900 GTX-et. Ez tipikusan a dynamic branching hatékonyságára vezethető vissza.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Nevezzük inkább Xenosnak. De technikailag valóban közelebb áll az R600-hoz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz moli.hu #39 üzenetére

    Először is el kell hitetni a konzolról, hogy PS3 a szerver felé. Amit egyéni programok telepítése nélkül nagyon nehéz. A konzolokra való programtelepítés pont azért korlátozott, hogy ne lehessen trükközni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #51 üzenetére

    Technikailag igaza van. Azt nem mondanám, hogy a GPU egy hulladék, de ha mondjuk nem rakják ki a fejlesztők az SPE-kre a dynamic branchingot, akkor szar lesz a teljesítmény. Ez a PS3 fő problémája, amire nagyon kell figyelni.
    Van hasonló gondja persze az Xbox 360-nak is. A fő fegyvere a Xenosnak az EDRAM, ami 10 MB-os, és marhagyors 256 GB/s-os tempóra képes. Ez nagyon gyorssá teszi az AA-t, ami kedvező a fejlesztőknek. Egyedüli gond a kapacitás, mert deferred render esetén egy 720p-s képkocka 2xAA-val már 14 MB a color és a depth targetekkel. Ilyenkor a fejlesztők tilingot alkalmaznak, vagyis szeletekre osztják a képet. Ez egyszerűnek hangzik, de néha tiszta szopás. SSAO-nál ugye a mélységpufferre kell alapozni, de maga az eljárás eleve túl költséges, így trükköznek a fejlesztők. Kevés mintát vesznek és összemossák az eredményt a felbontás felén. Ez persze egy új render targetet követel, ami nem lehetséges. Erre a megoldás, hogy a back buffer tartalmát használják fel a mélységinfók kinyerésére, ami szar dolog, mert az effekt az előző képkockáról lesz számolva, viszont gyors, és alig észrevehető.
    Minden konzolnak megvan a maga nyűgje, de tény, hogy az Xbox 360 felépítése egy multiplatform címnél jóval kedvezőbb. Kevesebb problémát kell leküzdeni. Exkluzív címnél persze ez nem lényeges, mert eleve úgy tervezik az egészet, hogy a konzol képességeihez illeszkedjen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #53 üzenetére

    A Wii-ből meg eladtak jóval többet, mégsem valami erős a hardver. A konzoloknál az exkluzív tartalom a döntő tényező.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #56 üzenetére

    Nem a leszarozásról van szó. Ez csak egy szóhasználat. Ismerni lehet a hibáit, és látod, hogy mennyire építenek arra a fejlesztők, ami pont nem megy neki. Erősen kérdéses, hogy 800 pixeles minták mellett mi értelme van a dynamic branching alkalmazásának. Ez a technológia 128 pixeles minták mellett kezd hatékony lenni. A mai GPU-k rendre 64 pixeles mintákkal dolgoznak, ami elég jó, de a Xenos 16 pixelje ennél is hatékonyabb. Na persze figyelembe kell venni, hogy a 16 pixel csak akkor jó, ha van mivel elfedni az elérési időt. Ezért is ideális egy normál PC-s GPU-ban a 64 pixel, ami manapság általános lett. 32 pixelig talán le lehet menni, de nem mindig előnyös. A Xenos esetében azonban a direkt programozás ezen sokat segít.
    Alapvetően minden viszonyítás kérdése, de a Xenoshoz képest az RSX egy erősen korlátozott képességekkel rendelkező rendszer. Persze ezen nem kell csodálkozni. Az architektúra alapja időben jóval korábbi fejlesztés, még ha a PS3 később is jelent meg. Ráadásul a PC-ben nem szokás nagyon előre tervezni, miközben az MS-nek konkrét igényei voltak a Xenosszal kapcsolatban. Ezért nem jó vészforgatókönyvben gondolkodni. A Sony későn jött rá, hogy a Cell önmagában nem lesz elég.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Egon #70 üzenetére

    Elég nagy felelőtlenség egy konzolt úgy magasztalni, hogy nincs benne a technológiád. Ilyet egy cég nem tesz, mert azzal a konkurens technológiáját erősíti.

    Éppenséggel az AMD kezdte meg a Cloudos dolgot. [link] Azóta van konkrétan ide tervezett szerver is: [link]
    Na most az AMD látva a játékosok számára nem éppen kedvező negatívumokat, mint a képminőség és a lag ... annyira már nem hisznek benne mint régebben. Inkább az API-k eldobásában látják a megoldást. A hardverrel persze támogatják a cégeket, mert ha már kifejlesztették, akkor el lehet adni a szervert, de a konkrét fejlesztési pénzeket ezen a vonalon visszafogták. A Fusion Render Cloudot persze frissítgetik új hardverekkel, de ez minimális költség, hiszen az alapok kompatibilisek az új Opteronokkal, és a PCI Express is fogadja a legújabb VGA-kat. Cloud (és itt nem csak a játékról van szó) az Opteronoknak értékes terep, mert sok mag van a processzorokban, vagyis sok virtuális gép igényét tudja kiszolgálni egyetlen szerver. Itt a több mag szimplán több virtuális gép kezelését jelenti.

    Az világos, hogy az AMD elzárta a pénzcsapot az OTOY elől, így mára csak szimpla technológiai partnerek. Utóbbi az OTOY számára fontos, mert a hardver az alapja a rendszereknek, így érdemes mindenkivel partnerkedni. Még az Intellel is partnerek, noha az Intel inkább a Gaikai-t támogatja anyagilag. Az OTOY új fejlesztési partnere az NVIDIA lett. [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cszn #72 üzenetére

    Egy konzolnál ez nem így megy. Ha 2013 vége a tervezett megjelenés, akkor már most működnie kell egy prototípusnak, illetve a rendszert az elmúlt év elején emulálni kellett a fejlesztőknek. Emellett egy évvel a start előtt konkrétan kész gép kell a hardver oldaláról. Ezután már csak a hűtésen változtatnak, és kialakítják a külső dizájnt.
    Nagyjából négy évvel a megjelenés előtt tudni kell, hogy a konzolgyártó mit akar, mert a szoftverekhez ez nagyon fontos. Két évvel a megjelenés előtt működő prototípus kell a fejlesztőknek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cszn #79 üzenetére

    Arra gondolj, hogy a konzol megjelenésével kellenek a játékok. Ezek fejlesztése elég hosszú folyamat, főleg egy új konzolnál, amit még nem ismernek a fejlesztők. Bőven kell hagyni időt a start előtt, különben nem lesz meg a szoftveres ellátottság a startra.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Különbséget kell tenni a konzol és a PC között. Az RSX egy kismiska a Xenoshoz képest, de a PC az más. PC-n pont, hogy a GeForce 7 volt jobb, mert a kortársnak számító X1000 nem támogatta normálisan a VTF-et. Ettől persze itt is gyenge volt a dynamic branching, ami az UT3 megjelenésével keményen letolta a GeForce 7900 GTX teljesítményét a Radeon X1600 alá, de az ATI például nem támogatta a VTF-et. Persze az MS-nek a keze is benne volt, mert nem írtak elő kötelező formátumot a vertex textúrázásra, így a szabvány elfogadta az ATI R2VB eljárását is, csak ugye egy fejlesztőnek ez nem jó helyzet, mert ha vertex textúrázni akar, akkor van két eljárás, amire ki kell dolgozni egy-egy kódot. Ez erősen korlátozta az egész terjedését, pedig a vertex textúrázás eléggé jó fícsőr volt. Talán a legnagyobb előrelépés a DX9.0c-ben. Azóta persze a DX10 már jóval jobb specifikációt használ, így konkrétan előír formátumokat. Ez nagyon értékes reform volt az MS-től, mert így nem fordulhat elő, hogy egy gyártó félreértelmezi a szabványt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cszn #84 üzenetére

    Ez meg is történik, csak az emulálás nem életbiztosítás. Konkrétan látni kell, hogy a tényleges hardveren hogyan működik. A fejlesztés korai szakaszában persze az emulálás értékes alternatíva, hiszen nincs más opció.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz vhunor #91 üzenetére

    Ez egy nagyon érdekes dolog. Nyilván mindenki ismeri nagy vonalakban a sztorit, de azért megnézném a Sony-nál, hogy kinek jutott eszébe, hogy emulálják a textúrázást. :DDD Az egész egy vicc volt. Jó a Cell, de nem mindenre. Azért nem nehéz megmondani, hogy a textúrázás emulálása egy nagyon komplex és erőforrás-pazarló folyamat, így már az elején látni kellett volna, hogy ez nem lesz jó.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #108 üzenetére

    Statisztikailag eddig minden zárt rendszer bebukott, ha jött rá gyártófüggetlen megoldás. Túl nagy kockázatot senki sem vállalt azzal, hogy megjósolta a Glide halálát.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Egon #117 üzenetére

    ATI Radeon 9100 volt. A 9200 egy módosított GPU. A 9100 lényegében ugyanaz, mint a 8500. Azért nevezték át, mert a 9000 lassabb volt a 8500-nál, így a termékskálához igazították az elnevezést. Szerintem ez indokolt volt, bár ez relatív. Akkoriban még ment a piac ilyen trükkök nélkül is, szóval nem hiszem, hogy haszonszerzés volt a fő cél. Az indokolatlan átnevezésekkel van szerintem baj, amik mostanában történnek. Például most is, hogy az olcsó mobil GPU-kat átnevezte az AMD és az NVIDIA. Ez felesleges volt.

    Mivel a driver rengeteg rutint alkalmaz, így teljesen normális, hogy az exe alapján azonosítja be, hogy mely programhoz milyen rutinokat kell betölteni az előre megírt adatbázisból. Elég régóta így működik. Természetesen, ha módosítod az exe nevét, akkor az alaprutinok töltődnek be. Ez esetenként sebességvesztést eredményez. Minden GPU-hoz írt driver ilyen. Ez nem baj, mert világos, hogy nem lehet egy rutinnal kiszolgálni több százezer alkalmazást. Akkor kezdődik a baj, ha a képminőség romlik. Erre a GeForce FX esetében volt először példa, amikor az NVIDIA nem támogatta a DX9 24 bites precizitását. Az FX 16 és 32 bites módot támogatott. Na most 16 biten rosszabb volt a képminőség, míg 32 biten rossz volt a sebesség. Dönteni kellett. Tudjuk mi mellett döntöttek.
    A specifikus optimalizáció nem gond. Manapság is alkalmazzák, hiszen látod, hogy folyamatosan nő az egyes alkalmazásokban a driver sebessége. Ezt az exéhez kötött rutinokkal lehet elérni, ami normális, csak az ne rontsa a képminőséget. Még a globális optimalizációkat érdemes megjegyezni. Ezek sem jelentenek gondot, csak tegyék kikapcsolhatóvá a driverben. Erre is elég korrekt megoldások vannak. Szinte minden kikapcsolható. Egyedül a DX9 alatt elérhető FP16-os HDR cseréje nem egységes a konzoloknál alkalmazott R11G11B10-re. Ezt mindkét cég alkalmazza a Dawn of War 2, az Empire Total War, a Need for Speed: Shift, az Oblivion, a Serious Sam 2 és a Far Cry című játékokra, de csak az AMD teszi kikapcsolhatóvá. Persze akkora gondot nem okoz, mivel eleve azért cseréli a driver a HDR-t, mert a játékot a konzolon R11G11B10-re szabták. Ezzel közel azonos képminőség mellett sebességet lehet nyerni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Egon #120 üzenetére

    A TechReport és a Hardware.fr eléggé jelentős portál technikai oldalról. A többség szintén tudott róla, csak annyira gyenge lett a játék, hogy jelentéktelennek érezték, így inkább úgy döntöttek, hogy nem tesztelnek vele, például a kedvelt Anand és a HardOCP pont ezt az elvet alkalmazza. Ez is egy opció természetesen. Mi inkább úgy döntöttünk, hogy leírjuk, hogy miért fut ennyire lassan, és tesztelünk vele.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Egon #122 üzenetére

    A GF4 MX nem volt átnevezés. Ott az volt a baj, hogy a 4-es szám nagyobb a 3-nál, holott technikai tudásban az MX gyengébb volt a GeForce 3 termékeknél. De ez nem átnevezés, csak enyhén szerencsétlen névválasztás.
    Ha csak az átnevezés tényét nézzük, akkor a legjobb tudomásom szerint a Radeon HD 9100 volt ez első átnevezett kártya.

    Az érdekelne engem is. Ha megvan a lapszám mond meg. Hátha megvan az újság. :)

    Akkor még nem voltam itt, de az FX AA-ja valóban nem volt a legjobb. Persze vihar a biliben kategória, mert érzékelhető hátrány nem igazán volt belőle. Voltak ott nagyobb gondok is. A szögfüggetlen Anizo igazából egészen az X1000-ig nem volt. Az kínál először teljesen szögfüggetlen algoritmust. A többi a szögek paraméterével játszott, de technikailag nem mondhatók ténylegesen szögfüggetlennek. Ha nagyon szigorúan nézzük, akkor a HD 5000 volt olyan, ami virágok helyett először kört rajzolt, de ennyire ne hasogassuk a szűrszálakat. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák