Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #1 üzenetére

    Az Oculus nem tervez kifejezetten a konzolokra. De nyilván ott egyszerűbb a helyzet, mert tetszőlegesen módosítható az OS és beépíthető az, ami nekik PC-n hiányzik. Igazából a legnagyobb gondjuk, hogy nincs semmilyen kontrolljuk a Windows fejlesztése felett és rengeteg OS limitációt kell áttrükközniük. Ez borzalmasan nehézzé teszi már az egészet, mert a hardverek is csak arra képesek, amit a szoftveres alap megenged.
    Nem számít, hogy a hardver mit tudna elméletben, ha nincs hozzáférésük a fejlesztőknek. Ezért kell most töredezni a támogatást, mert nincs egységes alap a PC-ben. Mindenkire külön kell optimalizálni, és úgy, ahogy az az adott architektúrának jó lehet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Reggie0 #6 üzenetére

    Nyilván azért az 1%-ért az nagyon megérné. :D

    (#5) alevan: Majd kiderül. Probléma a hardverek különbsége is, szóval ha a DX12 végül kap is opcionálisan async compute és async DMA fejlesztéseket azt lényegében csak a GCN tudja majd igazán hasznosítani. Tehát mindenképp kell mindenkitől olyan modern architektúra, amivel az async warp hatékony lehet trükközés nélkül is. Amíg ezt csak az AMD tudja biztosítani, addig elengedhetetlen az alternatív optimalizálás az NV-re és az Intelre. Ergo marad a töredezettség.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #9 üzenetére

    Mert az Oculusnak nincs lehetősége a konzolra megfelelő fejlesztőkörnyezetet írni. A Sony és az MS nem engedi meg. Enélkül pedig nincs meg a VR-hez szükséges szoftveres alap. Ez semmi személyes csak üzlet. A Sony a VR-t magának akarja, csinálnak egy saját kiegészítőt, a többieket pedig arra kényszerítik, hogy ha akarnak VR kiegészítőket, akkor is a Morpheus SDK-ját kell használni. Ez viszont annyira a Sony eszközére van szabva, hogy csak azzal ad majd jó eredményt. Egyébként nem hiszem, hogy akadálya lenne, hogy a Rift működjön a Sony SDK-jával, csak a VR nem azon a szemüvegen múlik, hanem az SDK, az OS, a program, a hardver és a szemüveg tökéletes összehangolásán.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #11 üzenetére

    Naná, ezzel mindenki küzd, csak a Sony-nak annyi előnye van, hogy a teljes rendszer felett kontrollja van, így ha valami gond van az OS oldalán, akkor nem trükköket keresnek, hanem módosítják az OS-t. Ezzel nem tud versenybe szállni senki, de az Oculus nem is akar. Ők tökéletesen tisztában vannak vele, hogy a Sony a teljes kontroll miatt jobb megoldással tud majd előállni. Ezért koncentrál az Oculus a PC-re, ahova a Sony nem is hozza a termékét. Nem ellenfelei egymásnak, de persze egyébként lopják egymástól az ötleteket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #14 üzenetére

    A teljes kontroll ennek a rendszernek a kulcsa. Rengeteg trükközésre van lehetőség. Az async warp az egyik, ami például PS4-ben jól fog működni, mert teljesen letervezhető az egész. Kihasználhatod azokat a feldolgozási réseket, amikor az ALU kapacitás kihasználatlan. Rengeteg ilyen van. Plusz ott az OS-ben a grafika preempció, ami biztosítja a grafika tökéletes számítását.
    Ott a sztereó 3D, ami egy másik érdekes terület. Itt nem lehet trükközni, mert kell a két kép a szemeidnek, de a PS4-en nem kell kiszámolni kétszer a geometriát, hanem tovább lehet küldeni azt két kamera nézőpontjába. Rögtön megint egy csomó munkától megszabadítottad a rendszert, és nem romlott a minőség. Erről pofáznak egy éve a fejlesztők PC-n, hogy nem ér semmit a nagy TFLOPS, ha nem nyúlhatsz hozzá a hardverhez.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cacasz02 #17 üzenetére

    Ezt csinálja a Valve a SteamOS-sel. Az a Linux disztribúció elsődlegesen a VR-hez való módosításokat ülteti be a rendszerbe, de láthatóan nem egyszerű ez sem.
    A VR valószínűleg így is hasítani fog, csak PC-n háromszoros munkát kell hozzá végezni az optimalizálás során. Ezért jött szerintem az SDK rendering, hogy ezzel ne a fejlesztőket terheljék. Pár év és szabvány szinten normalizálódhat a helyzet.
    Önmagában nincs baj a trükközéssel ilyen formában, csak a szoftverfejlesztésnél nagyon drága mulatság.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #19 üzenetére

    Alacsony szinten úgy trükközöl, ahogy akarsz. A tied a teljes memória. Bármit meg lehet csinálni, amit elgondolsz.

    A DX12-ben még nem biztos, hogy lesz elehetőség async compute és async DMA-ra. Enélkül a GPU kihasználása nem növelhető. Persze adja az ég, hogy belekerüljön.

    A fizikai korlátokra láttunk már példát a PlayStation 3 esetében. Első és utolsó Naughty Dog játék. Iszonyatosan sok kihasználatlan lehetőség van most is, amit persze nyilván kihasználnak, hiszen biztos a 10 éves élettartam, így megéri befektetni. PC-n akkor sem fogunk ilyen szintre lemenni, mert nem garantálja senki, hogy 10 évig itt lesz a hardver.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #22 üzenetére

    Nem is kell, de elég messze vagy a hardver kihasználásától ma PC-n és új generációs konzolon is. Nyilván a PC-n az új API-k többet segítenek, mint konzolon, mert ott pár játék már eleve low-level hozzáférésű, bár a többség nem.

    Az egész valós idejű számítógépes grafika egy nagy trükközés. Hogyan tudnánk valamilyen hamisítással valami jobbat elérni. Ez PC-n is így van/lesz, ahogy konzolon is. A különbség csak annyi, hogy a mai, innovációt nélkülöző post-process trükközésből elindulunk a filmes CGI lemásolása felé. De itt is lesznek trükkök dögivel.

    A számítógépes grafika egyik hátránya, hogy a tartalmat rajzolni kell, és ott pedig a pénz korlátozza a lehetőségeket.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #32839680 #25 üzenetére

    Szerintem ők sem azért építették a GCN-t stateless compute hardvernek, mert gondoltak 7 éve az async warp fontosságára. Egyszerűen csak az történt, hogy az AMD az új generációs GPU kérdését úgy közelítette meg, hogy legyen egy általános processzor, ami képes grafikát számolni. Míg a többiek ezt úgy közelítették meg, hogy legyen egy grafikára jó hardver, amely képes általános számításokra is. Ez teljesen normális azt figyelembe véve, hogy a többektől senki sem kért két olyan konzolt, ami 10 éves életciklust levisz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #28 üzenetére

    Nem. Sosem volt cél. 1080p lesz a felbontásuk az életciklus végéig. Viszont képesek olyan dolgokra, amelyeket PC-n nem érhetsz el. Mint például a HRAA, ami megoldja az aliasing problémát 4K-s kijelzőn is. Bár ez attól függ, hogy ki mennyire koncentrál 4K-ra egy analitikai rendszerrel. Egyre több dolog mutat afelé, hogy a 4K lesz az új sztereó 3D. Ha nem terjed, akkor nincs értelme foglalkozni a kérdéssel.

    A 1080p 60 Hz VR-nél nem lehet probléma. De ez nagyrészt egy szoftveres kérdés.

    Elképzelhető egyébként, hogy pár játék 4K-s felbontást is kap. Az aktuális SDK nem enged 1080p-nél többet, de nyilván teoretikusan beépíthető a 4K, ha a Sony úgy gondolja, hogy szükséges.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #29 üzenetére

    Ha van egy nézőpontod, akkor abból számolsz egy geometriai vázat. Ha van egy másik nézőpontod, akkor abból számolsz egy másikat. Ezért jelent sebességfelezést a sztereó 3D, mert bár a szimuláció ugyanaz, de a kártya két képkockát számol lényegében a futószalag elejéről. A PS4 tud olyat, hogy a már kiszámolt geometriát egy másik nézőpontba továbbküldi, így a másik szem számára készülő képkockán a számítás a raszterizációs fázisig megspórolható. Ezek azok a dolgok, amelyek például megoldhatók lehetnének PC-n is, ha a Microsoft gondolna rájuk az API-k tervezésénél, bár az AMD-t ez már hidegen hagyja, majd adnak API-t a fejlesztőknek, amivel meg lehet oldani PC-n ezeket a trükköket.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #62 üzenetére

    Azok később jönnek képbe. Ez a geometry shader fázis előtt működik.

    (#63) Jack@l: Ezt a geometry shaderrel meg lehetett oldani korábban is, csak most megoldható geometry shader nélkül. Szerintem PC-n is elérhető lesz.

    (#64) Menthirist: A GNM API viewport multicastnak hívja.

    Általánosan a korábbi vitához. A PC-n természetesen lehetőség van, illetve lesz minden olyan dologra, amire a konzolok képesek. Ezért van a HSA és a Mantle. Előbbi nyílt iparági szabvány, tehát nem kell alternatív kód sem, míg utóbbi ugyanúgy fejleszthető, ahogy a konzolos API-k. Ha valami bekerül a GNM-be, akkor arra lehet reagálni egy tök ugyanolyan kiterjesztéssel a Mantle-ben. A PC gaming tehát sosem állt olyan jól, mint most. De konzolra akkor is jobban lehet optimalizálni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #66 üzenetére

    Nagyon leegyszerűsítve igen. De ez is igen kedvező, mivel lényegében pluszmunkától menti meg a rendszert, és nem változik az eredmény.

    Igen a GM204-ben is van ilyen lehetőség, csak nem használható ki az aktuális API-kban. Az NVAPI-ból kell bebűvészkedni, ami a fejlesztők számára nem valami kedvező alternatíva. A GCN-nek ez a képessége igazából igen régóta elérhető az AGSL-ben, csak ennek ugyanaz a gondja, mint az NVAPI-nak. Senki sem akar specifikus elérést, amit minden lapkára meg kell írni.

    Szerintem 2018-ig lesz elég. Utána már csak a nagyon mennek tovább, mert eszközszintre optimalizálva már tényleg jelentős beruházást igényel az extra teljesítmény.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák