Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #11 üzenetére

    Ezért kell dokumentálni a hardverek működését, hogy ha valamit a fejlesztő nem tud, akkor felüti a dokumentációt és aszerint választ irányt.
    Jelen formában ez valóban probléma, már csak azért is, mert egy top fejlesztő ma így dolgozik: [link] - nem véletlenül írnak manapság ennek fontosságáról egyre több blogot az érintettek, hogy az NV és az Intel végre figyeljen, és hozza az új API-khoz szükséges eszközöket és doksikat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Bici

    félisten

    válasz #06658560 #11 üzenetére

    Van biztos infód arról, hogy mekkora munka Volkan/dx12 API-val tíz architektúrára fejleszteni, és ez több-e, mint háromra dx11 API-val?
    Én nem merném rámondani, hogy egyértelműen a dx12 + 10 architektúra a nagyobb munka, mégha a számokból egyértelműnek is tűnik.

    Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

  • sb

    veterán

    válasz #06658560 #11 üzenetére

    Akkor belefulladnak és bezárják a boltot.
    Amit leírsz az azt jelenti, hogy hatékony kód csak egységes hw-ra létezik = konzolok. ÉS ezzel le is zárhatjuk a PC gaming kérdéskört.

    A kerülőutak meg azok voltak amit láttunk/látunk még:
    1. DX szintű egységes magas szintű réteg: ebben nem lehetett hatékony, értsd: jól futó, hw-t kihasználó és bugmentes, debugolható - tehát egyszóval rendes, használható kódot írni.
    2. A low level meg majd amiatt vérzik el amit írsz: a fragmentáció plussz költségei.

    Ha ez a két út nem működik akkor csak a konzol marad.

    De ez nem véletlenül régi kérdés. Mindig a kisebb ellenállás (költség) irányába fejlődnek. Eddig a buta sw + olcsón fejlesztett hw volt az olcsóbb út. De ez megrekedt. GPU-nál is, plussz van amit a hw sem old meg (lásd DX11 cpu overhead). Meg amúgy CPU-nál is, de az más témakör.
    Szóval szerintem ez nem új kérdés, ősidők óta ez megy. Most olcsóbb lesz 10 felé optimalizálni +20 féle új hw helyett, ami alig hoz előrelépést. És mivel nem hoz fejlődést így nem is fog +20 féle jönni vélhetően, hogy 30 felé kelljen optimalizálni. GCN is mióta reszelődik. NV meg featurre csak visszafelé fejleszt kb. + átnevezések évek óta.Szóval van azért esély, hogy szépen átrendeződjenek a források is hw+driver oldalról sw felé.

  • Bici

    félisten

    válasz #06658560 #21 üzenetére

    A kérdésed jogos és logikus. Ennek ellenére nem hiszem, hogy reálisan, számok alapján össze lehet hasonlítani a rengeteg plusz fejlesztést a rengeteg szopással. Nem azonos a mértékegységük. :)

    Nyilván a nagyobb stúdiók fognak ráugrani először az alacsony szintű API-ra, akiknek van rá erőforrásuk.
    Akik nem tudnak vagy nem akarnak ezzel foglalkozni, azok számára továbbra is nyitott a kapu a dx11.x irányába. Tudtommal emiatt született a dx11.3 is.
    Vagyis van választási lehetőség.

    [ Szerkesztve ]

    Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

  • Bici

    félisten

    válasz #06658560 #23 üzenetére

    Mivel anyagi érdekük fűződik hozzá, így azt látom logikusnak, hogy az eddiginél jobb minőséget fognak felmutatni. Eddig lehetett fogni az API-ra és a gyártókra. Most már csak rajtuk múlik.

    Egyébként a kiadók szervezhetnek olyat is, hogy több ajáluk tratozó stúdió között felosztják a fejlesztést, és közösen dobnak össze egy grafikai motort.

    Én is olyan helyen dolgozom, ahol a minőség helyett sokkal fontosabbnak tarja az amcsi fél a mennyiséget és az új fícsöröket. Mégis sokkal jobb eredményt értünk el minőség terén azonos idő alatt, amikor egyszer az összes felhasznált 3rd party könyvtár helyett írtunk egy saját könyvtár csomagot C++-ban.
    Eleinte sok volt a bug, de mire release-eltük az első ilyen verziót már látszott a nagyobb hatékonyság, mert az utolsó pillanatban kért változtatásokat napok, néha órák alatt be tudtuk építeni, amiket addig halálos hack-ekkel tudtunk csak megoldani, és sokkal többet is kellett tezstelni, mert nem tudtuk, hogy a sok átláthatatlan komponens hogy reagál a változásra.

    Egyébként erős a gyanúm, hogy az alacsony szintű nyelveken írt játékmotorokat sokkal jobban lehet unit tesztelni, mint a dx11 progikat.

    [ Szerkesztve ]

    Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html

  • kisfurko

    senior tag

    válasz #06658560 #23 üzenetére

    De ez miért zavar téged? Legrosszabb esetben marad minden úgy, mint eddig. Remélhetőleg nem.
    Neked is ajánlom a doksi megtekintését. Ez nem valami egészen más, mint ami eddig volt, hanem nagyobb szabadság a programozásban. Nagyobb kontroll az erőforrások és a parancskiadás felett.

  • sb

    veterán

    válasz #06658560 #21 üzenetére

    Amit leírtam az okozhatja:
    Csíkszélesség csökkentés már nem nagyon hoz előrelépést. Vagy k* drágán.
    Tulajdonképpen várni sem kell, ez már létező dolog. Nézd meg hány cpu, vga jött ki 10 éve és mennyi az utóbbi 5 évben. Hányat neveztek át vagy hánynál volt kis architektúra finomítás csak.

    Nem nagyon tudnak értelmes teljesítménytöbbletet kihozni hw szinten. Akkor miért tennének bele csillió pénzt?

    És - bár ugye nem azonos vállalat - de a játékfejlesztői megnövekedett fejlesztési költség is visszaüthet. Lásd Mantle/Vulkan demok. Ha X pénzből lóf*sz se jön ki teljesítményben új hw-ben, de egy kis plussz fejlesztéssel 2-3x kihasználtsággal gyakorlatilag 2-3x sebességre kapcsol a jelenlegi hw akkor érdemesebb oda támogatást tolni. Hogy mondjuk legyen kedv (pénz) a másik 10 vga-ra is optimalizálni kicsit.

Új hozzászólás Aktív témák