Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #205 üzenetére

    SMAA vs. 4xSSAA. Ennyi az oka csak a változásnak.

    A Vulkan miatt került vissza, de ahhoz, hogy Vulkant mérjünk vele később ott kell lennie a tesztgépen. Ezért van már most benne. Sokkal egyszerűbb egy tesztgépen tanyázó játékban egy kapcsolót módosítani, mint később telepíteni, konfigurálni, menténi, stb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #00137984 #296 üzenetére

    Ha lenne béta driver kiadták volna. De a SIGGRAPH-on az NGG path előnyeit mutató grafikonnál prototípusként jellemezték a 17.320-as drivert. Prototípus meghajtót nem adnak ki.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Resike #632 üzenetére

    Se HBAO+ nincs a BF1-ben, se VXAO, amit később írtál.

    A BF1 egy rendkívül régi HBAO verziót használ, amit a DICE módosítgat egy ideje. A HBAO+-ra nem fognak áttérni, mert DRM-et igényel, ahogy a VXAO is. DRM-et pedig nem építenek a Frostbite-ba csak pár effektért.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Resike #714 üzenetére

    Valószínűtlen, hogy az AO okozza az eltérést. Egyrészt a BF1-ben az érintett VGA-kon ez egy 0,5 ms-os effekt, tehát alig terhel. Másrészt egyáltalán nem néz ki úgy, mintha az AO lenne a gond. Inkább a felvevőprogramban van a hiba.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Resike #718 üzenetére

    Másba aligha lehet hiba. Már kiderült volna, de egyelőre senki sem panaszkodik eltérő képminőségre. A sebességkülönbségnek pedig van logikus magyarázata is. A BF1 nagyon fekszik a GCN-nek, hiszen tele van olyan specifikus optimalizálással a motor aktuális verziója, amelyek GeForce-on le se futnak. A különbség itt annyi, hogy a GeForce jóval lassabban vágja ki a nem látható háromszögeket, mert nincs olyan fordítója az NV-nek, ami tudja értelmezni az mbcnt függvényt. A Frostbite egy ilyen motor.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz awexco #806 üzenetére

    Az akkor jelent előnyt, ha PC-re ugyanazokat a shadereket rakják be. De ma HLSL 5.1 egy rakás függvényt fel sem ismerne a konzolra írt shaderekből. Ugyanez igaz a SPIR-V-re is.
    Vannak már kiterjesztései az AMD-nek, amelyekre át lehet rakni a konzolra írt shadert, de ezeket többen csak kevés shaderre használják. Viszont van ellenpélda is lásd a Doom esetében, ahol ID tulajdonképpen a PS4 PSSL shadereit konvertálja majd fordítja SPIR-V-re, és az így kapott nem szabványos kóddal eteti a Radeonokat. Ugyanez igaz a Battlefield 1-re, amely AMD-hez az Xbox One HLSL shadereit konvertálja és fordítja le, ami szintén nem szabványos PC-n.

    A Microsoft ezt a különbséget fogja kezelni az év végén a shader modell 6.0-val. Ergo lehetővé teszik, hogy mostantól a PC-re ne kelljen külön shadereket írni, hanem egyszerűen le lehessen fordítani az Xbox One shadereit, és ez legyen a szabványos alap minden hardveren. Ezzel együtt a régi shader modelleket nyugdíjba küldik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ren Hoek #809 üzenetére

    Semmi köze az absztrakció szintjéhez. Ez szimplán a programnyelv és az IR kérdése. A két konzol esetében a shader nyelv sokkal dinamikusabban fejlődött, míg PC-n tulajdonképpen ez évek óta stagnál. A SPIR-V egy jó kezdeményezés, de egyik konzol sem eszi meg. Viszont a HLSL 6-ot megeszi az Xbox One és a Fall Creators mellett meg fogja enni az összes DX12-es PC-s implementáció is, amelyhez biztosítottak DXIL támogatást (lényegében majdnem mindegyik DX12-es hardver, kivéve a legrégebbieket). Ezzel a lépéssel a Microsoft a PC-re is elérhetővé teszi az új shader nyelvét, amivel az Xbox One optimalizálásai áthozhatók direkten PC-re. A GPUOpen shader kiterjesztései is elvesztik a hasznukat emellett, maximum Vulkan API-ra lesznek jók. De ott is arra készül a Khronos, hogy az OpenCL-t beolvasztja, hogy OpenCL-ről is célozható legyen a SPIR-V grafikai verziója, és az is egy lényeges ugrás lesz az egységesítés felé.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz awexco #811 üzenetére

    Attól függ, hogy milyen függvényt használnak a shaderben. Az SM6 preview alapján viszonylag rosszul futnak NV-n és Intelen ezek az intrinsic függvények: WavePrefixSum, GlobalOrderedCountIncrement, WaveBallot. A többivel nincs igazából gond. A fenti három intrinsic függvény is csak azért fut rosszul, mert Xbox One-ra vannak tervezve, így az Intel és az NV nem tudja jól mappelni a hardverre. Az AMD csak szerencsés, hogy sok szempontból nagyon hasonló a hardverük az Xbox One-hoz, illetve a WavePrefixSum esetében az a mázlijuk, hogy a GCN3-tól kezdve dedikált utasításuk van rá.
    Hosszabb távon ez nem lehet gond, mert mivel a Microsoft elzárkózott az Intel és az NV javaslatai elől, így mindenki tudta, hogy az SM6-ban nagy változás nem lesz, tehát a fenti három függvényre is lehetett tervezni a 2018-as hardvereknél.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raysen623 #947 üzenetére

    A drivernek korlátozott mértékű jelentősége van a kihasználtságlimit kezelésében. Azt csak olyan hardveres megoldásokkal lehet javítani, mint a Vegában az LDS dinamikus particionálása, vagy a Voltában az L1 és az LDS összevonása. Hogy ez mit ér? Nézz meg egy Dirt 4-et olyan beállítással, ahol nem a sávszél a limit. [link] - Jó a Volta nincs benne, de az L1-LDS összevonásnak, egy megfelelő fordítóval kvázi ugyanez lesz hatása.

    Nem véletlen, hogy például a Frostbite Team is erre koncentrálja a kutatásait, mert ők is esnek bele a kihasználtságlimit problémáiba, amit nem nagyon tudnak kezelni a régebbi hardvereken. Amikor ezeket tervezték még nem volt tényező az az igénybevétel, amit ma elvétve már megkapnak, és ez az idő előrehaladtával rosszabb lesz. Szóval lehet, hogy a Vega és a Volta a nyers specifikációkban nem valami nagy dobás, de pont ott ahol számít, mindkettő egy erős lépés a jó irányba.

    Egyébként a Vega és a Volta távolról sem old meg minden problémát. A valós megoldások később jönnek. Ez a két rendszer csak időt nyer.
    Érdemes szemügyre venni ezt a tanulmányt, mert rengeteg aktuális problémát kezel, és kevés hardveres változást igényelne: [link]
    A Vega architektúrát elég lenne azzal kiegészíteni, hogy egy wavefront is módosíthassa a saját bázis- és méretregiszterét, és máris implementálható lenne a rendszer. A többi architektúránál azért sokkal nagyobb változásra lenne szükség, viszont egy prototípus kódot azért jó lenne látni egy létező hardveren, hogy megkezdődhessen a gyakorlati vizsgálata a tanulmánynak, és akkor van esély, hogy ez lehet az alapja a következő DirectX-nek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #955 üzenetére

    Nem ez a probléma. Látható most az Unreal Engine 4-en. Eddig Maxwell, majd Pascal hardveren fejlesztették, de most átváltanak Vegára. Viszont egyáltalán nem a konzolok miatt, vagy azért, mert az NV-vel nem akarnak partnerséget, hanem annyi az oka, hogy lényegesen rosszabbak a fejlesztési feltételek GeForce-on. Elképesztően sok teljesítmény marad benne a kódban, mert az NVIDIA NSight egyszerűen nem mutatja ki, hogy bugos a kód, ami egyre kritikusabb probléma, hiszen fél éven belül jön az explicit parallel RHI, amivel a default render is D3D12/Vulkan lesz. Emiatt a jövőben az UE4-et Renderdoc+Radeon GPU profilerrel fejlesztik. Utóbbival az a baj, hogy nem szimpla performance counteres profilozó, mint ami mondjuk van az NSightban, hanem hardveres nyomkövetést használ. Emiatt is tud sokkal több bugot kimutatni, viszont ahhoz, hogy ezeket kimutassa kellenek a hardverben elhelyezett nyomkövetők, vagyis muszáj GCN3/4/5-öt használni.

    Én nem akarom a fejlesztőket védeni, de sokszor nem rajtuk múlik. Ők is eszközökkel dolgoznak, és ha az adott eszköz, teszem azt profilozó nem mutatja, hogy a kódban vannak komoly hibák, akkor a fejlesztő elől is rejtve maradnak. Ezen a ponton pedig lényegesen romlik annak az esélye, hogy jól optimalizált programot kapj. És ez a teljes iparágat érinti, mert akármennyire fájdalmas dolog ez, de hardveres nyomkövetést alkalmazó GPU-s profilozó PC-n a nyár közepéig nem volt. Amelyik stúdiónak nincs pénze megfizetni a világ legjobbjait, hogy megfelelő eszköz nélkül ciklusonként átmenjenek a kód kritikus részein szimplán fejben, a dokumentációkat használva, az eleve hátrányból indul.

    A jobb portok is nagyrészt a fejlesztőeszközöktől függnek. El tudsz vágni te is egy falécet egy konyhakéssel, de fűrésszel hatékonyabb, és sokkal gyorsabb is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #958 üzenetére

    A játékipar nem toporog egy helyben. Most jön a shader model 6.0 az új Windows frissítéssel, ami megint egy komoly fejlesztés. Igaz, az egyik legfontosabb függvénycsoportot utólag kivették, mert az Intel és az NV azt mondta az MS-nek, hogy nem képesek támogatni még az érkező generációval sem. De opcionálisan elérhető lesz. De mindegy, ez igazából két függvény. Ennyi előnye maradt az Xbox One-nak, és ebbe a PC sem pusztul majd bele.

    Attól, hogy szerinted felesleges az Epic nem így gondolja. Már +10%-nál járnak sebességben és még messze a január. Valószínűleg +30-40%-kal végeznek.
    A konzolra írt kódot nem portolják vissza PC-re, mert az az NV-nek és az Intelnek nem jó. Sokkal kedvezőbb a PC-s kódot külön optimalizálni.

    Megfelelően támogatva volt a DX12 a hardverek tekintetében. Ha az összes fícsőr érdekel, akkor pedig már ott a Vega, ami támogat mindent az API-ból. SM6.0-ból is mindent támogat a GCN2/3/4/5. Az alapfunkciókat támogatja az NV Maxwell és Pascal is, illetve az Intel Gen9.
    A driverben csak shadereket cserélnek. Minden más változatlan. Nem muszáj telepítened az új meghajtókat.

    A multi-GPU egész kellemes a DX12-ben. Azért nem reklámozzák annyira, mert van pár gyártóspecifikus hiba a WDDM szabványos AFR kódjában. Eredetileg úgy volt, hogy a Creators ezt kiszűri, de az NV még mindig igényel módosításokat, mert akadozgat, de a Fall Creatorsban már jó. Az AMD már reklámozza ezt a módot, nekik már a Creators előtt is hibátlan volt: DX: MD és SE4. Sajnos a Microsoft túlságosan az AMD-re írta az alapimplementációt, amit végül alakítgatni kellett, hogy szuperül működjön NV-vel is. De végeredményben működni fog az év végére, így a CF-et és az SLI-t leváltja a szabványos AFR, és az előbbi linkekből láthatód, hogy egy extra GPU 100%-hoz közeli gyorsulást ér, ráadásul integrált frame pacing van. Ez egyértelműen haladás a mostani DX11-es skálázódáshoz képest.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #963 üzenetére

    Mit csináljak, ha a GCN támogat valamit, míg a többi nem? Nem én döntök erről. :N

    Egyébként egyetlen GCN sincs legacy státuszban. A shader model 6.0 elérhető lesz a GCN2-re is, de ez az alapján nem nagy meglepetés, hogy a Microsoft bevallottan erre az architektúrára tervezte. Egyébként meg örülhetünk annak, hogy sikerült egy egységes alapban megegyeznie a cégeknek, így lesz úgy 18 wave instrinsics függvény, amit az AMD, az Intel és az NV is támogat. Szerintem ez elsőre nem egy rossz lépés. Aztán ha valakinek kevés, mehet a kiterjesztés. Ebből a szempontból nagyon megengedő lesz a rendszer: [link]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Frawly #965 üzenetére

    A shader model 6.0 elsődlegesen azért jön, mert a konzol és a PC shader nyelve között oltárian nagyra nőtt az eltérés. A shader model 6.0 DXIL 1.0 által támogatott verziója, lényegében pár függvényt leszámítva megegyezik azzal a shader nyelvvel, amit az Xbox One használ. Tehát effektíve a Microsoft azt teszi lehetővé, hogy majdnem minden shader, amit konzolra írtak a fejlesztők, áthozhatók legyenek PC-re a teljes optimalizálással. Ilyen szempontból kifejezetten kedvező lesz a portolás. A mai állapotnál biztosan sokkal jobb, hiszen jelentős módosítások kellene a PC porthoz és ez nagyon rányomhatja a teljesítményre a bélyeget.

    Nagyon kedvező egyébként a továbbfejlesztés is. Már létezik DXIL 1.1 és 1.2 is, amelyekkel jön a shader modell 6.1 és 6.2. A 6.1 abból a szempontból lesz lényeges, hogy hozza a baricentrikus koordináták elérését, ami az Xbox One utolsó lényeges feature előnye a PC-vel szemben. A 6.1 már a Fall Creatorsban elérhető lesz tesztelésre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #967 üzenetére

    Mert technikailag nem az AFR-rel van a gond, hanem a driveres kényszerítéssel. A WDDM-be integrált szabványos AFR már nem egy kényszerített megoldás, hanem egy fejlesztő oldaláról direkten kérhető. Szabványosított a pufferkreálás, megválasztható a transzferek vezérlése, stb. Emiatt van az, hogy a WDDM szabványos AFR-jével a GPU-k duplázása konkrétan is dupláz a teljesítményen, miközben ugyanannak a játéknak a CF/SLI módja maximum +60-70%-ra képes. Egyszerűen sokkal jobban működtethető az új formában az AFR.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz s.bala31 #968 üzenetére

    Ha ezért vetted, akkor nem sokat nyertél. Egyrészt többféle UE leképező van. Az NV-n csak a deferred fut jobban, míg a mobil leképező az AMD-t szereti inkább. Az új tiled forward megoldásnak is inkább az AMD tetszik, bár ez nem annyira meglepő, mert ezt az AMD tette bele a motorba. Szóval NV-n akkor fog jobban futni az UE4, ha a deferred leképezőt használja.

    Inkább a Unity lesz a legtöbbet licencelt. Eddig is az volt, és nem igazán látszik, hogy megváltozna.

    A mostani profilozás nem arra szolgál, hogy egy gyártó jól járjon, hanem a teljesítményre vonatkozó bugokat akarják kigyomlálni. Az AMD-nek ez maximum csak abból a szempontból előny, hogy ha már így átmennek rajta, kiterjesztik az async compute használatát is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák