Hirdetés

Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Egon #262 üzenetére

    A két mag/két szállal problémád lesz, mert a Pascal drivere helyből felzabál egy magot. Az NV az újabb meghajtókat már legalább négy szálra optimalizálja. A Fermi ebből azért nem érez semmit, mert nem kapja meg az újításokat, hanem csak vegetál a régi kóddal. Próbálj meg mellé procit is cserélni, ma már nem drága a négy szálas Pentium. Inkább vedd a Ti nélküli 1050-et, ha menedzselni kell a pénzt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #201 üzenetére

    Egy multiplatform címnél sokkal jobban számít a PC és a két konzol együtt, mint csak maga a PC. Tehát az optimalizálásnál is az számít, hogy egy gyártó részesedése milyen a PC és a két elterjedt konzol szintjén. A DICE esetében nem számít annyira, hogy legyen minden tökéletes Pascalon, ellenben fontos, hogy legyen minden tökéletes GCN-en. Ezért GCN-re írnak speciális shadereket és nem Pascalra. Utóbbira is írhatnának, mert például DX11-re van az NVAPI-ban Ballot, csak nincs akkora összesített részesedése egy multiplatform cím célgépein, hogy ezzel megérje foglalkozniuk. Majd a shader model 6-tal megéri, mert akkor mindenkit ki tudnak szabványosan szolgálni a Microsoft wave intrinsics specifikációjával.

    Ha a VGA-piaci részesedés számítana egy multiplatform címnél, akkor nem azt látnánk, hogy az AGS 4.0-t használják a fejlesztők. Pont ellenkezőleg. Az NVAPI-ban lévő kiterjesztésekre írnának speci shadert. Mert külön shadert írni eleve egy marha nagy nyűg, már csak az eltérő kódbázisok folyamatos karbantartása miatt is. Például itt, ha az AMD bejelenti, hogy valamit változtat, akkor arra durván hozni kell a patch-et, mert különben a kiadott alkalmazások nem fognak működni.
    Egyébként azt nem tartom kizárnak, hogy a DICE használt az NV-re is NVAPI kiterjesztéseket, csak a sok nyűg miatt kivették őket egy patchben. De ezért jön a shader model 6-ban a Ballot, hogy az egységesen oldja meg a problémát. Vagy aki már Vulkan API-t nyom, annak ez a gond egy szabványos SPIR-V Ballottal eleve meg van oldva.
    Szóval amíg a wave programozás szempontjából nem lesz egy kialakított szabvány, addig az AMD-féle specifikáció lesz az elterjedt, mert az a konzolos irányvonalat másolja. Innentől kezdve marhára mindegy, hogy mennyi Pascal jut egy GCN-re, mert a portolás szempontjából nagyságrendekkel egyszerűbb az AGS 4.0-t támogatni, mint az NVAPI-t.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #198 üzenetére

    Nem tudni, hogy miért volt gyorsabb. Talán sosem fog kiderülni. A BF1 esetében ezeknek a kutatását nehezíti az, hogy ha felraksz egy új frissítést, akkor minden olyan driverrel futtathatatlanná teszi a játékot, amely egy bizonyos idővel a frissítés előtt jelent meg. Tehát effektíve mindegy, hogy miért futott másképp egy januári konfiguráción, már nem lehet így futtatni a játékot. Ez a DICE-nak egy stratégiája arra, hogy a driverek folyamatosan optimalizálva legyenek az új programverzióihoz, mert az NV-nek és az AMD-nek mindig újra kell konfigurálni a korábban kiadott profilokat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #196 üzenetére

    Nem először látnánk olyan bugot, ami egy konfiguráción nem aktivál bizonyos effekteket. Ezért kell mindig a legutolsó program és driververziókhoz igazodni. A BF1 esetében ez ki sem védhető, mert az új patch-ek mindig a legújabb meghajtókat kérik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #194 üzenetére

    Mindig az a teszt számít, ami frissebb meghajtókkal és frissebb programverzióval készül, ez jellemzően a legutoljára készült. A korábbi meghajtókban és programverziókban lehetnek hibák.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #192 üzenetére

    Biztos úgy van. Azt nem tudom, hogy melyik patchtől kezdve, de a játék a GeometryFX csomag egy újabb optimalizálását használja, ami préselésnél readlane, ballot és mbcnt függvényeket használ. Egyedül az ordered count nincs átmentve az Xbox One shaderek közül, mert az AGS4.0 ezt a függvényt még nem kínálta fel PC-n.

    A számokra pedig annyit, hogy nem tudtam, hogy tipikus, hogy a Fury X verje FHD-ben és WQHD-ben az 1070-et. De nyilván akkor nem engem igazolnak a számok. A 480 eredményt sem látom elmaradva. Kb. 10%-kal gyorsabb az 1060-nál. Az 580-hoz képest a különbség az jó +150 MHz átlagos előny eredménye. A Sapphire hardvere úgy van tervezve, hogy szinte sosem lassul be a PowerTune órajelről. A 480-ról és úgy átlagban a 480-akról ez egyáltalán nem mondható el.

    (#191) gbors: Persze ezzel nincs is gond. Csak számításba kell venni az elemzéseknél, hogy más shadert futtatnak a GCN-es Radeonok. Másképp aligha tudná magabiztosan verni a Fury X az 1070-et. Ellenben gyorsabb shadert kap, így innen már egyszerűbb jobban teljesíteni. Ez viszont a Radeon GeForce elemzéseket torzítja, mert az AGS 4.0 nem tiltható le a játékban, tehát nem tudunk olyan mérést kérni, ahol a Radeon és a GeForce is ugyanazt a kódot futtatja. Más játékban ugye ez kb. még megoldható, mert visszateszünk egy AGS4.0 nélküli meghajtót, de a BF1 rögtön sikítani fog, hogy ez nem jó, és kell neki az új driver.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz namaste #189 üzenetére

    Nézd a teszteket attól a patch-től, amivel az AGS4.0 támogatást belerakták. A legújabb programverzióban már látszik az eltérő kód. [link] - másképp nem lenne a 980 Ti nyakán a quiet BIOS-os 580.

    (#188) b. : Ez nagyon függ attól, hogy milyen jelenetet mérsz. Bele kell futtatni a hardvert a limitációba.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #183 üzenetére

    Ez tök jó, csak azoknál a játékoknál, ahol pedig pont erősen számít a setup, például a Witcher 3, ott dulván meghal.

    (#184) gbors: Nyilván magában a jelenetben jelenik meg a limit, ami a szokatlanul alacsony minimumokat fogja okozni. Szerintem mindenkinek extrém, csak gondolom az NV egyetlen egy, amúgy jelentéktelen GPU-ért nem akart egy extra egységet tervezni. Szóval a két elérhető blokk közül kiválasztották a kisebbiket. Hát, nem nagyon van engedve a gyártóknak, hogy osztogassák az 1030-at. :DDD De nyilván ha beesik egy, akkor megteszteljük. Ha lesz egy RX 550, akkor valamelyik nagykertől kérünk egy GeForce-os társat.

    (#185) Raymond: A BF1 egészen speciális eset. Annak a GPU-drive pipeline-ja speciális kódot futtat, ha GCN-t érzékel, és szabványosat, ha nem GCN-es hardvert talál a gépben. Tehát mindenképpen számításba kell venni, hogy a Radeon már a játéktól is gyorsabb shadereket kap, mint egy GeForce. Emiatt a Frostbite legújabb verziójától ezek az összehasonlítások nem sokat érnek, mert már maga a shader is más AMD-n és NV-n. Persze ez még csak a BF1-et érinti, de a jövőben több EA játék is lesz, ami erre a motorverzióra épül.

    (#186) gbors: Nem annyival érzékenyebb a BF1. Egyszerűen a DICE ahhoz a Frostbite motorverzióhoz már használta az AGS4.0 kiterjesztéseit DX11 és DX12 API-ra. Ebben az a jó nekik, hogy szimplán jó az AMD-nek az Xbox One-ra írt optimalizálás, mert az AGS4.0 hozzáadja a PC-hez a Readlane, Ballot, MBCnt függvényeket.
    Az architektúrától függ, hogy kell-e tartani az 1:1 arányt. Az AMD-nek érdemes. Az NV-nek nem annyira. A Vega esetében már az AMD-nek sem annyira fontos.

    A kiterjesztésekre visszatérve, az összehasonlításnál ezeket a játékokat érdemes úgy kezelni, hogy az AMD gyorsabb shadereket futtathat: Battlefield 1, Deus Ex: Mankind Divided, Civilization 6, Sniper Elite 4, Resident Evil 7: Biohazard, Doom, Warhammer 40000: Dawn of War 3 és Sniper Ghost Warrior 3. Tehát az eredmények ugyan összehasonlíthatók, de figyelembe kell venni, hogy az AGS4.0 vagy a SPIR-V ext. nem kapcsolható ki, tehát ezek mindenképpen segítenek a GCN-es Radeonoknak, és mivel a GeForce-ok lassabb kódot futtathatnak rontják az összehasonlítás lehetőségét.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #181 üzenetére

    Elvileg eléggé az, mert 8-as verziójú blokkja erre az egységre nincs az NV-nek. Csak 4-es és 16-os (4-es a Tegra K1-es Pascalba és 16-os az összes GeForce-ba). Akkora gondot az átlagos teljesítményre az egész nem jelent, de a minimumhoz közeli teljesítmény többször katasztrófa lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    Végre van egy jó meg egy rossz hírem. Hivatalosan meg van tiltva, hogy a ROP-ról beszéljenek a GP108 kapcsán, ezért sincs sehol említve a specifikációban. Ugyanakkor a lapkában tényleg 16 blending van, és ennyi be is van kapcsolva a GT 1030-ra. Ez a jó hír, ki is javítottam az írásban. A rossz hír az, hogy hiába van ennyi blending egység, mert más helyen teljesen le van korlátozva. Egyrészt a sávszél problémás, de ami ennél is nagyobb baj, hogy a setup motorja a lapkának nagyon hurka, mivel azt a verziót kapta meg, amely órajelenként csak 4 pixelt dolgoz fel 16 helyett. Ez esetenként azt jelenti, hogy a kártya úgy viselkedik, mintha csak 4 blending lenne benne. Szóval az átlag 8 blendinges viselkedése van a gyakorlatban 16 blendinggel. Hát dióhéjban ez a helyzet. Ez az egész megmagyarázza a szintetikus teszteket is. Nem a blending teljesítmény korlátozza, hanem más lapkán belüli tényező.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #5 üzenetére

    Nem tudta átugrani az egyik OEM forrásnál a kártya a 10 gigapixel/s-ot. Ebből számoltam, hogy 1 ROP blokkja van.

    (#19) Sonja: A 750 Ti közelében sincs. Még a közvetlen konkurensnek kikiáltott Radeon RX 550-től is borzalmasan kikap.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák

Hirdetés