Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    itt látszik, hogy nem igazán memory leak-ről van szó. Szvsz talán nem is a memóriavezérlővel van baj, hanem a memória partíciók kezelésével.
    A mai grafikus programok futtatásához jóval több memória kell már elméletben, mint ami jelenleg a legtöbb GPU-n megtalálható (256MB, 512MB, 1GB). Ergo a VGA RAM-ban a lapok tulajdonképpen folyamatosan cserélve vannak. Amikor egy GPU teljesítménye a felbontás növelésével egyszerűen töredékére esik (most itt ne ezeket a fent linkelt példákat nézzétek az csak összezavar, gondoljatok általánosan a problémára) akkor az nem azért van, mert a képkocka számításához szükséges információk nem férnek el a memóriában, hanem azért, mert a képkockaszámítás közben szükség van egy olyan lap tartalmára ami éppen nem található meg a Video memóriában. Ilyenkor jön a szokásos lapcsere, majd megjön a szükséges lap a virtuális memóriából, és folytatódhat a munka.
    A Radeon és a GeForce ebből a szempontból komoly különbségeket mutat fel, nem tudom miért nem fekszik ki a 512MB-os Radeon amikor az 512MB-os GF már a padlón van. Ha jól vettem észre a probléma legtöbbszőr olyan programokon jön elő ami Deferred renderelést végez, így több Render Target-et kell tárolni. Valószínűleg a Radeon memóriavezérlése jobban jósolja meg, hogy melyik lap kerüljön ki a memóriából, melyik lapra nem lesz feltételezhetően szükség, amikor a Render Target-et el kell tárolni. A GF gondolom sokszor rosszul dönt, így olyan adatok is kikerülnek amik szükségesek a képkocka következő számításához, így jöhet megint a lapcsere és ez így megy végig.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Vikipizsama #36 üzenetére

    Kb. 200GFLOPS a 9600GT számítási teljesítménye. Ezért nem időtálló. A HD3850 400GFLOPS-ot tud. A jövőben remélhetőleg minden Shaderekkel lesz számolva, a DX10.1 már lehetőséget ad magas kompatibilítású és nagy sebességű Shader alapú élsímításra, bevezeti a LOD utasításokat amivel egyéni szűréseket lehet létrehozni. Ezek az új elvek sokkal gyorsabb feldolgozást tesznek lehetővé, ezért kell ide a shader erő.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz [CS]Blade2 #42 üzenetére

    Az Assassin's Creed már kínál gyors élsímítást DX10.1-es rendszerekhez. (csak 5-8%-os deficit van maximális mintavétel mellett)
    Az egyéni szűrések nem tudom mikor jönnek, de valamelyik SIGGRAPH bemutatón már utaltak rá, hogy a következő PC-s Battlefield használ LOD utasításokat a nagy sebességű Parallax Occlusion Mapping-hoz.
    Az a jó ezekben a fícsőrökben, hogy nem csak a látványt hanem a sebességet is megdobják, így ha elkezdik használni a DX10.1 újdonságait az ezt támogató karik faintosul begyorsulnak. Helyenként nagyon durván.
    Szerinted miért robotol az nVidia a régi és elavult eljárások használata mellett? Tudják a drágáim, hogy a Radeonok felépítése túl jó az újgenerációs technikákhoz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Komplikato #60 üzenetére

    Rosszul tudjátok. :DD Nem csak +25MHz a különbség a két kari közt. A 9800GTX-ben már engedélyezték a hardveres 3Dc támogatást. :DDD

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #65 üzenetére

    Tudom, hogy marha kicsi az esélye, de nem lehetetlen...
    Jobb ötletem, így a konkrét felépítési jegyzetek ismerete nélkül nincs.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák