Hirdetés

Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz BullKoxa #509 üzenetére

    Nem kell venni keretprogramot, ha az adott játék natív 3D-s. Manapság egyre több az ilyen.
    A TriDef pedig ennél a monitornál mindenképpen kelleni fog akkor, ha nem natív 3D-s a program. És nem csak a Radeonra, hanem a GeForce-ra is, vagy esetleg Intelre. Ez a monitor nem működik 3D Visionnel, így az NVIDIA nem támogatja a 3D Vision keretprogrammal.

    (#510) Löncsi: Mert az NV-nek a 3D Vision matrica után fizet a monitorgyártó. Minden eladott monitorból részesülnek. A Samsung és az LG ezért mutatott be nekik. A Samsung mondta, hogy ha ingyenes lenne, akkor támogatnák, de pénzt többet nem adnak az NV-nek. Ez akkor került elő, amikor a Samsung kihozta az SA950 monitorokat. Ezek baromira jó minőségű sztereó 3D-t kínáltak, de amikor az emberek megvették, akkor borult a bili, hogy nem működik vele a 3D Vision szemcsi és az NV sem támogatja.

  • Abu85

    HÁZIGAZDA

    válasz BullKoxa #506 üzenetére

    Mivel kapsz hozzá szemüveget, így mindegy, hogy Radeon vagy GeForce. Ez az ASUS monitor gyártófüggetlen megoldás. De a 3D Visiont nem támogatja. Gondolom ők is térnek át az open megoldásokra és hagyják a zártakat.
    Azt viszont nem látom, hogy az ASUS ad-e hozzá keretprogramot, szóval a natív 3D-s játékok és programok fognak menni, és kell egy TriDef a többihez.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #504 üzenetére

    Hányszor mondjam el, hogy nem kell. A LG ad és a Samsung is a legtöbb terméket csomagként jellemzi (kivéve a régi 3D Visionost), vagyis ők is adnak! Benne van a monitor árában. De a legtöbb monitorgyártó ezzel manapság már így van, mert ha független 3D-t csinálnak, akkor a user nem tudja, hogy mit kell vennie még, tehát érdemes felrakni a keretprogramot a CD-re, mert az leegyszerűsíti a felhasználó életét. Régen volt olyan, hogy semmit sem adtak, és neked kellett bevásárolnod. Ma már csomagok vannak. Megveszed, hazaviszed és minden szükséges dolog benne van, ami kell a sztereó 3D-hez. Ez a gyártóknak is könnyebb, mert nem azzal terhelődik az ügyfélszolgálat, hogy most megvettem és nem látok semmit.
    A 3D Vision esetében van úgy, hogy a monitorhoz esetleg még venni kell egy szemüveget is, de manapság már ott is terjed a csomag, mert ez egyszerűbb mindenkinek.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #502 üzenetére

    Már hogy a fenébe ne kellene venned. Az NV ingyen adja a szemüveget? Nem. A 240 fontos szemüveg pedig túlzás. 100 font alatt is vannak aktív megoldások, és a Samsung elég nagy név, szóval a monitoraikkal biztos kompatibilis. És a 120 Hz is megvan. De amúgy az sem kizárt, hogy a Samsung ad kettőt a monitorjaihoz csomagban.
    A 3D Vision megoldásnál csak olcsóbb konfigurációkat lehet venni. Ez abból ered, hogy az NV sarcát nem kell fizetni, ha nem kompatibilis a 3D Visionnel.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #500 üzenetére

    A Samsung aktívot, míg az LG passzívot ad támogatással. Pont azért választotta így az AMD őket partnernek, mert ők kétféleképpen látják a jövőt, vagyis az igények szempontjából lefedik a piacot. Az LG azért megy a passzív felé, mert a felméréseik szerint sokan nem akarnak fejfájást az aktív villogásától, így inkább a passzívot választják. Igazából mindkettőnek megvannak a pozitív és negatív oldalai is, de a passzívnak az tényleg nagy előnye, hogy attól nem lesz fejfájásuk az embereknek. A hányinger persze előfordulhat, hiszen az nem az alkalmazott technikától függ, a szemfáradás pedig az szemizmok túlzott mederöltetése, ami a képalkotásból ered.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #497 üzenetére

    Nem érted hogy működik. Az AMD az elsődlegesen LG-t és a Samsungot támogatja a sztereó 3D-ben. Ha veszel tőlük valamilyen monitort, akkor abban lesz egy-két szemüveg (az LG többet csomagol jellemzően) és keretprogram is (az LG biztos adja, mert írják, de szerintem a Samsung is, mert csomagként jellemzik). Az NV-nél 3D Vision Ready monitor kell (ők az Acerrel és az ASUS-szal partnerkednek) és hozzá megveszed az extra szemüveget, vagy esetleg ha van csomagban ilyen és akkor kifizeted a monitor mellett a szemüveget. Az AMD-nél az LG/Samsung jóval olcsóbban jön ki egyébként. Persze az NV-hez is veheted az LG/Samsung megoldását, és akkor ugyanolyan olcsón kijön, csak nem fog működni a 3D Vision.
    Ugyanígy a játékoknál. Ha a fejlesztő nem fizet az NV-nek a 3D Visionért, akkor nem kapják meg a certifikációt. Ez régen gond volt, mert jöttek azok a játékok, amibe az AMD natív támogatást épített. A Deus Ex: HR volt a fordulópont, mert aki vett egy 3D Vision kitet egyszerűen nem tudott a játékon játszani sztereó 3D-ben, mert a fejlesztők nem fizették ki a 3D Vision licencet az NV-nek. Azóta a driver engedi azokat a játékokat is, ahol a fejlesztők nem fizettek, de egyik sem certifikált. A Win 8 ezeket a gondokat oldja meg. Az az SDK minden hardvert és szoftverkörnyezetet támogat, így nem kell választani, hogy az AMD ingyenes, vagy az NV fizetősét válasszák a fejlesztők. Lesz egy egységes ingyenes. Ugyanígy a monitorgyártóknak is egyszerűbb lesz, mert az MS a natív támogatás híve. Egyszerűen nem kell fizetni semmit az MS-nek a támogatásért. Szépen mindenki át fog állni erre, nem csak az LG és a Samsung.
    Az NV ezt a zárt 3D Vision dolgot már ott elbukta, hogy az LG-t és a Samsungot elvitte az AMD saját partnernek a gyártófüggetlen sztereó 3D felé. Ők a monitorpiac urai az Acer és az ASUS csak másodhegedűsök. Szóval ez az egész az LG és a Samsung kihátrálásával már csak pénznyelő.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #495 üzenetére

    Pontosan ugyanúgy meg kell vásárolni a 3D-t az NV-nél ahogy az AMD-nél is. Az NV-nél a driverbe épített keretprogramot a szemüveg megvásárlásával fizeted ki. Az AMD-nél használhatod azt a szemüveget, amit a monitorhoz adnak, de vásárolnod kell keretprogramot. Illetve az LG és Samsung monitorok ma már nem támogatják az NV 3D Visiont, így tulajdonképpen NV-n is csak keretprogrammal vagy képes használni a kijelzőt. Persze ilyenkor használható a kijelzőhöz adott szemüveg, ahogy az AMD-nél.
    Az NV a 3D Visiont annyira lezárta, hogy a két legnagyobb monitorgyártó nem fizeti a licenceket az NV-nek, így támogatást sem kapnak. Úgyis jön az MS saját SDK-ja, ami szabványos lesz, arra készül már mindenki. Az a programokba natív 3D-t rak, vagyis a nem kell keretprogram, csak egy sztereó 3D-s monitor és a hozzá csomagolt szemüveg.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #492 üzenetére

    Nem. A 3D Visiont nem is jelzik. [link] - A fejlesztők beépített keretprogramon támogatják a sztereó 3D-t. Az AMD QuadBuffer SDK-jával csinálták. Az NV a Deus Ex után meggondolta magát és még sem kér pénzt a fejlesztőktől a 3D Vision licencért. Ugyanis az AMD ingyen kínálja a támogatást. Ezért tudják már az AMD QuadBuffer SDK-jával készült játékokat is sztereó 3D-ben futtatni. De a 3D Vision Ready certifikáció még mindig pénzbe kerül a fejlesztőknek. Ezért nincs a geforce.com-on 3D Visionnek jelezve a játék. Nyilván később ez az egész értelmét veszti, mert jön a Win 8-ban az MS saját sztereó 3D SDK-ja, szóval ezek a megcsapoljuk a fejlesztőket akciók eltűnnek majd. Természetes, hogy a fejlesztő a mindenki által támogatott MS SDK-t használják majd.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #490 üzenetére

    Nem. Az Intel és az NV egy árva kódot nem tett hozzá. Egyszerűen csak vásároltak egy logót a weboldalra. Ezt maguk a fejlesztők mondták nekem. A játékon csak az AMD emberei dolgoztak, senki mástól nem kaptak segítséget, de amikor látták, hogy milyen jó lett, akkor részt akartak venni a reklámkampányban.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #488 üzenetére

    Az NVIDIA kérte, hogy rakjuk be. Mivel jó játék, és lényegében a DX11 patch elég sok kezdeti gondot orvosolt, illetve UE3-as játékunk más nem volt, így beraktuk.
    A minimum fps-eket tudjuk. Igen van a benchmarknak egy ilyen gondja, de az a lényeg, hogy kétszer-háromszor futtasd le és jó lesz az érték. Ez egy ismert és fejlesztők által elismert gond. Túl hosszú ideig pedig a bench nem tart, így lefuttatjuk kétszer és a másodikat nézzük.

    A DX11 az gyakorlatilag a patch után kimerül a tesszellációban és a szebb árnyékokban. Utóbbi nem nagy terhelés. Előbbi az, de ez is DX11 fícsőr. Az NVIDIA a jövőben úgysem használja majd nagyon másra a DX11-et, mert komolyabb compute shaderben lassú a Kepler, és eközben a GCN meg rohadt gyors benne.
    Használhatnánk persze más UE3-as játékot is a Batman: AC helyett, de az meg a Blacklight Retribution lenne. Azzal jóval nehezebb mérni, de megoldható, viszont az megint egy Gaming Evolved cím. Az tény, hogy az AMD kétszer annyi DX11-es játékot támogat, mint az NVIDIA, ami nyilván látszik a tesztben is, de minden motorból nem rakhatunk be Gaming Evolved játékot. Most 3 TWIMTBP, 5 GE és egy független játékot használunk. Ez nagyjából tükrözi, hogy milyen arányban vannak DX10/10.1/11-es TWIMTBP és GE játékot a piacon. Illetve az egy független a függetlenek miatt. A függetlenek arányát ez az egy nem tükrözi, de azért illik képviseltetni őket, hogy lássák nem csak partnerprogramban létezik DX11-es munka. Persze az Ubisoftnak bazinagy tőkével könnyű függetleníteni magát. A játékok is úgy vannak válogatva, hogy minden komolyabb motorból legyen egy képviseltetve.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #483 üzenetére

    A DX11-et két hónap alatt dobták össze az NVIDIA kérésére. Szerintem világos, hogy ennyi idő alatt nem lehet normális kódot alkotni. A patch le is lőtt pár funkciót, mint a többszálú parancsfeldolgozás, amitől meg is lódult a sebesség.
    Az NV szerint is többször kell mérni, és a legmagasabb minimumú számít. Ez egy ilyen program lett.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #441 üzenetére

    Ha sok a capture point, akkor azt a tempó meg fogja érezni. Szóval ezzel is le lehet dönteni a VGA-kat a vállukról. De meggyőződésem, hogy a konzolok miatt választották ezt a megoldást, így valszeg nem lesz annyi capture point. A G80/GT200-at viszont kivégezheti a geometry shader, de szerintem ezt már nem tekintik problémának.
    A DiRT Showdownban azért lassabb a GI, mert 1000+ virtuális pontfényforrással számol. Ennyi fényforrással a cube map tömbös megoldás jóval lassabb lenne.

    (#442) tombar: A Tegra az NVIDIA jövője. Minden más mellékes mellette.
    Az AMD-nek már van tabletplatformja. A Z-01-es APU, de nyilván lesz újabb.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #439 üzenetére

    GHz Edition már van 7970-ből. Az lesz nemsokára. A 690-et nem tudom. Ha kapunk teszteljük, de igazából ezek az 1000 dolláros termékek túlmennek az ember ingerküszöbén. A kisebb piacokra alig hoznak, így mi sem vagyunk a GTX 690 fókuszában.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #437 üzenetére

    A capture pointok számától függ, mert az adatokat ki kell írni a memóriába. Itt lehet előnye a Tahitinek a 384 bites busz miatt, de csak akkor, ha nagyon sok a capture point. Olyan sokat viszont azért nem érdemes használni, mert sok lesz a memória terhelése, ami nem kedvező. A GI persze skálázható, de nem ideális skálázni. Inkább egy szintre be kell lőni, és azt jól kitesztelni.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #435 üzenetére

    A cube map tömbök szempontjából nem sok.
    A Kepler alapvetően tud számolni, csak ha komplex a kód, akkor az nem ízlik neki. Minél komplexebb, annál kellemetlenebbül érzi magát.
    A GCN abból a szempontból más, hogy ha komplex a kód, akkor azon kívül, hogy többet kell számolni nem hatja meg.
    Az eddigi legnagyobb teher a GPU-knak játékokban a forward+ lighting, és szerintem ennél nagyobb teher nem is lesz.
    A Tahiti és a GK104 helyzete ilyesmi:
    DiRT Showdown: Advanced lighting nélkül - forward+ lighting - extra VPL-GI
    HD 7970: 65 - 58 - 45 fps
    GTX 680: 64 - 44 - 34 fps
    Látható, hogy arányaiban a forward+ lighting, amitől a Kepler sokat esik. A GI az nagyon terhel, de arányaiban annyira nincs akkora különbség a két architektúra között. Ezért sem értem az NV-t, hogy miért ezzel van a bajuk. Nem itt esik össze a Kepler, hanem a forward+ lightingnál.

  • Abu85

    HÁZIGAZDA

    válasz tombar #433 üzenetére

    Az nyilván meg volt előre beszélve, hogy a Keplert inkább a Tegrába tervezik, mint normális Fermi utódnak. Ez biztos, hogy vezetőségi döntés volt, hiszen látták, hogy az ultramobilpiac nő, míg a VGA-piac csökken. Ezeket az irányokat természetesen a vezetőség jelöli ki, illetve vannak a cégen belül emberek erre. A szoftveres támogatásról nem igazán a vezetőség dönt. Ők az anyagiakat biztosítják ehhez, amiből majd gazdálkodhat a partnerprogram. Nyilván persze le van adva, hogy melyik piac a fókusz, tehát világos, hogy ma jóval több pénz megy a Tegra támogatására. Az NVIDIA ezen a piacon jóval keményebb, mint a PC-n. THD jelzésű játékokat hoznak, amelyek feltételes elágazással kapcsolják be Tegra 3-on az extra effekteket. A régebbi Tegra és a többi OpenGL ES 2.0-s IGP is képes lenne a jobb grafikára, de az NV egy csomó pénzt adott a fejlesztőknek, hogy ne legyenek azok. Erre van a Chainfire3D, ami elhiteti a THD-s programmal, hogy márpedig a termékedben Tegra van. :)
    Ide megy most a TWIMTBP programból a legtöbb pénz, mert ez konkrétan kizárás, szóval ezt be kell fizetni.

  • Abu85

    HÁZIGAZDA

    válasz csako #430 üzenetére

    Te is látod, hogy eltérőek a játékok. Nekünk pont jól jött ki, mert a régi játékokat lecseréltük újakra. Lehet, hogy másnak nem volt régebbről több eredménye, így maradt a régi játékoknál.

    (#429) tombar: Szerintem ennek a vezetőséghez sok köze nincs. Az maximum a pénzt adja a részlegeknek.

  • Abu85

    HÁZIGAZDA

    válasz tombar #426 üzenetére

    DiRT Showdown jóval gyengébben nézne ki forward+ lighting és VPL-GI nélkül. Szóval ez egyszerű kérdés volt a fejlesztők számára. Sokat javít a grafikán, így mehet bele. Azért az EGO motor még mindig forward render, ott azért finoman kellett bánni régebben a pontfényforrások számával. A forward+ lighting erre a megoldás.
    A Sleeping Dogs az inkább amolyan AVP/Nexuiz képet fest. Ott is elég erős a GCN, de nem DiRT Showdown arányokkal. Ebben a játékban főleg az AA ami terhelő. Az több post process átnyom a képen, mire kész lesz.
    A Hitman: Absolution az deferred render. Oda max fortard+ tack on mehet OIT-vel. Az mondjuk előnyös az átlátszó felületekre nézve. EGO-féle Forward+ lighting biztos nem lesz
    Az Aliens: Colonial Marines az UE3. Az alapvetően forward render deferred shadows résszel, szóval oda lehet forward+ lightingot rakni, ahogy a szintén UE3-as Bioshock Infinity esetében is lehetséges.
    Az AMD szokta mondani, hogy mindig a legújabb driverrel és a legújabb CAP-pal teszteljünk. Ezt mindig kihangsúlyozzák. Azt viszont nem szokta mondani, hogy mivel ne teszteljünk. De azt jelzik, ha valami driverhiba miatt nem ment jól. Például most a Batman AC-nél írták, hogy a 11.7b+CAP az jó, mert korábban egy hiba miatt nem volt jó a sebesség. De ez normális, hogy felhívják ezekre a figyelmet. Ezt az NV is meg szokta tenni. Azért világos, hogy nem mindenki tud odafigyelni, hogy mi melyik patch-csel hogyan változott.

    Ki lehet adni egy patch-et a BF3-hoz, de nem hiszen, hogy van értelme. Egyébként HDAO helyett lett HBAO és az élsimításnál a deferred MSAA+FXAA lett, a korábban tervezett SRAA-val irányított DirectCompute MLAA, deferred MSAA és TrSSAA helyett. (valószínű, hogy utóbbinak inkább a sávszélhiány adta meg a kegyelemdöfést)
    A DICE fő partnerprogramja a GE. Ez évek óta így van minden Battlefieldre. Az NV-nek az EA-vel van szerződése.
    Nem a teljesítményigény itt a döntő, hanem a komplexitás. Ha nem komplex a kód, akkor az jó a Keplernek és a GCN-nek is, de a GCN igazán komplex kódnál tudja megmutatni, hogy mit tud. Például nemrég kikerült a SI ISA dokumentáció. Ez alapján a GCN a feltételes elágazást úgy kezeli, mint egy központi processzor. Ez volt eddig a GPU-k gondja, hogy az elágazásoknál hanyatt vágták magukat, de a GCN már nem teszi.

  • Abu85

    HÁZIGAZDA

    válasz Sondi1986 #425 üzenetére

    A szemétkedések ártanak az iparnak, a fejlesztőknek és a játékosoknak. Azért sikeresebb ma a GE mint a TWIMTBP. De utóbbi partnerprogram is jóval finomabb már. Tudják, hogy maguk alatt vágják a fát a kizárásokkal. Annyi jó TWIMTBP játék volt régen, de ma lehet látni, hogy GE-ből több van. A fejlesztők hátat fordítanak, ha nem a játékosok érdekeit nézi a partnerprogram. Ma már főleg arról szól az egész, hogy ez meg ez van, mit szeretnél belerakni. Azt jellemzően nem kérik már, hogy a vendor ID ellenőrzésével zárj ki pár effektet a konkurenciánál. Az, hogy xy effektet belerakatnak a játékba az normális. A Batman AC is TWIMTBP és mégis jobban fut AMD-n. Szóval ezek ma már nem meglepők.

  • Abu85

    HÁZIGAZDA

    válasz Sondi1986 #423 üzenetére

    A Battlefield 3 az Gaming Evolved játék. Az NV csak reklámszerződést kötött az EA-vel.
    Azért ilyen jó benne az NV, mert a DICE szerzett leghamarabb tudomást arról, hogy a Kepler a Ferminél is gyengébb lesz komplex compute shader kódokban, és csökken a shared memory teljesítmény. Mivel senki sem tudta tesztelni a hardvert az elmúlt év őszén, így a DICE biztonságra játszott, és minden olyan effektet kivettek, vagy lecseréltek a játékban, mely LDS-t használt. Így a Battlefield 3 már csak a deferrend render gyorsításához használ compute shadert. Ez egy kellemetlen helyzet volt mindenkinek, mert a DICE arra a shared memory tempóra tervezett, amelyre a legyengébb DX11-es VGA-k, vagy IGP-k voltak képesek. Nyilván logikus volt azt gondolni, hogy a GCN és a Kepler is erősödni fog. A GCN erősödött is, de a Kepler gyengült ezen a területen, így gyakorlati tapasztalat nélkül muszáj volt kikímélni a játékot. Most már van Kepler, így lehet tesztelni, hogy mennyit bír ... amikor kész lett a BF3, akkor erre nem volt lehetőség.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #357 üzenetére

    Az FC3 GI algoritmusa egy 8 éves alapra épül, így alapvetően másképp működik. A geometry shadert fogja terheli. Ennek a modernizálását is az AMD (pontosabban az akkor még nekik dolgozó Emil Persson) dolgozta ki az R600-hoz, de azóta az AMD már továbblépet a jobb minőséget adó, és hatékonyabban működő algoritmusok felé.
    Ebben a videóban beszélnek arról, hogy a cube map tömbös GI hogyan működik (2:30 körül). [link] - ezt kapja meg az FC3
    A DiRT Showdown és a Ghost Recon Future Soldier VPL-alapú GI-t használ (igaz eltérő mennyiségű fényforrással, illetve pár alapvető különbséggel, ami a renderből ered). A DiRT Showdownban használt rendszer működéséről ez a videó árulkodik (1:40 körül): [link]

  • Abu85

    HÁZIGAZDA

    válasz tombar #352 üzenetére

    A compute shaderből is csak a komplex a gond. Igazából az egyszerűbb compute shaderekkel nincs baja a Keplernek. De ez nem változtatható meg. Erre hardver kell. Nyilván az NV-nek az a szerencséje, hogy komplex compute shadert írni nehéz, mert a mai fejlesztőeszközök nem elég jók ehhez, ezért is az AMD adja a compute shader effekteket az adott játékba, mert nekik megvan az idejük és a pénzük, hogy eltököljenek egy-egy megoldással akár egy évet is, és ugye kézzel optimalizálják (a fejlesztő csak a végeredményt kapja meg, beépíti és örülnek). A DX11.1 shader trace toolja ezt jelentősen megkönnyíti, így a fejlesztők jóval egyszerűbben írhatnak komplex kódokat. Tulajdonképpen ez egy elég nagy fícsőr az új API-ban. Szerintem még ez egyszerűbb shaderek fejlesztését is megkönnyíti, bár azokon azért annyira nem fájdalmas a debugolás. Viszonylag jól követhető lehet a működés.
    Az AMD semmi lényegesen nem csinált az Arkham City-vel, csak javítottak egy egyszerű hibát a driverben, ami pont hozott egy bazinagy boostot Batman alatt. Ez igazából mák volt. Persze lehet, hogy a hibára akkor leltek rá, amikor profilozták a játék futását. Nyilván nekik is feltűnhetett, hogy más játékban nem esik ennyit a sebességük MSAA mellett, mint a Barmanben. Ezekre érdemes ránézni, mert ez potenciális hibára utal.

  • Abu85

    HÁZIGAZDA

    válasz Artyy #344 üzenetére

    A teszt az eredményeket tartalmaz, semmi mást. Nem azért esik a Kepler teljesítménye, mert magas a felbontás, vagy a részletesség, márciusban is így mértünk (ezekkel a felbontási szintekkel és 8xAA-val ahol lehetett), és akkor jobb volt a GTX 680, mint a HD 7970. Ma a különbség annyi, hogy az új DX11-es játékok erősebben használják a compute shadert, mint a régiek.
    Ha olvastad a SIGGRAPH összefoglalónkat, akkor abból leszűrhető, hogy ez miért történik. A fejlesztők a compute shader felé veszik az irányt. Erről nem mi beszélünk, hanem Johan Andersson. Ő vázolta fel, hogy mik a lehetőségek, és kerek-perec kijelentette, hogy a fake GI helyett ma már dinamkust kell használni. Az első játék, ami így tesz az a DiRT Showdown ... a második a Ghost Recon Future Soldier (ez nincs benne a tesztünkben, mert nem volt időm kitapasztalni, hogy mennyire gyorsan lehet benne sebességet mérni, illetve az sem segít, hogy gyorsan jönnek hozzá a patchek, mivel eléggé bugos is a játékmenet szempontjából, de ez a program is hasonlóan terhelő a Keplernek, mint a DiRT Showdown). Egyszerűen a komplex compute shadert nem bírja annyira a Kepler, mint a GCN architektúra. Ezt a szintetikus tesztek is mutatták korábban, hogy a Kepler compute hatékonysága egyszerűen elmarad még az elődnek számító Fermitől is.

  • Abu85

    HÁZIGAZDA

    válasz Artyy #341 üzenetére

    Ezzel arra céloz, hogy aki 100k forint fölött vásárol az jellemzően arra veszi, hogy max. grafikát kapjon. Szó sem volt itt a termékekről, ez csak egy általános megállapítás.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #334 üzenetére

    Mesterségesen emelve biztos nem lesz. A többit nem tudni. Azt biztosan tudom, hogy az FC3 és az AC3 kerüli a compute shadert. Lényegében a szokásos gather4-en kívül az AC3 a tesszellálást rakja az óceánra és a karaktermodellek SSS-t kapnak (Subsurface Scattering). Az FC3 csak tesszellálásra használ DX11-et, valszeg ismét a vízre. Igazából nem ismerem a szerződés részleteit. Nyilván ez a DX11-es szint bolhafing kategória, de lehet, hogy csak ennyit terveztek a fejlesztők.

    Szerintem a viz tesszellálását az NV azért erőlteti, mert ez az a rész, ahol az AMD-nek nem működhet jól a felületlementéses trükkje, viszont a brutálisan erős vertex re-use sokat ér, de talán egy 5-10% előny összekaparható összességében. Nyilván konkrét fix felületre már úgy gondolja az NV, hogy nem éri meg bonyolult tesszellálást használni, mert a GCN-ek a lementésekkel megússzák a munkát, és gyorsabban végezhetnek.

  • Abu85

    HÁZIGAZDA

    válasz Keksz03 #296 üzenetére

    Lesznek a jövőben is olyan játékok, amik a teljes grafikához dGPU-t igényelnek. Szóval ez a piac még évekig megmarad, csak nem mindegy, hogy a teljes GPU-piac 20, vagy 30%-a dGPU. Jelenleg a 20% felé tartunk, ami elég kevés.
    A túl- és alultervezés világosan látszik. Vannak olyan részei a Keplernek, és a GCN-nek, amiket pusztán a játékok szempontjából nem lehet megmagyarázni.
    A GCN-nél felmerül a kérdés, hogy miért kell egy GPU-nak CPU-hoz mérhető hatékonyságú cache-szervezés, vagy például ugyanazokat a pointereket kezelnie, amiket az AMD64 ISA-t használó processzorok kezelnek. Vagy miért kell egyáltalán egy grafikára kihegyezett GPU-nak annyira hatékonyan kezelnie az elágazásokkal teli kódot, mint egy CPU-nak. Mert a GCN legalább annyira hatékony ebben, sőt a flexibilisebb vektorfeldolgozók miatt hatékonyabb. Ott van még context switch teljesítmény, ami nagyságrendekkel gyorsabb GCN-en, mint bármi máson. Szóval ha csak a grafikát nézzük, akkor túl van tervezve.
    A Keplernél fordított a helyzet. 2012-ben előálltak minden idők legkisebb shared memory teljesítménnyel rendelkező DX11-es architektúrájával. Konkrétan harmadolták a Fermit ebben a paraméterben. A cacheszervezés semmit sem fejlődött, a context switch lassabb lett az elődhöz képest. Figyelembe véve azt, hogy mennyire a compute shadert nyomja a piac a Fermivel megkezdett irány folytatása lett volna ésszerű, de nem így történt, és így viszont alul van tervezve.
    Mindkét cég szeme előtt más szerepelt, mint a VGA-piac. Az AMD előtt a heterogén éra megkezdése egy Larrabee-szerű architektúrával, míg az NV előtt egy alacsony fogyasztású architektúra a Tegrába.

    (#300) tombar: Nem hiszem, hogy bonyolult. Ezt az AMD inkább azért csinálja, mert az NVIDIA fején átfutott az, hogy mekkora marketingereje van a tesszellálásnak, és erre építettek egy nagyon párhuzamos hardvert. Az AMD az NV előtt is foglalkozott ezzel a kérdéssel, hiszen ők tették le az Xbox 360-ban a ma használt tesszellálás alapjait. Nyilván ez idő alatt megismerkedtek a rendszer gyenge pontjaival, és úgy gondolták, hogy amíg ez nincs rendben, addig felesleges erre gyúrni. Csak az NV makacsul erre gyúr, és mindent megtettek korábban, hogy akár sík felületek is le legyenek tesszellálva. Ezért hozta be az AMD ezt a trükközgetést, mert nem akarnak erre sok tranyót költeni, mert iszonyatos meló a tesszellálás a művészeknek, és nem is hatékony a DX11-be épített noSplit módszer a jelenlegi raszterizálási formáknak. De mivel az NV ennyire erőlteti, hát bedobtak pár trükköt, hogy tehermentesítsék a rendszert. A GCN-ben a vertex re-use nagyon hatékony, illetve, ha nagyon komplex a felület, akkor szimplán le lehet menteni az L2 gyorsítótárba. Ha a következő képkockán megvan, akkor le sem kell futtatni a számítást. Szimplán lehet visszatölteni az L2-ből, persze itt csak kis felületekre kell gondolni, de ha egy nagyobbat jobban megéri lementeni, akkor ott a VRAM, oda elég sok adat elfér. Ez csak egy szimpla trükk azért, hogy ne kelljen követni az NV-t a front-end agyonpárhuzamosításával. Egyébként, ha az NV akarja, akkor ők is csinálhatnak ilyet, de nekik minek, ugye pont azért ölnek ennyi tranyót ebbe, hogy számoljon a lapkán belül ez a rész. Szóval szerintem ezt nem fogják másolni. Az Intel viszont lehet. Ők azért átgondolják a dolgokat technikailag, és nyilván a felületek lementése nagy ötlet. A prociban ott is van a tár hozzá, akár az L3 az IGP-ben, akár az LLC.
    Egyébként a lementés dolog nem hülyeség a VRAM-ba. Szerintem a jövőben mindenki opcionálisan csinál egy ilyet, mert ne feledjük, hogy a procedurális content felé haladunk, vagyis nem a művész készíti az egyszerűbb modelleket, hanem a hardver matematikai képletekből számolja majd.

  • Abu85

    HÁZIGAZDA

    válasz tombar #294 üzenetére

    A Crysis 2 azért lett kivéve, mert a külső 3rd party benchmark tool hibás volt. Belül pedig úgy 3-4 perces mérés kellene, hogy mindenből átlagos eredmény szülessen. Például tesszellálás mellett félelmetesen elhúznak a GCN-es Radeonok. [link] Viszont nehéz olyan területet találni, ahol kevés a tesszellálás. Főleg az a benchmark program volt jó, mert ott 3-4 perces méréssel ment. Aztán ott egy másik alternatíva, ahogy a PCGH csinálja, hogy leállnak egy helyre nézve, és mérik 30 másodpercig. Ez megint a GCN-nek kedvez tesszellálás mellett. Az első képkockánál lementik a jelenetben szereplő adatokat, és amíg a többi architektúra számol, addig a GCN csak betölti a tesszellált felületet minden képkocka előtt. Tehát itt is olyan területet kell keresni, ahol kevés a tesszelláls, mert a Keplernek hátrányos, hogy az mindent számol, míg az új generációs Radeon csak betöltögeti a komplex felületeket számolás nélkül. A TPU-t kérdeztem és ők is ugyanezzel a problémával küzdöttek, ahogy a fenti linkből is látszik. Ma az első 30 másodperces jelenetet nézik, vagyis a pofázást a tengeralattjáróban, mert az úgy-ahogy elfogadható, de azzal meg az a baj, hogy nem reprezentatív a játék többi részére. Szóval hagytuk a fenébe. Az NV is csak úgy ajánlja a Crysis 2-t, ha kikapcsolod a Catalyst optimalizált tesszellálás funkcióját, de ezzel a GCN architektúra működési elvét, vagyis a komplex felületek lementését akadályozod, márpedig tesszellálás mellett betölteni gyorsabb, mint számolni képkockáról-képkockára.

    A Max Payne 3-ban nem volt anomália. Egyszerűen idióta egy játék, mert 10 másodperces részletek vannak, amik mentesen a videótól. Na most, ha real-time jön egy bejátszás, az 1800-ra lövi a FRAPS-ot. Ha lenne benne normális benchmark, vagy legalább egy olyan rész, ahol úgy jó 30 másodpercig ugyanaz történik végig, akkor rendben lenne és most itt lenne a Nexuiz helyén. De még nem tettem le róla, csak szinte az egész hétvégém arra ment rá, hogy beteszteljem az új játékokat, pedig jobban örültem volna, ha pihenhetek. :)

    (#298) Sondi1986: Simán letiltanak, ha erre van rendelés. Mindig a kereslet dönt a kínálatról. Ha sok 660 Ti-t visznek, akkor lesz a termékekben hibátlan GF104 is letiltogatva. Ez régóta így működik.

  • Abu85

    HÁZIGAZDA

    válasz Keksz03 #291 üzenetére

    Őszintén szólva szerintem az jobban érdekli őket, hogy van egy Tegrába való modern GPU-architektúrájuk. De szerintem még az AMD-t is jobban érdeklik az APU-k, mint a VGA-k.
    Szerintem nem véletlen, hogy a GCN túl, míg a Kepler alul lett tervezve. Tudják ezek a mérnökök, hogy milyen dGPU lenne ma optimális (szvsz Fermi szint több feldolgozóval), csak vannak nagyobb és/vagy növekvő piacok, amikért megéri áldozatot hozni egy zsugorodó piacon. És az látszik, hogy mindkét architektúra meghozta a maga áldozatát.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #251 üzenetére

    Nem mindig tüntetik fel. Igazából ez is a reklám részbe tartozik. Ha befizetik a logót, akkor feltüntetik, ha nem, akkor pedig nem. Jelentősége igazából nincs.
    Gyanítom, hogy annyi lesz, hogy a megjelenés előtt kipakolják a geforce.com-ra az FC3-at és az AC3-at. Szerintem kb. ennyire szól a szerződés és kész, néha ejtenek egy-két nyelvcsapást egymás felé és ennyi.
    Az természetes, hogy az NV bizonyos játékokat jobban támogat/reklámoz, mert jóval több pénzt tettek beléjük, ilyen például a Borderlands 2, vagy később a Planetside 2, a Hawken és a Mechwarrior Online.

  • Abu85

    HÁZIGAZDA

    válasz Keksz03 #254 üzenetére

    Írtuk az ajánlásban, hogy a régi játékokban elég jó lehet a GTX 660 Ti-nek. Az új DX11-es játékok nem fekszenek a Keplernek, ahol a compute shader terhelés az eddig megszokott szintekhez képest megnőtt: "Ehhez nyilván nagyban hozzájárul az újabb, eddigieknél erősebb compute terhelést alkalmazó játékok alatt mutatott gyengébb teljesítmény."
    Korábbi tesztekben csak a szintetikus mérések voltak a compute hatékonyságra, illetve két játék (a Metro 2033 és az AVP). Most megérkeztek azok az új DX11-es játékok, amelyek hasonló, vagy nagyobb compute shader terhelést fejtenek ki, mint az előbbi két program (DiRT Showdown, Nexuiz, Sniper Elite V2, Ghost Recon Future Soldier és a következő héten a Sleeping Dogs).

  • Abu85

    HÁZIGAZDA

    válasz Sondi1986 #233 üzenetére

    A hibátlan lapkákból is lehet letiltani. Szóval ez nem jelent gondot.

  • Abu85

    HÁZIGAZDA

    válasz gbors #203 üzenetére

    A 200 dollárt szerintem koncepcióból kerüli az AMD. Nekik 100 és 250 dollár között nincs semmi gondjuk. Az ide kerülő GeForce-ok versenyképtelenek a Radeon HD 7750-7850 sor ellen. Majd ha az NVIDIA is lesz szíves ide berakni valamit, akkor az hozhat 200 dolláros terméket, bár az 1 GB-os HD 7850 annyira közel van a 200 dollárhoz, hogy szerintem egyszerűbb a 20 dolláros árcsökkentés, mint még egy új termék.

  • Abu85

    HÁZIGAZDA

    válasz huskydog17 #173 üzenetére

    A reklámszerződést szerintem az Ubi sem veti meg. A TWIMTBP erről is szól. Az AMD a reklámhoz mostohán áll. Ők a GE-re csak fejlesztői programként tekintenek, vagyis aminek a fejlesztésében nem vállalnak részt, azt csupán a kölcsönös reklám miatt nem veszik fel.
    Ez egy baromira egyszerű dolog. Nyilván az Ubi az elmúlt években nagyon megjárta ezekkel a partnerprogramokkal, mert kaptak hideget-meleget. Ezért sem rajonganak manapság értük, ugyanakkor a segítséget elfogadják. Azt viszont senki sem veti meg, hogy odamegy az egyik cég, és x lóvét felajánl azért, hogy ugyan játszatok már be indításkor egy öt másodperces logót, vagy az NV megkérdi, hogy felrakhatjuk-e a játékot a geforce.com-ra, amiért adunk két nokiás dobozt. Ez történt a Diablo III-nál, a Rage-nél, az Avatarnál, a Serious Sam 3-nál, a Blacklight: Retributionnél (utóbbi fejlesztésében részt sem vett az NV, teljesen GE játék, csak reklámot fizettek), és még van pár cím, ami csak reklám.
    Ez tehát alapvető különbség a GE és a TWIMTBP között. Az AMD sosem fizet csak úgy reklámért. Ez a program arról szól, hogy ha a fejlesztőnek szüksége van segítségre, akkor kapnak. Ha valamilyen problémára kell megoldást találni, akkor kérhet az AMD-től, vagy ha nincs jó megoldás rá, akkor van a Fusion Fund, amivel az AMD állja a kutatást/fejlesztést, de a GE sosem jelent csak reklámot, mert az nem tartozik a profiljukba. A TWIMTBP akkor is szokott reklámozni, ha egy árva kódsort nem írtak az adott játékba. Például egy nagyon rövid ideig még a Dragon Age 2 is ki volt rakva a geforce.com-ra, ami a megjelenéskor híresen gyenge volt GeForce-on. Mert ugye az NV szerződést kötött arra, hogy a fejlesztők az új Parallel Nsight fejlesztőeszközzel optimalizálják a játékot GeForce-ra. Ez volt a tool első bevetése, és nagy reklámot is kapott a 2011-es GDC-n. Persze az eredmény nem lett jó, így rögtön meg is szüntették a reklámot.

    Ezeket nem mondják el előre. Kérdezősködni kell, hogy ki miben utazik. :)

  • Abu85

    HÁZIGAZDA

    válasz tombar #167 üzenetére

    GHz Edition teszt később lesz. Ez a compute miatt van.

  • Abu85

    HÁZIGAZDA

    válasz XharX #165 üzenetére

    Tekintve mennyivel több pénzt pumpálnak ebbe, mint korábban, elképzelhető. De igazából, ha figyelted repy BPS előadását, ő főleg arról beszélt, hogy milyen fantasztikus lehetőségek rejlenek a compute shaderben. Szóval annyira nem kell az AMD-nek erre rábeszélni senkit. Vegyük példának a DiRT Showdownt. A forward+ lighting nélkül nem lenne annyi pontfényforrás kezelhető, mint vele. Az EGO motor forward render, így egyszerűbb a forward+ lighting eljárást implementálni, mint áttérni deferred renderre. Illetve a GI-ra adta magát a VPL-alapú megoldás, mert arra van compute shaderes implementáció. Szóval azok a dolgok, amiket az AMD kidolgozott, igényelt dolgok, ha nem lenne rá fejlesztői igény, nem raknák be, illetve az AMD sem kutatná, mert értelmetlen ha a fejlesztőnek nincs célja az algoritmussal. De ott van a Ghost Recon Future Soldier is, ami nem GE partnerprogramos, mégis ott van benne egy compute shaderes dinamikus GI effekt. Ehhez az AMD-nek semmi köze nem volt.
    Természetesen a ki-be kapcsolható effekt alap dolog. Azért GCN ide vagy oda egy jó minőségű dinamikus GI effekt erőforrás-igényes. De a GI-ból is sokféle van. Ezek minősége és erőforrás-igénye eltérő. Ha esetleg nem kell jó minőségű, akkor lehet lejjebb is adni az igényekből. A Far Cry 3 GI effektje például szándékosan olyan, hogy konzolon is fusson. Éppen ezért a referenciaalgoritmus egy 2003-ban publikált megoldás, ami elég régi, és a minősége elmarad az új megoldásoktól, de legalább gyors. Ez alapvetően capture pontokat használ, amely rácsot alkot. Ha renderelsz egy vertexet, akkor a környezeti színt a rács információi alapján számolja a rendszer. Egy korábbi AMD alkalmazott, Emil Persson csinált is rá egy DX10-es implementációt még az R600-hoz, ami abban különbözik, hogy a pontokhoz rendelt cube map leképzését geometry shaderrel gyorsítja. Erre az algoritmusra építette az AMD a Ping-Pong demót: [link] Láthatod, hogy ez nem annyira gyilkolja az erőforrást, mint az új GI effektek, így ez egy opciós lehetőség. De ha alkalmazol egy erős compute terhelést kifejtő effektet, akkor meggondolhatod, hogy a többi effektet is compute shaderre írd-e. Például a HDAO lecserélhető más SSAO algoritmusra is. Igaz, hogy ennek nem olyan jó a minősége, de ettől opciós lehetőség. Ezt értem arany középút alatt. Nyilván az AMD-t nem fogja érdekelni, ha ész nélkül dobálja be a fejlesztő a compute shaderes különböző effekteket, de az NV-t igen, így kell lennie valami köztes állapotnak. A HDAO tényleg jó példa, mert arra lehet találni értékelhető alternatívát. Vagy esetleg az effekt jellege miatt berakható több SSAO implementáció is. Aztán a felhasználó majd dönt. A STALKER: CoP így csinálta, bedobtak négyet és válassz.
    A másik dolog, hogy ami igazán komplex elérhető algoritmus ma, az a forward+ lighting, és ez tényleg nagyon fekszik a GCN-nek. De ezt csak forward render motorba lehet könnyen bedobni, vagyis aki eredetileg deferred renderrel dolgozik annak ez kiesik. Persze az AMD dolgozik egy forward+ "tack on" megoldások OIT-vel, ami deferred renderen jóval hatékonyabbá teszi az átlátszóság kezelését. Ezt be lehet dobni majd a későbbi deferred rendert használó játékokba. Nyilván a fejlesztők baromira örülnének nekik, mert az átlátszóság hatékony kezelése nagyon fontos.
    Igazából nem is az AMD jelenti a veszélyt a Keplerre, hanem a DirectX 11.1. Eddig azért voltak a fejlesztők egyszerűbb shader kódokra kényszerítve, mert a nehéz volt a debuggolás. Az új tracing API-t azért csinálta a Microsoft, hogy a fejlesztők jóval komplexebb kódokat csináljanak. Ezért áll hozzá a DX11.1-hez az NV mostohán. Nem is jelzik a Kepler specifikációjában sem a DX11.1-et, csak a DX11-et. Pedig a bemutatón mondták, hogy támogatja (így: "yes, it supports DX11.1, but who cares?"). A DX11.1-gyel szerintem semmi bajuk, de a shader-trace interface-ért nem rajonganak. Pont jó az nekik, hogy a fejlesztők nehezen tudnak complex shader kódot írni, mert a legtöbben bele sem kezdenek.
    Szerintem azzal még megbarátkoznának, hogy az AMD enyhén erősebben lép fel a GE partnerprogramos játékoknál. Kérik a HDAO implementálását, a CHS-t, meg egy-két extrát még (OIT mondjuk). Ezek alap dolgok, és annyira nem jelentenek fenyegetést. Egy VPL-alapú GI már igen, de az eszi az erőforrást, szóval meg fogják gondolni a fejlesztők a beépítést, esetleg az NV mondhat egy-két szót ellene, és talán nem lesz beépítve. Szóval az AMD azért kiszámítható, lehet készülni rá, alternatívákat kínálni a fejlesztőknek erre-arra. A shader-trace interface hatása viszont kiszámíthatatlan, mert jelentősen leegyszerűsíti a komplex kód debuggolását, és minden fejlesztő nem követhető figyelemmel. És ugye, ha valaki beleöl egy új dologba fél-egy év kutatást/fejlesztést, azt nem szívesen fogja kivenni.

  • Abu85

    HÁZIGAZDA

    válasz Malachi #156 üzenetére

    A maxot szándékosan nem rakjuk ki, mert tök lényegtelen információ.
    Aki élsimítás nélkül játszik nem vesz ennyire drága VGA-t. Ezeknek pont ez a lényege.

    (#161) XharX: A compute hatékonysága egyik Keplernek sem jó sajnos. De amúgy szerintem ez nem fog akkora gondot okozni a jövőben. A fejlesztők ki fogják számolni, hogy meddig kell butítani a tervezett grafikát, hogy az ne legyen gázos a Keplernek. Nyilván tök kellemetlen, hogy ennyire eltérő a két új architektúra, de erre kell főzni, és van arany középút.

    (#162) TTomax: Felőlem lehet középkategóriás, de az ára ezt nem tükrözi. Mondjuk egyik új VGA-nak sem. Szerencsére az ár eléggé egyértelmű, így aszerint még mindig lehet mérlegelni. A többi nem érdekel. Felőlem belépőszint is lehet, akkor is bírnia kell egy 90-100k-s kártyának az 8xAA-t. Csak abba gondolj bele, hogy a fejlesztők az MS-nél a 16xMSAA szabványosítását kérik (eddig 4x-ig van szabványosítva).

  • Abu85

    HÁZIGAZDA

    válasz Loha #154 üzenetére

    Ti akartátok, hogy ne az átlag, hanem minimum számítson a sorrendnél, még a 400-as Fermik idején (azzal indokolták, hogy ez lenne az NV-nek kedvező, és a Fermi minimumban jobb, illetve úgyis ez számít, az utóbbi részben láttunk rációt, így ezért van így mérlegelve a sorrend egy ideje). Azóta van ez így. Nekem olyan mindegy, hogy mi alapján van felvázolva a sorrend, de azt meg kell érteni, hogy mindig lesz olyan, akinek az nem fog megfelelni, ami éppen van. De felőlem lehet átlag szerinti sorrendelés is, az eredmények ettől nem változnak meg.

  • Abu85

    HÁZIGAZDA

    válasz TTomax #151 üzenetére

    Ez egy 90-100k-s kártya. Ha 50k lenne, akkor azt mondom, hogy nem kell 8xAA, de ez nem az a kategória. Azért adsz ezekért pénzt, hogy minél kevesebb kompromisszumot kelljen kötnöd.

  • Abu85

    HÁZIGAZDA

    válasz SzlobiG #148 üzenetére

    Nézd meg a beállításokat. Sok helyen a TPU AA-t sem kapcsol be. Mi igen. Ez egyéni döntés. A GTX 660 Ti-nél ez eléggé számít, mert jellemzően 8xAA-ra esik erőset a teljesítmény. Emellett a játékok is különböznek. Mi nem is foglalkozunk DX9-es játékokkal.

  • Abu85

    HÁZIGAZDA

    válasz Pietrosz #145 üzenetére

    Jó felírtam. Nincs ellene kifogásom, jó ötletnek tűnik. :) Köszi. :R

  • Abu85

    HÁZIGAZDA

    válasz gbors #140 üzenetére

    Van abban valami amit írsz, mert a legtöbb motor ma úgy működik, hogy pakolja a VRAM-ot ameddig lehet aztán ha elfogy, mehetnek a nem használt adatok. Ez valóban problémás lehet, de mivel a vezérlésért nem teljesen a hardver felel, hanem a driver mögé rejtőzik a disjoint memória, így szerintem ezt az NVIDIA képes driverből kontrollálni, úgy hogy ne jelentsen túl nagy gondot.

  • Abu85

    HÁZIGAZDA

    válasz gbors #136 üzenetére

    Az 1,5 GB mindegy. Nem sokban különbözik a 2 GB-tól. Az 1,5 GB-os úgy viselkedne, mint a 2 GB-os, de ha túlmenne a memóhasználat az 1,5 GB-on, akkor nem csak kicsit, hanem nagyon meghalna. És mindezen két darab 2 gigabites memóriát lehetne spórolni. Kétlem az öngyilkos hajlamot a gyártóknál. :)

  • Abu85

    HÁZIGAZDA

    válasz mghltm #129 üzenetére

    A 3 GB-os verziónál nincs flex vezérlés. Nincs két részre bontva a memóriavezérlés, vagyis nincs elsődlegesen címezhető terület sem. Ez biztos, hogy nem veszít annyi teljesítményt, mint a 2 GB-os, ha erősen 1,5 GB fölé megy a program VRAM igénye.

  • Abu85

    HÁZIGAZDA

    válasz gbors #112 üzenetére

    Ahol kijött nálunk a flex vezérlés problémája az a Nexuiz és a Batman: AC. A többiben nem volt gond (legalábbis nem volt jelentős a hatása). Na jó 4xSSAA mellett a Sniper Elite v2 sem volt pite, de az mindent megevett. :) Ott azt eltúloztuk, de úgyis vannak dupla-GPU-s szörnyek. :D
    Ahol szerintem ez kijöhet az a Stalker: COP, mert az full deferred lightingot használ, ami eléggé terheli a memóriát. De úgy nézem, hogy általánosan haladunk a memória-sávszélességet kímélő deferred renderek felé (partial vagy accelerated), hosszabb távon a forward render visszatérésére van erős opció (forward+ vagy esetleg a clustered). Illetve van egy harmadik lehetőség, ami a forward+ tack on OIT-vel deferred renderbe. Ez megoldaná a deferred rendernél az átlátszóság hatékony kezelését, ellene szól, hogy a deferred render eleve nagy memóriaterhelése mellett még kapnának a rendszerek egy erős compute terhelést. A GCN-en kívül nem bírná ki más, szóval ezt kétszer is meg kell gondolni implementálás előtt, csak akkor van értelme, ha az átlátszóság hatékony kezelése kritikus fontosságú.

    (#123) matteo_szg: Van értelme. Ezért a vezérlési formáért sosem rajongtam egy VGA-nál, mert ingadozó a teljesítmény, függően attól, hogy az adott játék hogyan működik. Ugyan a trend látszik, hogy már a deferred render eljárások is kímélik a memóriahasználatot, de a partial deferred lighting nem a legjobb, mert 64 bit/pixelt kapsz, vagyis kevés a lehetőség a felületi variációra. A g-buffer áll lényegében depth, normal és glossiness loyoutból. Ez nagyon kevés. Ezeken kívül azért nem ártana albedo, occlusion, illetve a virtuális anyag indexelése. Csak hát ez már ~128 bit/pixel is lehet, vagy több. Ezért jó a tile-based deferred acceleration, amit a Frostbite 2 használ, de ezt nem sokan implementálták még, és ennél megint jobb a forward+ a jövő szempontjából, szóval nem is biztos, hogy aki most csinálja a next-gen motort az deferred renderre akar építeni, emellett ma már nem szól semmi érv.
    Szóval tekintve, hogy mennyi a lehetőség a játékok eltérő működésére egy 3 GB-os 660 Ti nem elvetélt ötlet.

  • Abu85

    HÁZIGAZDA

    válasz Artyy #109 üzenetére

    A program még nincs kész, de jelzik is, hogy beta verzió. 2013 közepén jelenik meg. A DX11 mód jelenleg épp, hogy elkészült.

  • Abu85

    HÁZIGAZDA

    válasz smkb #111 üzenetére

    A Batman AC az kényes Radeonokon, mert rengeteget gyorsult a legújabb driverekkel és az új CAP3 profillal. A 12.1 óta 50-60%-kal gyorsabban fut. 12.7+CAP1-3-on. A CAP 1-3 az fontos, mert az is ad a sebességhez.
    Az Xbitlabs egy 12.7-nél újabb drivert használt, de felrakták a CAP 1-et. Azt az eredmény hozta a mérésük, ami a mi tesztünkben van. A HD 7870 8xMSAA mellett gyorsabb a GTX 660 Ti-nél.
    A VR-Zone esetében nincs CAP, legalábbis nem jegyzik. Az Anand 4xAA-val tesztelt. Egy 192 bites és 24 ROP-os terméknél azért a 4xAA és a 8xAA különbsége erősen számít. Utóbbi esetében már becsípi a kártya a flex vezérlést, amivel az utolsó két lapka memória-sávszélessége a harmadára esik. A TechpowerUp végig AA nélkül tesztelte a játékot. Ez szintén nem jelent gondot a 660 Ti-nek, mert a kártya nem fut ki a 1,5 GB elsődleges memóriából. A benchmarkreviews tesztjénél nem jelölik, hogy milyen driverrel teszteltek. Ez azért elég fontos információ lenne, főleg a Batman: AC esetében. A PCPer 4xAA-val tesztelt, szintén Anandtech effektus. Az overclockers szintén nem jelöli a drivert, ami összehasonlíthatatlanná teszi az eredményeket.
    Szóval összességében a mi tesztünkhöz az Xbitlabs körülményei állnak a legközelebb, sőt, jobb újabb drivert is használtak (bár az nem hivatalos, de újabb), ami a legfontosabb, hogy felrakták a CAP-ot. Mivel náluk gyorsabb a HD 7870 a GTX 660 Ti-nél, így nem gondoljuk, hogy gond lenne a méréssel, mert két hasonló eset hozott két hasonló eredményt. Annyit lehet felhozni, hogy az Xbitlabs-os tesztben enyhén közelebb van a GTX 660 Ti a HD 7870-hez. Itt azt lenne fontos tudni, hogy a teszttermékük hány bines. Nekünk 6 bines jutott, de szerintem az NVIDIA a legfőbb médiáknak 8 bines válogatott kártyákat küldött. Na most a gyártók 4 binre vállalnak garanciát, márpedig 4 bin és 8 bin között 4-6% teljesítménykülönbség is lehet, vagyis ha nem vagy szerencsés a kereskedelmi vásárlásnál, akkor előfordulhat, hogy a tesztben felmutatott 8 bines eredménynél egy 4 bines vásárolt kártya átlag 5%-kal rosszabbul teljesít. Ez a Boost működéséből ered. Mindegyik Boostos GeForce-nak több teljesítményszintje van, a szerencsén múlik, hogy a leggyorsabb vagy a leglassabb verziót kapod.

  • Abu85

    HÁZIGAZDA

    válasz mghltm #108 üzenetére

    A Nexuiz az elsősorban azért ennyire terhelő, mert ugyan azt az SDAO-t használja, amit a Crysis 2. De amíg a Crysis 2 negyedelt felbontással számol, addig a Nexuiz teljessel. Nyilván nem mindegy, hogy a compute shader négyszer több adattal dolgozik. Ezért a nagyobb terhelés. Az SSR szintén teljes felbontásra számol a Nexuizban míg a Crysis 2 ben csak negyedre. Ez sem mindegy, noha ennek az effektnek kisebb az erőforrásigénye.

  • Abu85

    HÁZIGAZDA

    válasz arn #80 üzenetére

    Attól függ a felállás, hogy mennyi új DX11-es játék van a tesztben. Ha sok, akkor a compute irány a GCN-nek kedvez. Ha kevés, akkor az a Keplernek.

  • Abu85

    HÁZIGAZDA

    válasz Med1on #31 üzenetére

    Tény, hogy ma több AAA kategóriás GE partnerprogramos játék készül, mint TWIMTBP, egyszerűen több pénzt rak most a piacba az AMD új vezetősége (meg elment az Intelhez Richard Huddy, akinek sokat köszönhet ugyan az AMD, de az elvei szerint nem szabad a fejlesztők támogatását megvenni, az új CEO szerint ez üzlet és nem jótékonyság, és ezért nem értettek egyet). A GE helyzete ott erősödött, hogy több pénzt kap a partnerprogram a fejlesztői támogatásra. A jövőben sem változik ez meg.
    Biztosan a GE-n belül jön a Sleeping Dogs, az F1 2012, a Medal of Honor: Warfighter és a Hitman: Absolution, illetve jövőre az Aliens: Colonial Marines, a Tomb Raider és a Total War: Rome 2. Illetve állítólag a BioShock Infinite. Plusz sok egyéb kisebb cím, de ezek általános dolgok.
    A TWIMTBP programon belül a Borderlands 2, a Far Cry 3, a Call Of Duty Black Ops 2 és az Assassin's Creed 3 a nagyobb címek, illetve az új Metro majd 2013-ban. És még a szokásos kisebb címek.

  • Abu85

    HÁZIGAZDA

    válasz Loha #56 üzenetére

    Amikor megjelent a GTX 480, akkor az volt a szar, hogy fLeSs kitalálta, hogy legyen fix sorrend a grafikonoknál. Leszavazták, így később a sorrendet a nagyobb felbontás átlaga határozta meg. Ott jöttek a fanok, hogy ez mennyire szemétség a Fermivel, mert annak jobb a minimum fps-e és különben is az jobban számít. Jó, végül áttértünk a nagyobb felbontás minimumára. Most már ez sem jó? :)
    Véleményem szerint nagyon túl van misztifikálva a probléma, mert az eredmények egy egyszerű sorrendtől nem változnak, de valami alapján fel kell állítani a sorrendet. Őszintén szólva nekünk hihetetlenül mindegy, hogy mi alapján történik ez, de a minimum szerinti sorrendet ti akartátok még két éve, azóta ez nem volt gond. Most hirtelen miért az? Igen, valahol hülyén néz ki, lásd Sniper Elite V2, de ez van. Ettől az eredmények viszont nem változnak meg. Ugyanúgy leolvashatók az értékek.

Új hozzászólás Aktív témák

Hirdetés