Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Manbal #1 üzenetére

    Én úgy látom, hogy azon munkálkodnak, hogy egy saját brandrendszert építsenek ki, mint amilyen az Apple. Lesznek termékek, mint a Tegra és a GeForce, illetve ezek párosításával platformok. Lesznek rá szolgáltatások, amelyeket máshol nem lehet elérni. Ha ezek kellenek fizesd meg, ha nem, akkor vegyél mást. Az árak szempontjából már nem kívánnak versenyezni.
    Akit esetleg ez zavar, annak alternatívaként felkínálják a felhőt.
    Ez olyasmi modell, mint az Apple politikája. Tipikusan a felhasználói rajongásra épít a versenyzés és az árak konkurensekhez igazítása helyett. Akár sikeres is lehet, ha az Apple esetéből indulunk ki.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz p87 #8 üzenetére

    Tudom. Annyit mondhatok, hogy ez nem új architektúra. Ez a GCN. Egészen pontosan a 2.0-s verzió, ami a konzolokba kerül. Ezt egészíti ki az SPM, ami sok feladatot ellát majd (ez is lesz persze a konzolokban). Gyakorlatilag a feldolgozó futószalag összes lépcsője programozható lesz, kivéve a tesszellációt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamssss #10 üzenetére

    Nem. Nem is tudom, hogy igaz-e. Mármint a kép. Én a PlayStation 4 felépítését láttam és az valóban ilyesmi. Illetve látva a képet a fejlesztések nagyjából stimmelnek. De lehet, hogy más is látta a PS4 lapkáját, és összedobott rá egy ilyet. Paintben megcsinálom én is pár perc alatt. :)

    Az biztos, hogy ez egy APU a felépítéséből ítélve. Kétségesnek tartom, hogy ez egy konzumer termék lenne ebben a formában. A HPC-piacra már illik, de a magam részéről azt mondom, hogy maga a kép fake. Ezzel a speckókra is ugyanezt mondom.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #67 üzenetére

    Tehát mostantól +5%-os tempónövekedésnek is őrülünk éves szinten azonos áron? Én csöppet csalódott vangyok, abból kiindulva, hogy mennyire le van maradva a Kepler technikailag. Jött először a DiRT Showdown, majd a Sniper Elite V2, aztán Ghost Recon: Future Soldier, a Sleeping Dogs, a Hitman: Absolution, a Nexuiz. Most jön a GRID 2. Mégis hány játékot kell még várni, hogy tényleg kijelentsük a Kepler hátrányban van a GCN-hez képest. Még a DiRT Showdownnál elment, hogy ez egyedi eset, ne vegyük számításba, és utánna sorra ezt mondtuk a többire, de lassan az egyedi esetekből tendencia lesz. Itt volt a lehetőség, hogy a hardvert továbbfejlesszék, és kapunk +5%-ot, ami gyakorlatilag nem jelent semmi változást.

    (#72) fatallerror: az fake :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tombar #73 üzenetére

    A Bioshock Infinite-et és a Tomb Raidert azért nem sorolom ide, mert ott kimaradhattak a teszteléséből a GeForce-ok. A Bioshockban a motort is rosszul kalibrálták az NV kártyákra, a Tomb Raider esetében meg jól hangzik, hogy minden patch végén ott szerepel, hogy folyamatosan dolgoznak az NV-vel a GeForce-ok problémáinak javításán, csak ez a sokadik patch után inkább kötelező szövegnek tűnik. Nem érzem fairnek az NVIDIA nyakába varrni azt, hogy az AMD közel került a fejlesztőkhöz, és etikátlan dolgokra beszélték rá őket. A Far Cry 3 is furcsa, hogy hirtelen elromlott a HDAO a GeForce-on egy patch-csel. :U Manapság sok a technikailag megmagyarázhatatlan véletlen a GE játékokban az NV kárára.
    Amiről írsz az így van, de az inkább a fejlesztések támogatási politikájába tartozik, mintsem a hardverek közötti technikai különbségekhez.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz juzer78 #79 üzenetére

    Az nem érdekel, hogy az NV mit csinált. Az sem érdekel, hogy az AMD mit csinál. Az érdekel, hogy túl sok a véletlen a GE játékok körül az NV kárára, és mindegy, hogy ki miatt van. A Tomb Raider-ben Lara haja máig hibásan mozog GeForce-on, illetve még mindig panaszkodnak fagyásra a userek. Ilyen egy letesztelt játéknál nincs. Az NV annyira nem találja a gondot, hogy azt ajánlják a júzereknek, hogy játszanak a gyárilag beállított órajel alatt. A Bioshock miért lett úgy paraméterezve ahogy? Évekig sikerült megoldani, hogy az UE3 motoros játékok jól fussanak minden hardveren, és most véletlenül jön egy játék, ami nem kevés 50 ms fölötti tüskét csinál GeForce-on. A Far Cry 3 meg jó volt, és véletlenül jött egy patch, amivel hibás lett a GeForce-on a HDAO. Ja és véletlenül mindegyik GE játék. :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Peat;) #85 üzenetére

    Mi a hibás? 50 ms fölötti tüskéket AMD-n alig láttam, ez a techreport tesztjében is így van. A Tomb Raiderrel nem láttam hibát. Három monitor mellett van gond, de az játékhiba. A TressFX-et én speciel imádom, sőt, hiányolom az összes játékból. Eddig nem foglalkoztam vele, de a TR után feltűnik, hogy olyan statikus mindenkinek a haja. A másféle megítélését az okozhatja, hogy nem működik jól GeForce-on. Nem mozog úgy a haja. Nem tudom mitől van. Elvileg elvégzi ugyanazt a számítást. A HDAO-t a Far Cry 3-ból mentettem itt alul. [link] - nem látom hibásnak.
    A miértekre nem tudom a választ. Az is lehet, hogy szimplán fejlesztői hanyagságról van szó, csak túl soknak érzem a véletleneket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Vigilante #96 üzenetére

    A driverből beállítható AO minősége meg sem közelíti a sokkal több mintával és bilaterális szűrővel dolgozó beépített AO megoldás minőségét. Nyilván azzal, hogy az NV kapásból kínált AO-t a driverből nem zárom ki, hogy a GeForce hardverek képességeit haladja meg az effekt, de egy játék alapján erről még nehéz véleményt alkotni. Inkább a rossz, vagy a Radeonhoz igazított paraméterezést tartom valószínűnek. A GRID 2-ben lesz ugyanilyen soft AO, ha ott is tüskézik a GeForce, akkor talán átértékelem én is a Bioshockot, de ott sem zárható ki, hogy a játékot inkább Radeonra paraméterezik. Elméletben a soft AO-nak nem kellene gondot okoznia. Nyilván jóval nagyobb compute terhelés, mint bármelyik eddigi AO, de ez is paraméterezhető.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz juzer78 #117 üzenetére

    A Metro Last Lightból minden compute shadert kivettek. Egy csomó effekt eltűnt, ami a 2033-ban megtalálható volt.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Lacccca87 #119 üzenetére

    Nagyjából ugyanúgy néz ki, kivéve a DoF, mert az gyengébb, mint az előző rész megoldása. Az egyetlen DX11-es effekt benne a tesszellálás. Annak két lépcsője lett (a kikapcsolt állapot mellett). Az első szint, amikor a displacement mappal rendelkező felületekre ereszti rá a tesszellálást, míg a második, amikor a teljesen sík felületeket is sokkal több háromszögből építi fel.
    A gépigényt alapvetően a GPU-s PhysX és az SSAA végzi ki. Előbbi jó 30-50 fps mínusz kártyától függően, míg utóbbi beállításfüggő, de ez is harmadolhatja az fps-t.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz juzer78 #125 üzenetére

    Azt a DDoF-ot, ami volt a Metro 2033-ban szerintem nem fogom/fogjuk sajnálni. Köszönjük, hogy irányt mutattak, de nem működött valami jól és még ette is a hardvert. Persze az alap DoF is gyenge volt minőségben.
    Nem tudom, hogy az NV mit szeretett volna. Valszeg azt alapból kizárták, hogy az AMD algoritmusait használja a program. Gondolom a fejlesztők sajátot nem akartak komolyabb kutatásból fejleszteni, így maradt egy alap pixels shader DoF. Nem lesz csúcsminőség, de működhet ez is.

    (#124) pakriksz: Legalább kikapcsolható. Ingyen nyersz sebességet a képminőség butítása nélkül. :) Ha ettől boldogok hát rakják bele, ebben a formában rendben van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz juzer78 #127 üzenetére

    A GCN-es Radeonoknak a sík felületek felbontása nagyon kedvez, mert szám szerint kevés, de masszív tesszellátoruk van, és így extrém hatékony a vertex újrahasznosítási képességük, illetve egy tesszellátorhoz rendelt puffer is sokszor akkora, mint a GeForce-on. Ráadásul az AMD 170 dolláros szinttől felfelé ugyanazt a tesszellációs teljesítményt használja, míg az NV skáláz, amivel már a GK106 tesszellációs teljesítménye bezuhan a Bonaire alá, főleg ezekben a szituációkban, amikor nincs vertex eltolás. A GK107-es GTX 650 tesszellációs teljesítménye gyakorlatilag a negyede annak, amire a nem sokkal drágább Radeon HD 7790 képes.
    Ettől függetlenül, értelmetlen a beállítás természetesen, de off és jólvan.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Firestormhun #134 üzenetére

    A GK104 és a Tahiti közel azonos méretű, és komplexitású. Ezek nem középkategóriások. Ezeket konkrétan oda tervezték, ahol árulják őket. A GF100/110-et azért tudták eladni annyiért, mert csak a jó lapkákért fizettek a TSMC-nek, így a TSMC nyelte be a veszteséget. Most már ilyet a tajvaniak nem csinálnak. Mindenki köteles waferek után fizetni, és később lehet elszámolást kérni a teljes gyártási selejtre, de abból nem sok van.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Peat;) #133 üzenetére

    A profit az egyik cél, de mivel évek óta szűkül a piac, így felmerült az az alternatív cél is, hogy monopóliumot építsenek. Ezért szegmentálódik az NV és az AMD a GPU-piacon.
    Az NV célja, hogy kiépítsen egy szolgáltatásrendszert, amihez a felhasználók hozzákötődnek. Ennek az eleme a Tegra és a GeForce vonal funkcionális összeolvasztása, és a PC exkluzív játékokra való erős koncentráció, de zömében inkább a Tegra lesz a fő vonal, és az Android játékok. Már ma is erre megy az erőforrások zöme.
    Az AMD célja a konzolportok fejlesztésének segítése. Innen ered a játékvásárlós dolog is. Ma csak viszi a soktízmillió dollárt, ellenben az ezzel biztosítja a konzoljátékok PC-re portolásának költségét. Így később a játék akkor is megjelenhet PC-n, ha csak AMD hardveren futtatható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák