Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #7 üzenetére

    Például nem lesz annyi objektum a fizikai szimulációban.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bull1 #15 üzenetére

    Dehogynem gond. Borderlands 2 merev testek szimulálásánál még mindig a CPU-t használja. Egyedül a részecskeszimuláció a cloth van GPU-val gyorsítva.
    Oka van annak, hogy még a PhysX is CPU-val számoltatja a merev testek fizikáját és a soft body szimulációt. Egyszerűen a munkafolyamat csak részben illik a GPU-ra, de a lassú kommunikáció és a magas késleltetés nem teszi lehetővé, hogy a GPU részben megkapja a munkát, majd visszaadja a CPU-nak. Integrálni kell, hogy ez működjön.
    A PhysX SDK legújabb verziójában van egy GPU-s megoldás a merev testek fizikájára. Az majd ki lesz használva, amint az NV-nek is lesz APU-ja. Ez lesz a mézesmadzag, hogy letérj az x86-os útról.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz unrealnoise #21 üzenetére

    Hiába lesz bármilyen erős egy konzol a valós idejű globális illumináció és az SSAO effektek minősége akkor sem lesznek olyan jók, mint PC-n. Konzolon ma még főleg fake globális illumináció van, de a valós idejű megoldást alkalmazó játékok minősége is elmarad a PC-s minőségtől. Az SSAO minősége is elég gyenge konzolon, már ha aktív az effekt, mert jellemzően azért nem az.
    Ezek sosem fognak megváltozni. A next gen konzolok esetében elképzelhetőnek tartom, hogy az SSAO komoly terjedésbe kezd a játékokban, de a PC-n most már SSDO-n, vagy több szögből számolt SSAO-n gondolkodnak a fejlesztők. Utóbbihoz nem lesz meg a teljesítmény.

    (#24) Bull1: Nem a konzolok miatt van ez így. Egyelőre a fejlesztőeszközök gyengék ehhez. Amelyik játék sokat épít a fizikára ott elég jó a konzol is. Például az új Red Faction részek. Vagy ha az exkluzív címeket nézzük, akkor az Uncharted játékok fizikája elég erős. PC-n ilyet máig nem láttam.
    Szinte mindegyik játékban van részecskeszimuláció (ebbe a füst is beletartozik) PhysX nélkül is. Amilyen folyadékszimuláció van a PhysX-ben azért igazából nem kár. Ha kikapcsolható lenne külön, akkor kikapcsolnám, mert a víz az nem zselészerűen folyik. Persze nyilván a teljesítmény korlátozza a lehetőségeket, de akkor jöhetnek a trükkök.
    Mondtad már régen, hogy nagy rombolhatóságot szeretnél, de arra igen kicsi az esély. Egyszerűen rendkívül komplex elkerülni, hogy ne ragadj bele a törmelékekbe és ne ragadjanak bele az ellenfelek sem. A Red Faction használ ilyesmit, amit korábban írtál, mint nagy fícsőr, de az is láthatod, hogy a nagyobb elemeket igen gyorsan eltünteti, hogy ne okozzon galibát a játékmenetben. Ez a jövőben is gond lesz.
    Abszolút nem új terület ez. A kiaknázása pedig eléggé jó. Azért nem megyünk annyira el, mint amennyit a techdemók mutatnak, mert a teljes rombolhatóság sok gondot eredményez. Van ahol továbbmegyünk, de ott is csak azért, mert van olyan megoldás rá, ami csak a GPU-n futva megoldható. Például, ha a füvet DirectCompute felületen matematikai képletekből számolod, akkor minden jelenetre más füvet lehet számolni, vagyis reagálni lehet arra, hogy rálépsz, és akkor összenyomódik a virtuális fű. Szimuláció az nincs, mert nincs konkrét ütközésvizsgálat, de a hatás olyan, mintha szimulált lenne, mert módosítod a fűt egy másik képlettel számolva.

    (#25) HuMarc: Mind pletyka addig, amíg meg nem jelennek a gépek. Amik le vannak írva, azok a valószínű pletykák. Tekintve azt, hogy mi szivárog, ezek közül mi a logikus evolúció, illetve mely cégek szerint fontos a konzol.

    (#27) HuMarc: Mindegyik konzolnak saját API-ja van, és jellemzően azt szeretik használni a fejlesztők. A DirectX és az OpenGL itt nem játszik.

    (#26) $p@rr0w: Teljesen felesleges az összehasonlítás, mert a konzolok sosem épülnek szabvány API-ra. Van egy sajátjuk (illetve esetleg alternatív API-t is támogathatnak), és annak a tudása számít. PC-s API-val ezt összehasonlítani nem érdemes, mert a mostani Xbox is tud olyat, ami például a DirectX 11-ben sincs benne.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz RyanGiggs #35 üzenetére

    Konzolon is lehet netezni. Én is szoktam a PS3-on, ha éppen nem akarom bekapcsolni a PC-t. Meccset is így nézek streamről.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Atom_Anti #57 üzenetére

    Valószínű, hogy nem ugyanolyan teljesítményű terméket igényeltek, hiszen eltérően is láthatják a jövőt. Biztos, hogy lesz valami eltérés a két termék között.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Peat;) #62 üzenetére

    Az exkluzív címeknél nyilvánvaló, hogy leesik majd az ember álla. Annak a PC közelébe nem megy egy ideig. De a multiplatform cím az más. Azokat úgy fejlesztik, hogy a megcélzott platformok közül a leggyengébb képességeit veszik figyelembe. Aztán a skálázható részeket nyilván a platformokhoz igazítják, amennyire lehetséges, vagy amennyire az idő/pénz engedi.
    Ma csak az AMD tud olyan APU-t csinálni, ahol a CPU és a GPU egymáshoz van tervezve. Illetve még az ARM is, de az Mali sorozat felfelé annyira nem skálázható, mint a GCN architektúra. A konzolokba nincs választás. Az integráció szempontjából a GPU kiválasztása eldönti a CPU-t. Az AMD CPU-k teljesítménye az árukhoz képest jó. Persze konzolon ez kevésbé számít, mert úgyis egyedi dizájnt kap az egész, de ott olyan dolgok számíthatnak, hogy egy bizonyos teljesítmény mekkora méretbe fér bele. A Jaguar mag ebből a szempontból reális választás, hiszen 3,1 mm^2 a kiterjedése és egységnyi órajelen annyit tud, mint egy fél Piledriver modul, aminek a kiterjedése már jóval nagyobb. Legalább négy Jaguar mag fér egy Piledriver modul helyére. Ebből a szempontból a Jaguar érthető választás. Nyilván nem képes akkora órajelen működni, mint a Piledriver, illetve nem is lesz olyan a teljesítménye, de ha sokat raksz egymás mellé (mondjuk 8-at), akkor már inkább a Jaguar éri meg. Egy konzolon ezt meg lehet tenni, mert a játékot a hardverhez fejlesztik.
    A hagyományos felépítéssel sosem jutunk előrébb, csak hordozzuk magunkkal azokat az korlátokat, amelyektől meg akarunk szabadulni. Ha nincs egyben a CPU és a GPU, akkor nem fognak közös memóriát használni. Az a cél, hogy mindkét egység ugyanabba a memóriaszeletbe írjon, vagyis megossza egymással teljesen koherens módon, illetve a CPU és a GPU is ugyanazokat a pointereket használja. Az elvben alapvetően a Cell köszön vissza, csak modernebb formában, nyilván a Cell óta eltelt hat év, így volt hova fejlődni.
    Az Intel valszeg azért nem jött szóba, mert őket annyira a konzolok nem érdeklik, másfelől a nem hiszem, hogy ha annyira a magméret minimalizálása a cél, akkor ők sem kínálnak jobbat a Jaguárnál. Az IBM és az ARM ott eshet ki, hogy a GCN integrálásának előnye elveszik, ha nem AMD64-kompatibilis processzort raknak mellé. Esetleg áttervezhetők a CU-k más architektúrákhoz, de nem sok értelme van.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Peat;) #67 üzenetére

    A konzolokra egyszerűbb lesz fejleszteni, mert az célhardver. Maga a piac is jövedelmezőbb a fejlesztőknek, így megéri befektetni.
    Az Xbox 360 egy 6 éves hardver. Ma van jobb felépítésre és szoros integrációra lehetőség. Szerintem itt egyébként a Cell a fő szempont. Annak a processzornak még 6 éves távlatban is sokkal jobb az energiahatékonysága, mint a mai legerősebb PC-s terméknek. Ha ma raknák össze, akkor a PC-s top procit ripityára zúzni. Ugye nyilván a gyártástechnológia fejlődésével több PPU és SPU férne bele. Mivel ennek a vonalnak a fejlesztésével leálltak, így a Cell lényegében halott, de az elv amire épül az nagyon is jó, csak akkor még voltak ennek gyermekbetegségei. Az eltelt évek során olyan architektúrát fejlesztett az AMD és az ARM is, ami bizonyosan a Cellből nyerte az ötletet (persze ezt sosem fogják bevallani, de itt valószínű, hogy a heterogén fejlesztések elkezdése a Cellhez köthető, mert az a rendszer bebizonyította, hogy ez működik a gyakorlatban is), de gyermekbetegségek nélkül. Nyilván volt lehetőség elemezni, hogy mi az amin érdemes változtatni. Ma sokkal többet akarunk a GPU-ból kihozni, vagyis nem csak grafikára érdemes annak az erejét használni. Számos dolgot azonban korlátoz, hogy a CPU-től a VGA messze van, és a kapcsolat nagyon lassú. Mindkét egység külön memóriát használ. Gondolj például a Rage megatextúrázására. Az úgy működik, hogy a tömörített textúrát a processzor kikódolja, majd elhelyezi a rendszermemóriában, ahonnan aztán az adat átkerül a GPU memóriájába. Az utolsó lépcső a megterhelő. Ha a CPU és a GPU ugyanazt a memóriát használná, akkor nem lenne szükség rá, mert amint ott a rendszermemóriában a kikódolt adat, már olvashatná is be a GPU extra adatmásolás nélkül. Ilyeneket szeretnének a fejlesztők, és ez nyilvánvaló, hogy dedikált GPU-val, vagyis logikai értelemben véve különálló fedélzeti memóriával nem lehetséges.
    Azt azért ne hidd, hogy a grafika a hardver képességeitől függ. A mai VGA-k legalább 10-szer gyorsabbak, mint az Xbox 360-ban található egység, és egyenesen felmorzsolják, majd jól megtapossák a PS3 GPU-ját. Mégsem látsz nagyságrendekkel szebb grafikát PC-n. Sőt, ha megnézel egy Last of Us videót, akkor egyenesen irigykedsz a PS3-ra. A gondot itt az jelenti, hogy a grafika nem csak a hardvertől függ, hanem a befektetett munkától, amivel a tartalmat csinálod a játékhoz. Ez most egy általános válságot él át, mert van egy határ, ameddig finanszírozzák a cégek a projektet, és a grafika fejlődését lényegében az határozza meg, hogy a fejlesztőeszközök mennyire fejlődtek, mivel több pénzt a tartalom előállítására a fejlesztők nem kapnak. Pár éve ezt mondta Carmack, hogy ez így nem lesz jó, és arra épül az ID Tech 5, hogy ezen a problémán enyhítsen például a megatextúrázással. A jövő grafikus motorjai esetében alapvető szempont lesz, hogy gyorsan lehessen minél jobb tartalmat készíteni a játékhoz. Például nagy figyelmet kap a Ptex manapság, mert egyszerűsíti a textúrázást, viszont valós időben ezt nem olyan könnyű megoldani. Erre az útra jó az integráció.
    Lehet emelni a teljesítményt sokáig, de ezzel nem kapnak több pénzt a projektek, így a grafika minőségét igencsak meghatározza, hogy a fejlesztőeszközökkel milyen hatékony lehet a munka. Sokkal jobb irány, ha lopjuk az offline renderek technikáját, és valami valós idejű megoldást keresünk a megvalósításukra. Ezek a renderek ugyanis már pár évvel korábban átestek az anyagi válságon, így komoly fejlesztések zajlottak le annak érdekében, hogy az animációs filmek egyre szebbek legyenek, de a költségek ne emelkedjenek az egekbe. Ma erre van szükség a játékoknál is, ehhez pedig a lehető legrugalmasabb hardverek kellenek.

    (#77) GeryFlash: A multiplatform címek esetében nagyon jellemző, hogy minden szempontból a leggyengébb összeállítás képességeit veszik figyelembe. Ezután a skálázható dolgokkal próbálnak alkotni. Ez sosem fog megváltozni. Az adott konzol tartalékait csak az exkluzív címek fogják jól kiaknázni. Emellett PC-n mindig nagyobb lesz a nyers teljesítmény a GPU-ra nézve, így a grafikára vonatkozó compute shader effektek is bonyolultabbak lehetnek.

    (#78) Sennalacy: Ma borzasztóan ügyelnek a fejlesztések arra, hogy a CPU és a GPU közötti összeköttetést ne terheljék túl, vagyis a minimálisnál több terhelést senki sem használ, még akkor sem, ha lehetséges lenne. Ezért nincs lényegi különbség a PCI Express 2.0 és 3.0 között a játékokban. Még az 1.1 is elég. Nyilván egyébként elméletben lehetséges lenne egy 3.0-s x16-os linket jobban használni, de akkor meg az káros lenne az aktuális konzolokra, és a régebbi hardverekre. Emellett ez a része a játéknak még csak nem is lenne skálázható, vagyis semmilyen szempontból nem éri meg a piaci elterjedtségben minimális részesedéssel bíró konfigurációkra fejleszteni egy programot. Főleg úgy nem, hogy a PCI Express kapcsolatnak van úgy jó 300 ns-os késleltetése, vagyis egy jelenet erejéig érdemes egyirányú kapcsolatként tekinteni rá.
    A mostani IGP-k valamire használhatók lesznek, de lesz amire nem. A kivágásra, az útkeresésre és a tartalomkikódolásra van esély, de a sorting például egységes címteret igényel, vagyis új fejlesztésű hardver kell. A fizika az bonyolultabb, esetenként lehetséges, míg esetenként nem.
    Az AMD elsősorban az OpenCL-hez áll hozzá barátian, ami a funkciók tekintetében érthető, viszont ezt az Intel nem úgy támogatja, ahogy az AMD, az NVIDIA pedig leginkább minimalizálja a támogatásba fektetett erőforrásokat. A támogatás tehát elméletben lehetséges mindenki részéről, de a gyakorlatban egyes cégeknek nem biztos, hogy belefér a stratégiájába.

    (#86) Atom_Anti: Bármit lehet kérni. Más arányt a CPU-nál és a GPU-nál stb. Igazából az AMD azt fejleszti, amit a megrendelő kért. Ha az egyik gyorsabb lesz a másiknál, akkor a megrendelő kérte ilyenre. A fejlesztőcsapatok amúgy sem érintkezhetnek egymással, szóval ezek leválasztott munkák.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák