Hirdetés

Hozzászólok Aktív témák

  • Jack@l

    veterán

    Nem láttam még jobb késleltetésű 3d-s sisakot konzolon 2560x1440-ben. (de akár lealacsonyodhatunk fullhd-ra is)
    Abu, mikor fogjuk ezeket megcsodálhatni a csodakonzolokon AAA-s játékkal?
    Már megint volt egy klis pc fikázás, amd meg konzol ajnározás, csak így tovább...

    [ Szerkesztve ]

  • jozsi

    tag

    Megoldás: Konzolt kell venni :DDD

    Keresek: e6600 dobozos, számlás, garós processzort. Van egy inno3d 6600-osom 256 mb-os AGP-s by ''razor91''

  • Segal

    veterán

    A haladást kéne még megoldani mert gyakorlatilag az összes videóba egyhelyben áll az illető és körbenézelődik ami persze pl autós játéknál nem probléma de pl egy fps-nél már annál nagyobb.
    Tudom hogy van az a "kerek" futópadszerű kiegészítő amivel megoldható a dolog de akkor is valahogy kompaktabbra kéne tervezni a megoldást mert egyrészt nyilván nem akar mindenki rohangálni játék közbe másrészt annyi hely sem áll rendelkezésre meg még millió másik ok.
    Én egyelőre a kézérzékelős változatot várom belőle reméltem hogy bejelentik a CES-en de sajna mostmár legjobb esetben is csak az E3 jöhet szóba.

    "Ez nem változtat azon, hogy tisztességtelen dolog botokkal felvásárolni 160-180e indulóáron a 3060 Ti-t, aztán 250e-ért árulni a HA-n." Ez miért lenne tisztességtelen? Te is meg bárki lesheti botokkal a boltokat, ugyanúgy meg tudod venni a cuccot azon az áron, mint a scalper.(1 házigazda válasz...)

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #1 üzenetére

    Az Oculus nem tervez kifejezetten a konzolokra. De nyilván ott egyszerűbb a helyzet, mert tetszőlegesen módosítható az OS és beépíthető az, ami nekik PC-n hiányzik. Igazából a legnagyobb gondjuk, hogy nincs semmilyen kontrolljuk a Windows fejlesztése felett és rengeteg OS limitációt kell áttrükközniük. Ez borzalmasan nehézzé teszi már az egészet, mert a hardverek is csak arra képesek, amit a szoftveres alap megenged.
    Nem számít, hogy a hardver mit tudna elméletben, ha nincs hozzáférésük a fejlesztőknek. Ezért kell most töredezni a támogatást, mert nincs egységes alap a PC-ben. Mindenkire külön kell optimalizálni, és úgy, ahogy az az adott architektúrának jó lehet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • alevan

    őstag

    válasz Abu85 #4 üzenetére

    Holnap érheti a fejlesztőket meglepetés a Microsoft sajtótákékoztatóján ezügyben?

    "Ezért lovagol a pokolba a konzumer IT piac. A hülye igények... . Azt sem tudod, hogy mit akarsz de az jöjjon havonta frissités formájában."

  • Reggie0

    nagyúr

    válasz Abu85 #4 üzenetére

    Ez nem kifogas, linuxot sajat szajizuk szerint ugy irhatjak at, ahogy akarjak:D

  • Abu85

    HÁZIGAZDA

    válasz Reggie0 #6 üzenetére

    Nyilván azért az 1%-ért az nagyon megérné. :D

    (#5) alevan: Majd kiderül. Probléma a hardverek különbsége is, szóval ha a DX12 végül kap is opcionálisan async compute és async DMA fejlesztéseket azt lényegében csak a GCN tudja majd igazán hasznosítani. Tehát mindenképp kell mindenkitől olyan modern architektúra, amivel az async warp hatékony lehet trükközés nélkül is. Amíg ezt csak az AMD tudja biztosítani, addig elengedhetetlen az alternatív optimalizálás az NV-re és az Intelre. Ergo marad a töredezettség.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Dark Archon

    addikt

    Hát, szvsz ez is pont ugyanarra van kárhoztatva, mint a Google szemüvege. Rövid időn belül a süllyesztőbe vész.

    Dark Archon | i5-8600 - RTX 3070 - 16Gb - Windows 10 x64 | BF4: DarkArchonHUN

  • Jack@l

    veterán

    válasz Abu85 #4 üzenetére

    Akkor mért nem a pofonegyszerűen programozható és végtelen erőforásokkal felvértezett konzolokra csinálják? Kereslet biztos lenne rá...

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #9 üzenetére

    Mert az Oculusnak nincs lehetősége a konzolra megfelelő fejlesztőkörnyezetet írni. A Sony és az MS nem engedi meg. Enélkül pedig nincs meg a VR-hez szükséges szoftveres alap. Ez semmi személyes csak üzlet. A Sony a VR-t magának akarja, csinálnak egy saját kiegészítőt, a többieket pedig arra kényszerítik, hogy ha akarnak VR kiegészítőket, akkor is a Morpheus SDK-ját kell használni. Ez viszont annyira a Sony eszközére van szabva, hogy csak azzal ad majd jó eredményt. Egyébként nem hiszem, hogy akadálya lenne, hogy a Rift működjön a Sony SDK-jával, csak a VR nem azon a szemüvegen múlik, hanem az SDK, az OS, a program, a hardver és a szemüveg tökéletes összehangolásán.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Jack@l

    veterán

    válasz Abu85 #10 üzenetére

    Sony-ék is küzdenek már vagy háromnegyed éve vele. (akkor volt az első bemutatója) Azt azóta sincs végleges termék.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #11 üzenetére

    Naná, ezzel mindenki küzd, csak a Sony-nak annyi előnye van, hogy a teljes rendszer felett kontrollja van, így ha valami gond van az OS oldalán, akkor nem trükköket keresnek, hanem módosítják az OS-t. Ezzel nem tud versenybe szállni senki, de az Oculus nem is akar. Ők tökéletesen tisztában vannak vele, hogy a Sony a teljes kontroll miatt jobb megoldással tud majd előállni. Ezért koncentrál az Oculus a PC-re, ahova a Sony nem is hozza a termékét. Nem ellenfelei egymásnak, de persze egyébként lopják egymástól az ötleteket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Jack@l

    veterán

    válasz Abu85 #12 üzenetére

    Mindenesetre kívánbcsi leszek rá, hogy májusban ki fog életképesebb megoldást kiadni...

  • Menthirist

    veterán

    válasz Jack@l #13 üzenetére

    én még mindig arra leszek kíváncsi, hogy teljes kontroll ide vagy oda, legalább 1080p @ legalább 60, de inkább 75 vagy 90 kell, és itt nem lehet amögé bújni hogy "a 30 fps filmszerűbb", "senki sem látja a különbséget" vagy "ha játéktechnikailag dönteni kell felbontás és sebesség között, akkor inkább legyen csak 30 fps"... Kell az 1080p @ 75 fps, és kész. Nincs mese, nincs kertelés.

    mert ugye egyelőre ezeket láttuk, és az 1152 gcn mag, 32 ROP, 72 TMU az évek során sem lesz több. Ezek fizikai korlátok.

    no meg a content... mire fog több érdekes app jönni, pc-re ahol milliónyi indie fejlesztő van, vagy ps4-re, ahova azért elég erős megkötések vannak hogy mi mehet ki és mi nem. Mert kezdetben ugye az innováció fogja vinni a területet, hajunkra kenhetjük ha egyik oldalon 3-4 játék jön vr támogatással a következő két évben, a másikban meg meg mondjuk 100 (mégha az AAA címek nincsenek is többen)

    [ Szerkesztve ]

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #14 üzenetére

    A teljes kontroll ennek a rendszernek a kulcsa. Rengeteg trükközésre van lehetőség. Az async warp az egyik, ami például PS4-ben jól fog működni, mert teljesen letervezhető az egész. Kihasználhatod azokat a feldolgozási réseket, amikor az ALU kapacitás kihasználatlan. Rengeteg ilyen van. Plusz ott az OS-ben a grafika preempció, ami biztosítja a grafika tökéletes számítását.
    Ott a sztereó 3D, ami egy másik érdekes terület. Itt nem lehet trükközni, mert kell a két kép a szemeidnek, de a PS4-en nem kell kiszámolni kétszer a geometriát, hanem tovább lehet küldeni azt két kamera nézőpontjába. Rögtön megint egy csomó munkától megszabadítottad a rendszert, és nem romlott a minőség. Erről pofáznak egy éve a fejlesztők PC-n, hogy nem ér semmit a nagy TFLOPS, ha nem nyúlhatsz hozzá a hardverhez.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • cacasz02

    aktív tag

    válasz Abu85 #15 üzenetére

    Ha esetleg építenének egy sima pct linux alapon és együtt adnák az oculusszal játékokat erre a spec rendszerre írnák, szerintem még akkor is megvennék ha drága lenne. Mintha konzolt csinálnának. A vr biztos hasítana.

  • Abu85

    HÁZIGAZDA

    válasz cacasz02 #17 üzenetére

    Ezt csinálja a Valve a SteamOS-sel. Az a Linux disztribúció elsődlegesen a VR-hez való módosításokat ülteti be a rendszerbe, de láthatóan nem egyszerű ez sem.
    A VR valószínűleg így is hasítani fog, csak PC-n háromszoros munkát kell hozzá végezni az optimalizálás során. Ezért jött szerintem az SDK rendering, hogy ezzel ne a fejlesztőket terheljék. Pár év és szabvány szinten normalizálódhat a helyzet.
    Önmagában nincs baj a trükközéssel ilyen formában, csak a szoftverfejlesztésnél nagyon drága mulatság.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Menthirist

    veterán

    válasz Abu85 #15 üzenetére

    Viszont nem lehet textúrából másolni, mímelni sztereo esetben a dolgokat (normal map, height map, stb), egyszerűen KELL a geometria. Ez megint eltolja egyirányúvá az igénybevételt...

    és ne felejtsd el, hogy jön a dx12 és már van mantle, amivel várhatóan mindkettővel fényévekkel nő az hardver elérhetőség. már lesz dx12, amikor a jelenlegi konzolgeneráció az élettartanának a felénél (se) fog járni. Vagy komolyan azt gondolod, hogy annyi tartalék van fizikailag ennyi hardverben (amik ugye magukat a számításokat és egyebeket végzik, szóval kőkemény hardver limit), hogy tartani tudják a tempót a következő mondjuk 5 évben, tehát kb 2019-2020-ig? Ne vicceljünk már.

    Szóval lehet hogy nem számít semmit a tflops, ha nem lehet kihasználni, DE:
    1: épp most ugrik fényéveket a téren a PC. Tehát sokkalta effektívebben lehet majd kihasználni
    2: akkor sem ér semmit egy rendszer, ha van mondjuk 1,2 tflops-a (xbox one), és az élettartama végéig ez bizony ennyi is marad. És lehet hogy pc-ből csak 25%-ot lehet kihozni mondjuk, de ez már most több, mint amennyi a one-ban van. Érted, MOST. Jövőre ez nő. Jövő után is. Az után is. Az után is. Az után is. És a konzol még marad ugyanitt akkor is.

    A fizikai korlát az fizikai korlát. Ezen nincs mit szépíteni. Szép dolgok a szoftveres dolgok, de a végén mégiscsak ki kell majd számolni a dolgokat. A vége akkor is csak matek. Hiába spórolod meg a számítások felét, ha még így is fizikailag a limithez érsz... Persze tegyük hozzá, hogy hány csapat képes ténylegesen mindent kihajtani ilyen szinten a konzolokból. Nem gondolnám hogy tolonganak.

    Szóval ennek az első lépcsőfoka az Uncharted 4 lesz. A legdurvább legnagyobb tudású csapat fejleszti, de még ők is elkezdtek kissé óvatosan fogalmazni a kezdeti "istenbizonyhogyfullhd60fpslesz"-hez képest, hogy "ha a játékmenetet nem befolyásolja, meglesz a 60 fps". Szóval ha nekik valami oknál fogva nem sikerülne a 60 fps, már most lehet temetni a rendszert. Ha sikerül, akkor adok még nekik 1-2 évet, aztán megáll a "nagy" fejlődés. Elkezdenek jönni a kifogások.

    [ Szerkesztve ]

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • DeRP

    csendes tag

    Az nagyon derék, hogy ilyen egzotikus dolgok vannak a konzolokban, csak azt nem értem honnan fogják a kakaót szedni a többlet frameratehez (tudom páör of da kláud).
    Jelenleg ott tartunk, hogy ebben a hónapban kijött egy prevgen sandbox játék (saints row 4), ami képes 30 alá droppolni annak ellenére, hogy 60-asként volt marketingelve és kijött a REmake, egy Gamecube(!) játék, ahol egy statikus kép és pár db karaktert kell megjeleníteni és ez is 30-as framecap-el fut.
    Aztán lehet még sorolni, hogy a nagy mágus Naughty dog is kioldalgot a 60 fps-es Uncharted mögül, valamint a 343 újgenerációra kiadott Halo játékai is lifteznek fel-alá néha eltalálva a PR dumában elhangzottakat.
    tldr: inszájder infónak tökéletesek a cikkben leírtak, de a végső produktumok fényében nem feltétlen kéne túlzott elvárásokat kelteni a jelenlegi dobozokat illetően.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #19 üzenetére

    Alacsony szinten úgy trükközöl, ahogy akarsz. A tied a teljes memória. Bármit meg lehet csinálni, amit elgondolsz.

    A DX12-ben még nem biztos, hogy lesz elehetőség async compute és async DMA-ra. Enélkül a GPU kihasználása nem növelhető. Persze adja az ég, hogy belekerüljön.

    A fizikai korlátokra láttunk már példát a PlayStation 3 esetében. Első és utolsó Naughty Dog játék. Iszonyatosan sok kihasználatlan lehetőség van most is, amit persze nyilván kihasználnak, hiszen biztos a 10 éves élettartam, így megéri befektetni. PC-n akkor sem fogunk ilyen szintre lemenni, mert nem garantálja senki, hogy 10 évig itt lesz a hardver.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Menthirist

    veterán

    válasz Abu85 #21 üzenetére

    Abban ugye azért egyetértünk, hogy akármilyen low level szinten is trükközöl, nem lesz egy 100 lóerős kocsiból 10 ezer.

    "A fizikai korlátokra láttunk már példát a PlayStation 3..."
    Jah, láttunk... a TLoU esetén pár elől lévő modell kivételével mindenhol nevetségesen low res textúrák, low res dof, 720p @ 30 fps. Valóban azt látni, mennyi mindent sikerült kipréselni, és nem azt, hogy milyen korlátok és kompromisszumok árán (mindamellett hogy a játék ettől függetlenül nagyon szuper lett, de most nem is erről beszélünk). Ekkor már nagyon sok pc-s játék fullhd-ban 60 fps-sel tolt ennél részetesebb elő és háttérrel rendelkező grafikát, fizikát, stb. Nagyon dícséretes hogy képesek voltak erre egy ps3-ból, de ettől látni kell hogy bizony erre akkor már pc is képes lett volna, nagyobban, részletesebben, gyorsabban. Szóval lehet hogy nagy ugrás volt, de látni kell mellette a másik platformot is, mire jutott.

    Mert ha azt vetíti elő a jelenlegi generáció is is, hogy 1 (!!!) csapat (a több tucatnyiból) képes lesz valami hasonló grafikai növekedésre , csak épp 1080p 30 fps-sel 2020-ban, akkor köszi, nem kérem. 2020-ra én már 4k-t várok 60 fps-sel, meg második generációs vr-t hasonló felbontással nagyobb sebességgel és extrákkal. Ezt tudja garantálni a jelenlegi ps4? Kötve hiszem.

    [ Szerkesztve ]

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • Márton

    nagyúr

    válasz Menthirist #14 üzenetére

    Mármint 1080p/szem, mert ha a kettőre értetted, akkor ott még
    igencsak látszanak a pixelek kis FOV-on is. Tapasztalat.

    Edit nem ment idE <== :)

  • Menthirist

    veterán

    válasz Márton #23 üzenetére

    Azért ez optika kérdése is, ha valaki nem nyújtja szét úgy a képet, hogy nagy fov-ot betöltsön, akkor nem annyira zavaró az 1080p mint szélesebb látótér esetén. A morpheusról a legfrissebb pletykák is még csak 90 fokos fov-ot mondanak. meg 1080-at 60 fps-sel.

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • morgyi

    nagyúr

    Szokásos next-gen grafika/GPGPU/gaming hír, az AMD visszamenőleg 2012 óta támogat olyan dolgokat, amire az iparág még nem is gondolt. Intel/Nvidia megragadt valahol 2009-ben.

    A Linux rendkívül felhasználóbarát, csak megválogatja a barátait

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #22 üzenetére

    Nem is kell, de elég messze vagy a hardver kihasználásától ma PC-n és új generációs konzolon is. Nyilván a PC-n az új API-k többet segítenek, mint konzolon, mert ott pár játék már eleve low-level hozzáférésű, bár a többség nem.

    Az egész valós idejű számítógépes grafika egy nagy trükközés. Hogyan tudnánk valamilyen hamisítással valami jobbat elérni. Ez PC-n is így van/lesz, ahogy konzolon is. A különbség csak annyi, hogy a mai, innovációt nélkülöző post-process trükközésből elindulunk a filmes CGI lemásolása felé. De itt is lesznek trükkök dögivel.

    A számítógépes grafika egyik hátránya, hogy a tartalmat rajzolni kell, és ott pedig a pénz korlátozza a lehetőségeket.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz morgyi #25 üzenetére

    Szerintem ők sem azért építették a GCN-t stateless compute hardvernek, mert gondoltak 7 éve az async warp fontosságára. Egyszerűen csak az történt, hogy az AMD az új generációs GPU kérdését úgy közelítette meg, hogy legyen egy általános processzor, ami képes grafikát számolni. Míg a többiek ezt úgy közelítették meg, hogy legyen egy grafikára jó hardver, amely képes általános számításokra is. Ez teljesen normális azt figyelembe véve, hogy a többektől senki sem kért két olyan konzolt, ami 10 éves életciklust levisz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Menthirist

    veterán

    válasz Abu85 #26 üzenetére

    De kitértél a kérdésem elől. Látod-e vagy sem a jelenlegi konzolokban, hogy 4k-t 60 fps-sel ki tudjanak tolni az élettartamuk vége felé, amikorra a pc várhatóan ki fogja tudni (sőt bizonyos játékokban már most is megy a 3x4k @ 30 fps a pocsék kihasználással). Képes lesz-e vagy sem a morpheus feletti értékekkel (tehát 90 fok fov, 1080p 60 fps feletti) renderelni, mert azt követeli meg a vr (carmack és abrash is elmondta, hogy a 60 fps a nagyon nagyon minimum, ennél jócskán több kellene mind felbontásban mint sebességben, plusz olyan dolgok mint szemkövetés, stb).

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • Jack@l

    veterán

    válasz Abu85 #15 üzenetére

    ŐŐ, nem akarok hülyeséget mondani, de a geometria pont az a dolog, amit a kamera nézőpontjából számolunk... :)

  • Abu85

    HÁZIGAZDA

    válasz Menthirist #28 üzenetére

    Nem. Sosem volt cél. 1080p lesz a felbontásuk az életciklus végéig. Viszont képesek olyan dolgokra, amelyeket PC-n nem érhetsz el. Mint például a HRAA, ami megoldja az aliasing problémát 4K-s kijelzőn is. Bár ez attól függ, hogy ki mennyire koncentrál 4K-ra egy analitikai rendszerrel. Egyre több dolog mutat afelé, hogy a 4K lesz az új sztereó 3D. Ha nem terjed, akkor nincs értelme foglalkozni a kérdéssel.

    A 1080p 60 Hz VR-nél nem lehet probléma. De ez nagyrészt egy szoftveres kérdés.

    Elképzelhető egyébként, hogy pár játék 4K-s felbontást is kap. Az aktuális SDK nem enged 1080p-nél többet, de nyilván teoretikusan beépíthető a 4K, ha a Sony úgy gondolja, hogy szükséges.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Márton

    nagyúr

    válasz Menthirist #24 üzenetére

    Épp ezért írtam, hogy tapasztalat.
    Jelenleg kis FOV-val nézek egy 1280-as kijelzőt, és igen zavaróak a pixelek.
    Biztos, hogy fullhd-nél is még látnám, de már nem zavarna ennyire.
    És akkor hol van még a 90-100 fokos FOV?
    Samsung már 2560-nál jár :)

    Edit nem ment idE <== :)

  • Menthirist

    veterán

    válasz Abu85 #30 üzenetére

    Szóval már most jön a "nem ez volt a cél", meg a "majd AA-val mímeljük negyedannyi felbontásból és felskálázzuk" szöveg. És még csak egy éve vannak kinn :) Arra meg ugye nem kell hogy felhívjuk a figyelmet, hogy nem csak tévés 4k-ról van itt szó, hanem mindennemű felbontásnövekedésről, ami hasonló terhelést igényel (vr terén még bőven nőni kell, de vicc hogy már a telefonok fullhd felett operálnak nem ritkán, beleértve nem rossz grafikájú játékok megfelelő sebességgel való futtatását egy p*csányi gpu-n)

    Szóval nekem inkább egyre több mutat afelé, hogy a legjobb esetben is azt érhetik el a konzolok, hogy növekvő grafikai minőség mellett elérjék stabilan az 1080p-t és a 60 fps-t. de ekkor már nagyon eleresztettem a fantáziámat. 1440p és feletti 90hz-en? ne vicceljünk már.

    "A 1080p 60 Hz VR-nél nem lehet probléma"
    Aha, akkor talán erre hívd fel a figyelmét Carmacknak és Abrashnak is, mert ők egy hangyányit máshogy látják. Mármint problémának nem probléma, első lépcsőfoknak már nem annyira fájó. Érted, első (!) lépcsőfoknak.

    "de nyilván teoretikusan beépíthető a 4K, ha a Sony úgy gondolja, hogy szükséges."
    Persze, ma is vannak játékmotorok, amik képesek 16k-ban is megjeleníteni, csak épp diavetítésben. Ezzel sokra nem megyünk.

    Amint ezzel ellentétes tendenciát fogok LÁTNI (értsd, nem elmesélés, pletykák, hanem leszállított termékek terén), akkor majd talán elkezdek hinni benne. Addig viszont nem. Mesét és marketing szöveget hallgatok már sok sok éve, kezd "kissé" elegem lenni belőle, hogy mindig van valami "de" meg "amúgy így akartuk", és sosem kapjuk meg amit híresztelnek.

    Márton: a Crescent bay-nél talán 100 fok a fov, és 1440p a kijelző. Ott már azt mondták, hogy ha az ember koncentrál rá, akkor még láthatja, de már semmiképp sem zavaró a screen door effect.ű

    btw egy helyen olvastam hogy 1440p-re tervezik a morpheust is (ugyanúgy 90 fok fov mellett). És hát 1440p 60 fps-t is szívesen várjuk konzolon :P Nem kevés munka elé állítja majd a fejlesztőket :P

    [ Szerkesztve ]

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • Somebody_HUN

    csendes tag

    válasz Menthirist #19 üzenetére

    Jó dolog a pc-s alacsony hozzáférés, de elég sok kérdést is felvet. Egy új játéknál pl 3 évig visszamenőleg, minden VGA-ra optimalizálni fognak? Vagy éppen az évi új termékcsaládra? Cserélgetjük majd a kártyákat évente?
    A másik pedig, egy 1 éve kijött játék jobban fut majd a "tavalyi" "elavultabb" hardveren? Vagy egy játékot 10 évig optimalizálnak majd az éppen aktuális VGA-kra?
    Eddig is jobban szerettek fejleszteni konzolokra az állandóság miatt, most lehet, hogy még inkább.

  • Menthirist

    veterán

    válasz Somebody_HUN #34 üzenetére

    Miért kellene mindegyikre külön? Mindkét api alapvető tudást feltételez, amire a fejlesztők építhetnek. xy módon el lehet érni a memóriát, xz módon lehet magnak feladatot adni, tud önmagának feladatot adni, stb. Amíg ezeket a követelményeket bármelyik új kártya támogatja, addig menni fog. Optimalizálás terén pedig max főágakra lehet nézni, tehát gcn optimalizáció meg nvidia optimalizáció (aminél viszont kevésbé van megkötve a kezük, transzparensebb a működés, kevésbé feketedoboz mint a dx11 volt, ergo könnyebb is optimalizálni). Ahogy eddig sem kellett évente kártyát cserélni mert nem jött új directx, úgy a későbbiekben sem fog kelleni. Több munkájuk lesz vele mint csak egy vga-val lenne, viszont többet is fog bírni.

    "Eddig is jobban szerettek fejleszteni konzolokra"
    Aha, ezért van az, hogy pc-re több fejlesztő dolgozik perpill, és több az is, ahol az egyik konzol + pc a felállás, mint a csak egy platformra exkluzív (csak max olyanok, ahol a marketing megköveteli, pl halo, vagy uncharted). Annyira nem szívesen fejlesztenek konzolra, hogy a legtöbb épp eszembe jutó új játékmotor pc-t is támogat, pl fox engine, snowdrop engine, luminous engine, frostbite 3, új cryengine, ue4, stb. Biztos csak véletlenül tették bele. Biztos Kojima is véletlenül hozza az új mgs-ét pc-re is. És biztos csak véletlenül van belőle akkora bevétel, amekkora.

    [ Szerkesztve ]

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • morgyi

    nagyúr

    válasz Menthirist #35 üzenetére

    Mivel nem láttam még PS4-en vagy XBO-n futó SDK-t ezért persze hogy minden motornak lesz egy pc-n is futni képes változata, mert szerintem első körben tuti hogy egy brutál pc-n próbálják ki élesben, mert az optimalizálatlan kód megenné a konzolt.

    A Linux rendkívül felhasználóbarát, csak megválogatja a barátait

  • Menthirist

    veterán

    válasz morgyi #36 üzenetére

    miért, már ps3-on is lehetett egyből windowsról ps-re fordítani és futtatni a kódot. persze célszerű hogy legyen pc-s verziója is, elvégre ott a legegyszerűbb elkezdeni, de a felsoroltak (kivéve a luminous motor, bár azt épp a kingdom hearts 3 is otthagyta) mindegyike bejelentett pc-s címmel is bír. luminous-ra egyelőre csak az ff 15-öt tudom hogy jön, az ps4 és xbone only. de ez persze nem jelent még semmit.

    [ Szerkesztve ]

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • morgyi

    nagyúr

    válasz Menthirist #33 üzenetére

    Bár nem nekem címezted, de ha megbocsátasz néhány dolgot kiemelnék:

    vr terén még bőven nőni kell, rossz grafikájú játékok megfelelő sebességgel való futtatását egy p*csányi gpu-n)
    Ha a picsányi GPU-n komoly játékokat futtatnak fullHD felbontás mellett, viszont a nyers számítási teljesítményben sokszorosát nyújtó konzol vason, alacsony hardverelérés mellett, durván 2012 óta (GCN) és jól dokumentált architektúrán.

    Másrészt meg a PS3-at az életciklusa vége fele totál máshogy programozták már mint az elején. Először csak a PPE+SPE-ket csak mint egy sokmagos CPU használták, a GPU-t meg grafikára. A végén mikor már erősen fika volt a GPU, akkor az SPE-k is számolták a grafika bizonyos részeit.
    Biztosra veszem, hogy bármennyire is megy a next-gen duma a motoroknál, de amíg készül arra a motorra épülő last-gen port, addig úgy használják a konzol APU-t mint ha egy külön álló CPU+GPU lenne.

    A Linux rendkívül felhasználóbarát, csak megválogatja a barátait

  • morgyi

    nagyúr

    válasz Menthirist #37 üzenetére

    Figyelj, majd ha GPGPU-val számolt az eddigieknél fényévekkel jobb mesterséges intelligenciát látok, vagy ha a fizikai és részecskeeffektek a játékmenetre is hatnak, nem csak látvány, mert vissza lesz írva a jelenetbe, és ezért mondják azt, hogy na ez nem jön pc-re, akkor elhiszem hogy next-gent dobtak ki, minden más egyenlőre marketing. Vagy ha azt mondják hogy NV-n/Intelen korlátozott lesz az effektek száma, mert meghaladjuk a 8 UAV-t akkor elhiszem. Eddig ez még mind last-gen amit láthattunk, csak szebb a konzolokon, mert erősebb a vas.

    A Linux rendkívül felhasználóbarát, csak megválogatja a barátait

  • Menthirist

    veterán

    válasz morgyi #38 üzenetére

    Az első jogos, de azért látni kell hogy azok sincsenek még sehol az igazi pc vagy konzol grafikához (pedzegetik hogy a legújabb telefonok már xbox 360 grafikát tudnak, de hát látható hogy mekkora még a táv). Ugyanakkor ott más is zajlott le mint konzoloknál. Adva volt egy platform, ami hardveresen ÉS szoftveresen is egyszerre tudott nőni, egymást húzták. Ez a konzolnál csak szoftveres, hisz a hardver fix. Csak ha telefonon elfogy a hardver, akkor vesznek másikat, konzolon nem ez a helyzet. Nem is fejlődött volna ennyit, ha 6-8 évvel ezelőtti szinten (de akár 5-6 is) megragad a hardver. Szóval a felvetés jogos, de a hatás szerintem nem vonatkoztatható át, mivel nem a meglévőt használják ki egyre jobban és jobban, hanem simán csak jönnek az egyre erősebb eszközök, és most már apple oldalról egy low level api.

    A második résznél pedig igen, eleinte máshogy programozták a ps3-at, és biztosan itt is máshogy fogják a ps4-et majd sok év múlva, mint most. De ott is már csak kínlódás volt az utolsó 1-2 év, hogy ki tudjanak még valamit préselni belőle, vagy hogy lehetne még máshogy csinálni a dolgokat, hogy valahogy, kompromisszumokkal működjön. Egy fejlődő hardveres platformon viszont még a kompromisszumok is olyanok voltak, hogy lett amilyen lett, majd elfut, és még ilyen körülmények között is felülmúlta a konzolokét.

    A felsorolt motorok pedig ha jól tudom már egyikük sem támogat old-gen konzolt. Minden bizonnyal nincs még kihasználva a közös címtér mint ahogy ki lehetne, sőt még az eszközeik sem feltétlen vannak meg hozzá teljesen, de nem hiszem el (mármint nem átvitt értelemben, tényleg nem hiszem el, amíg az ellentétét nem bizonyítják), hogy olyan sokszoros lenne a fejlődés, amit a pc ne tudna majd követni (pláne hogy APU van ám pc-n is, no meg az nvidia sem olyan kis szegénylegény, hogy ne találjanak mellette valamit ki). Lásd a portolhatatlan ignite engine és animációja, ami azért portolható lett, és igaz hogy csak minden második frame-en számol animációs lépést, de megy is 120-200 fps-sel. Szóval pc-n így is lefut 60-100-szor az animációs számítás, és még közeli képeken sem lockolnak 30 fps-re, hanem megy 60-80-on legalább.

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • Menthirist

    veterán

    válasz morgyi #39 üzenetére

    "és ezért mondják azt, hogy na ez nem jön pc-re, akkor elhiszem hogy next-gent dobtak ki"

    Ezzel most azt mondod, hogy next gen nem jöhet pc-re? :) Mert ezzel azt mondod :) Addig semmi sem next gen, amíg lehet portolni pc-re :)

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • morgyi

    nagyúr

    válasz Menthirist #40 üzenetére

    Amúgy az elsőt nem fejeztem be, nem tom mért :D Az lett volna a vége, hogy attól hogy a játékok szarul futnak nem biztos hogy a vas a hibás, mint ahogy nem a víz a hülye ha a hal nem tud úszni.

    Igazából egy olyan chipről beszélünk, aminek már kezdetekkor a nyers teljesítményét úgy számolták, hogy a CPU+IGP összeadva, nem a CPU külön meg az IGP külön. Nem véletlenül van benne 8 x86 meg meg 8 ACE, 1 x86 core kezeli 1 ACE feladatait és eteti adattal, ez az alapkoncepció. Nem az mint most a legtöbb PC-n hogy van egy CPU-m ami számol mindent a grafikán kívül, a GPU meg csak grafikát számol, köztük adatmásolás meg legyen minél kevesebb.

    Már sosem fogjuk megtudni hogy mi lett volna, ha a gyártók nem engedélyez a grafikai számításokat az IGP-ken, hanem úgy harangozzák be hogy 4 egyszálas teljesítményre + 256 többszálas teljesítményre optimalizált mag. Akkor lehet nem feleslegesen csücsülne mert nem tudna mást csak besegíteni az x86-os magoknak számolni. Egy jó VGA meg maradna csak grafikára amire most is. Egyből nem lenne fanyalgás hogy gyenge játékra az IGP.

    A bevételek is megmaradtak volna, mert a mind1 csak képet adjon VGA-kat vinnék, mivel nem váltanák ki az APU-k, és akár az Intel is adhatott volna ki PCI-E VGA-t az alsó kategóriában.

    Az Ignite-ról meg csak annyit, hogy képzelem mennyire next-gen volt, ugye azt mondták hogy annyira használja a közös címteret, mivel minden animációt GPGPU-n számol hogy lehetetlen portolni pc-re. Aztán mégis lehetett, egy felezős kamu trükkel. Szóval 0 fejlesztés volt benne, csak a habi.

    A Linux rendkívül felhasználóbarát, csak megválogatja a barátait

  • Menthirist

    veterán

    válasz morgyi #43 üzenetére

    "attól hogy a játékok szarul futnak nem biztos hogy a vas a hibás,"
    Persze hogy nem. De azért abban egyetértünk hogy mindegy, hogy a fejlesztő vagy a hardver a ludas, a végeredményben a user kap kevesebbet, mint amit a marketing gépezet beígért.

    "Igazából egy olyan chipről beszélünk, aminek már kezdetekkor a nyers teljesítményét úgy számolták, hogy a CPU+IGP összeadva, nem a CPU külön meg az IGP külön"
    A teljesítményt (elméleti teljesítményt) úgy számolták, hogy hány gcn mag van, az órajelentként hány műveletet tud elvégezni, és milyen órajeleken mennek.

    "Nem az mint most a legtöbb PC-n hogy van egy CPU-m ami számol mindent a grafikán kívül, a GPU meg csak grafikát számol, köztük adatmásolás meg legyen minél kevesebb."
    Ami ugye pc és konzol oldalon is egyszerre változó tendencia mostmár.

    Az ignite engine-ről pedig egy évvel korábban minden fejes (és sok oldal is) váltig állította és esküdözött a családjára, hogy márpedig nem lehet portolni, mert hsa meg közös címtér és pc-n ilyen nincs, nem is lesz, kész, nincs miről beszélni. Egy évvel később jött a pc-s port, és kétlem hogy abban az évben világosodtak volna csak meg, hogy jééé, ezt így is lehet csinálni... :D

    Szóval azt kell látni, hogy HSA már most is van pc-n, low level api (még ha nem is olyan mélységű) már most is van pc-n, az amd most akarja elvileg kihozni a HBM-et, és most el lehet fantáziálni, hogy ha sikerül, akkor mondjuk 2017-8 körül kijöhessen egy HBM-mel szerelt apu több gcn maggal mint ami a ps4-ben van, mindamellett hogy addigra a jelenlegieknél 2x erősebb vga-k lesznek már. És hozzáteszem, még ekkor sem vagyunk a konzol életciklusának végén. Ez van akkor, ha az egyik platform fejlődik a 7-8 év alatt, a másik nem, egy olyan világban, ahol a technika piszkosul fejlődik és 7-8 év nagyon sok.

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • morgyi

    nagyúr

    válasz Menthirist #41 üzenetére

    Gondolom te is elismered, mert remélem hogy vagy annyira tájékozott, hogy amiatt hogy a GPU és a CPU nem két független hardverelem, hanem jól együtt tudnak működni, és számos olyan számítást számolhat a GPU ami meg sem kottyan neki sok esetben. GPGPU effektek, részecskeszámítás, fizika, időjárás szimuláció stb... és ezek közül sok azonnal felhasználható a jelenetben, ráadásul sok ezek közül aszinkron módon futtatható, azaz nem kell miatta megszakítani a grafika számolását (0 fps esés).
    Viszont ehhez kell az on-die IGP és a közös címtér és a megosztott memória, amit egyedül a Kaveri tud kínálni, ott is szar hatásfokkal mert kevés az IGP-nek a DDR3. (Gondolom ezt sem vitatod, miért rosszabb egy DDR3-as VGA mint egy GDDR5-ös)

    Ha a konzol az low-level apiból adódó eddigi előnyét is elveszti, viszont a motorokat ugyan úgy ósdi módon (CPU számol, GPU csak grafika) akkor az ugyan ezt tudó, de akár 10x 20x erősebb PC szarrá alázza. És tényleg ki lehet jelenteni hogy harmatgyenge, mert egy tabletbe szánt 8 magos proci + egy alsó közép VGA-s pc igazából.

    De csak azt merném én személy szerint next-gennek nevezni ami nem az ezer éves berögződést követi, hanem használja a vas azon erősségét amire tervezték. Mert ennyiből kérhettek volna az Inteltől egy Core M szintű 8 magos procit, meg az AMD-től külön egy komolyabb GPU-t aztán nyers erő megoldva.

    A Linux rendkívül felhasználóbarát, csak megválogatja a barátait

  • Menthirist

    veterán

    válasz morgyi #45 üzenetére

    persze hogy van ami ennek, van ami annak a kényelmesebb... Viszont ugye minden olyan szimuláció, ami gpu-n fut, mert ott a gyorsabb, elvon másoktól erőforrást, ami még azért szeretett volna hozzáférni. De maradt a cpu, vagy vár. Na most egy olyan rendszeren, ahol a cpu számítási kapacitás a többszöröse, gpu-ról meg aztán nem is beszélve, egész egyszerűen több tiszta erőforrás adott. Ha aszinkronban is képes futni, mint mantle alatt, akkor meg pláne milyen lehetőségek vannak előtte. Lehet hogy ennél meg kell szakítani a számítást, amíg rádolgozzuk a végső frame-re a dolgokat, de ha ezt ennek ellenére gyorsabban végzi el, akkor ez hol probléma?

    Mondok egy példát. Az egyik esetben gpu és cpu összedolgozása esetén 16 msec (60 fps) alatt sikerül kiszámolni egy frame-re tartozó összes látványt, fizikát, stb. A másik esetben elmegy 8 msec a másolgatással de 4 alatt végez az egész egyszerűen 4x akkora számítási teljesítmény miatt. A végeredmény egy gyorsabb program. Vagy ugye 4096 gcn mag egész egyszerűen egyszerre sokkalta több utasítást tud aszinkron is számolni a háttérben, mint amikor 1152 van mindenre, közben a konzolnál az x86-os magok teljesítményének nem kis része elvan azzal, hogy etesse a gpu-t, míg pc-k esetén már egy sima 8350-es is többszörös erőre képes (tehát neki is jut ideje matekozni, másolgatni, stb), hát még egy i5 vagy egy erősebb i7 a magasabb ipc-vel. Van idő mondjuk tömöríteni az adatot, és lüktetni a vram és a rendszer memória között.

    Nem kell magyarázni a hsa előnyeit, ismerem őket, és egy nagyon szuper dolognak tartom. Csak szerintem "kissé" el van túlozva, hogy ez játékokban milyen szinten egetverő előnyt ad majd, pláne hogy csak a konzol szoftveres fejlődését veszik alapul. Mert nem csak konzolra jelennek ám meg majd új algoritmusok...

    [ Szerkesztve ]

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • Gainka

    őstag

    Soha nem értettem mi ez a nagy elvaras a konzoloktol. A konzol az egy szorakoztato dobozka es nem egy hobbi benchmark gamer pc. Hasra utesre az userek akik konzolt vesznek 98%-a lexarja hogy milyen soder van a jatekaba. Minden jo addig mig nem akad es egesz jol nez ki, el lehet vele utni az idot 5 meterrol a fotelban. Ott a jutyub meglehet nezni a one vs ps vs pc videokat. Szerintem belefer. Az hogy hogy lesz kesobb majd latjuk.

  • DeRP

    csendes tag

    válasz Gainka #47 üzenetére

    "Minden jo addig mig nem akad..."
    És pontosan itt kezdődnek a problémák :K

  • BazsiBazsi

    aktív tag

    Azt majd várom hogy 2K+ fusson valami konzolon. Még 1080p-ben se futnak a cuccok értelmesen ezeken a "next-gen"nek nevezett cuccokkal. Majd idővel rájuk is megtanulnak optimalizálni majd akkor, de gyanús hogy addig pcre is lesz hasonlóan VR kompatibilis architektúra

  • morgyi

    nagyúr

    válasz Menthirist #46 üzenetére

    Megint ott tartunk mint a többmagos processzorok környékén. Megy a vita hogy minek, de azért csak az látszik, hogy az NV is így fejleszt, az Intel is és nem véletlenül gyúrja a MIC-t, és az AMD régóta ezen halad. Szóval csak nem vakvágány. Vagy valaki rohadt gyorsan szóljon nekik hogy folytassák a sokmagos procik fejlesztését. (Hasonlít az érjük el a 10Ghz-et célhoz nem...?)

    Vagy hogy gyorsítanál számítási teljesítményt? Most tekintsünk el a játékokról. Szorítkozzunk általános számításokra, a GPU-n futtatni nem jó tegyük fel, mert a memóriamásolgatások miatt drágább a leves mint a hús.

    Több magot pakolsz a CPU-ba? Oké csináljuk azt, hatalmasra nő a hőtermelés épkézláb órajel mellett, nem lehet hűteni, mert egyre kisebb területre jut egyre nagyobb hőtermelés. Oké akkor csökkentsünk órajelet, akkor viszont nem lenne jobb egy magasabb órajelű kevesebb magos dizájn? Nincs is annyi szinkronizációs probléma.

    Még mindig egy GPGPU mag bepakolása volt a legkézenfekvőbb, mert pont azt küszöbölik ki, ami eddig hátráltatta az értelmes terjedését.

    Vagy még mi lett volna a lehetőség? FPGA amibe a szoftver futtatásakor töltődik be a bitstream? Még horror ára van, és még a teljesítmény sem elég hozzá.

    A Linux rendkívül felhasználóbarát, csak megválogatja a barátait

Hozzászólok Aktív témák

Hirdetés