Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Fiery #1 üzenetére

    Nem. Ők az LPP-re gyúrták. Az LPE nem érdekelte őket. LPP-ből úgy néz ki, hogy megelőzik a Samsungot. Bár nyilván ha lenne megrendelő a Samsung is tudna LPP node-on gyártani.

    A dGPU a TSMC-nél marad, mert nekik van tapasztalatuk a HBM-hez.
    A konzol die shrink nem valószínű, mert az AMD-nek minden shrink esetén joga van újratárgyalni a feltételeket. A Sony és az MS vállalta, hogy sosem kérik az AMD-t a veszteséges szállításra. Ez azt jelentené, hogy a FinFET lapka lényegében pár százalékos előrelépésért jelentősen drágább lesz, ami nem éri meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #12 üzenetére

    Nem mindegyiken lesz HBM, de a következő körben már nem csak a csúcskategóriában. Az AMD-nek logikus legalább két lapkát HBM-re tervezni, mert ők már ezzel nem kockáztatnak túl nagyot, hiszen egy csomó tapasztalatot gyűjtöttek vele a Fijivel.

    A FinFET leginkább ott segít, ha magas órajel kell alacsonyabb fogyasztással. A konzol esetében ez nem kritikus igény, mivel egyik APU-t sem tervezték magas órajelre. Egy 14 nm-es die shrink max fogyasztásban jó ha hozna -10-15%-ot, miközben az AMD számára újratárgyalási alapot adna az árakra.

    Ugye a legtöbben erről beszéltek az elmúlt években, hogy a 28 nm a váltópont. Onnantól kezdve ugyanazt a lapkát csak drágább lesz gyártani. 20 nm-en nem annyira, de 14 nm-en már lényegesen.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz derive #18 üzenetére

    A PSVR nagyrészt az új SDK-ra támaszkodik. Azért lesz a PS4-en a VR előnyösebb, mint PC-n, mert ugyanazt a gépet szállítják az otthonokba, amin a laborban tesztelik az élményt. PC-n az átfogó tesztelés szimplán nem lehetséges, mert még szabvány sincs VR-re. Van egy csomó dolog, amit az Oculus át akar tolni, de nem tudják, mert az MS és a Khronos beleegyezés nélkül nem módosíthatja az API-kat. A Sony minden ponton uralja a saját rendszerét, így olyan szoftveres módosításokat végeznek, amilyet akarnak. Az Oculus reménye a LiquidVR, amiben az AMD lecseréli a DX12/Vulkan VR-re nem alkalmas részeit, de ez is csak a Radeonokra működik, tehát azok számára ez nem megoldás, akik GeForce-ot, vagy Intel IGP-t használnak. Emiatt a töredezettség miatt sokkal átfogóbb az a rendszer, amit a Sony ad.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #23 üzenetére

    Nem a számítási kapacitás a VR legnagyobb gondja ma. Jó ha van, de ettől még sem a mostani és közeljövőben érkező API-k (DX12/Vulkan), sem az operációs rendszerek nem igazán alkalmasak arra, amit a VR valójában megkövetel. Például tökéletes front buffer leképezést egyetlen általános VR SDK sem tud. Pedig ez aztán baromira fontos, mert nem kell átmenni az OS több ms-os késleltetést hozzátevő kijelzőkezelésén. A Sony számára ezek a problémák nem jelentenek gondot. Megváltoztatják az OS-t a VR-nek megfelelően és kész.
    A VR PC-n nagyjából annyi, hogy az AMD LiquidVR csomagban benne van az, amit az Oculus bele akar tenni a szabványba, mert ezek sajnos szükségesen a jó élményhez, de ez a csomag gyártóspecifikus! Nem jelent általános megoldást, és az OS-t így is fejleszteni kell majd.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #25 üzenetére

    A konzolok sosem arra épültek, hogy legyen bennük számítási kapacitás, hanem arra, hogy ki legyenek használva. A konzolon olyan mélyre is le tudsz menni az optimalizálással, ameddig PC-n nem lehetséges, és olyan döntéseket is meghozhatsz, amelyeket PC-n a többi gyártó miatt nem. Például a PC-n egy ideje mondja az AMD, hogy a mutex zárolás az milyen jó dolog a grafikában, és erre építenek effekteket is. És az rendben van, hogy tényleg legalább tízszer gyorsabb ez az algoritmus, mint PPLL-nél, de csak GCN-en fut hibátlanul, mert más architektúra nem virtualizálja az LDS-t.
    Több tucat ilyen döntést meg lehet hozni konzolon, mert csak egy specifikáció van.

    Nyilván csinálhat az NV és az Intel is egy specifikus grafikus API-t, de ez nem két perc. Az AMD 2009-ben kezdett el dolgozni a sajátján.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #27 üzenetére

    Bizonyos programokban még annál is kevesebb a PS4 kihasználása. Eleve vedd számításba, hogy az alacsony elérését a konzolnak csupán a megjelent játékok alig pár százaléka használja. A többiek a magas szintű elérésen vannak. A libGNMX azért nagyságrendekkel rosszabb sebességű, mint a libGNM, nem beszélve arról, hogy most még mindenki az előző generációra írt technológiát portolta az új generációra. Például a PS4-nek inkább az fekszik, ha a futószalagok 80%-a compute és csak 20%-a grafikai. A mai motorokban ez az arány inkább 90% grafikai és 10% compute.

    A többiek valószínűleg a VR miatt nem kezdtek el dolgozni egy saját API-n, mert nekik a hardvereik sem alkalmas VR-re.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák