Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #2 üzenetére

    Az nem saját, hanem egy Imaginationtől licencet megoldás, amit kismértékben átalakítanak, de ennyi. A saját projektből végül nem lett semmi.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #4 üzenetére

    Tekinthetik annak, de ettől az ISA még mindig a Rogue-ből származik, a memóriamodell, a raszterizáló, a textúrázásra kialakított modell, a on-chip leképezés mind az Imagination IP-je. Az Apple csak annyit csinál, hogy az ALU-kat átalakítják egy picit, illetve ezek csoportosítását módosítják. Ez kb. olyan nehézségű munka, mint CPU-magokat tervezni, de a GPU-k valódi problémája a hardveres szálkezelés. Ott szokott megállni a tudomány a saját lábra állós projekteknél. Itt két lehetőség van, vagy dedikálnak minden hardveres szálhoz egy regisztert, ahogy az Intel teszi, vagy hagyják az egész projektet a fenébe és licencelik tovább az Imagination IP-ket, ahogy az Apple teszi ismét az év eleje óta, hiszen megújították a megállapodásukat az Imaginationnel. Egyik sem optimális megoldás például az Apple számára. Az előbbinél egy rakás tranzisztort elpazaroltak volna arra, hogy egyáltalán működjön a GPU, míg a másiknál egy külső cégnek fizetnek, hogy csinálja meg neked működőre és takarékosra, mert saját kútfőből nem ment.

    (#5) Samott: Nem árulták el. De az a demó csak a Rosettát prezentálta. Átírni az Apple GPU-jára sokkal nagyobb meló lesz. Azt nem tudod csak egy Rosetta-féle szoftverrel megoldani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kalimist #9 üzenetére

    Az a Metal és a hozzá tartozó fejlesztőeszközök érdeme, illetve a specifikusan optimalizált szoftverkörnyezeté. A teljesítményelőny nagy részének semmi köze a hardverhez, de mivel Androidon a Google-től kezdve, a Qualcommon át, az ARM-ig kb. mindenki magasról szarik bele, hogy a szoftveres háttér mennyire fos, így könnyű lehagyni a hardveres szinten gyorsabb IGP-ket is. Nem véletlen, hogy a Samsung a PowerVR és a Mali után dobbant Radeonra. A Malira és Adrenóra például ők írnak shader fordítót, hogy ne egy használhatatlan foshalmaz legyen a termék, amit ezekkel kiadnak. Emiatt van az, hogy a Samsung telókra sokkal hamarabb megjelennek az egyes játékok Vulkan portjai, mint a többi gyártó szintén malis és adrenós eszközére. Még a Google Pixel telefonjai is le vannak maradva, mert a gyári Qualcomm támogatást kapják, ami ugye nagyjából megelégszik azzal, hogy bekapcsol a termék.

    Szóval az Apple egyáltalán nem erős hardverben. Technikailag az A12 IGP-je erős közepes csak, ahhoz képest, hogy mik vannak az Androidon a csúcslapkákban (az újabb dizájnokhoz, például a Furiánhoz vagy a Valhallhoz képest pedig egyenesen sötét középkor). De hát a szoftver... :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tlac #12 üzenetére

    Hivatalosan az Apple ezeket támogatja. Ezekkel biztosra lehet menni: [link]

    De nem hivatalosan lehet próbálkozni. Ez viszont lutri.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Plazmacucci #16 üzenetére

    Le is írtam a hírben, hogy miért. Elég részletesen szerintem. Nem akarom bántani a médiát, nyilván nem mindenki ismeri a Metal szinteket, de ott van a quick guide is, hogy a Metal hogyan csoportosítja a hardvereket.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kalimist #19 üzenetére

    Többet is. A Samsung nem véletlenül akar tiplizni a PowerVR/Mali opciókról.

    GPU-t sokkal nehezebb tervezni, mint CPU-t. Az ultramobil megoldások nem skálázódnak olyan mértékben, amennyire például az RDNA. Az Apple azért nem megy 8 cluster fölé, mert az a skálázási határa az aktuális Rogue dizájnnak. Tehát a busz, amit épített az Imagination az nyolc multiprocesszorra van tervezve, és ehhez van igazítva maga a memóriamodell is. Utóbbi azt jelenti, hogy hiába építesz bele még nyolc multiprocesszort, nem fog tovább skálázódni. A GCN/RDNA skálázási limitje nem multiprocesszorhoz szabott, hanem szálakhoz, de a lényeg, hogy 40960 konkurens szál futhat a GPU-n belül, ami GCN és RDNA dizájnra levetítve rendre 40 és 20 multiprocesszort jelent maximum. Az RDNA2 kap más kódolási sémát, ami definiálja az új memóriamodellt, ez már 81920 szálig skáláz, vagyis 40 RDNA2 multiprocesszorig. Tehát az Apple dedikált GPU-jának ott ér véget a teljesítménye, ahol az AMD, Apple-nek szánt GPU-i kezdenek.

    Hosszabb távon az Apple valószínűleg Albiorix dizájnra vált, ami már modernebb a Rogue-nál, de azzal lesz egy igen kellemetlen problémájuk. Amíg a legtöbb GPU architektúra a latency és az throughput közötti optimális egyensúlyt keresi, addig az Albiorixot teljesen elvitték a throughput irányba, így az egy munkafolyamatra levetített teljesítménye rendkívül alacsony. Ezzel szemben az RDNA/RDNA2-t az AMD inkább a latency irányba vitte, vagyis az munkafolyamatra levetített teljesítménye a magas. Ezt sokkal könnyebb ugye programozni. De az Imagination esetében már látszott, hogy merre mennek, mert a multiprocesszoron belül a feldolgozás szélessége a Rogue 16 és a Furian 32/40 utas opciójához viszonyítva 128 utasra nőtt. Ez elképesztően széles vektormotor. Elsődlegesen azért ilyen, mert az ISA nem engedi skálázni a rendszert a multiprocesszorok számával, így a multiprocesszorokat tömik ki ALU-val. Az AMD RDNA a működési módtól függően 32 vagy 64 utas feldolgozást kínál. És a 32 utas módot pont azért vezették be, mert a 64 utas feldolgozást sokszor nem lehet etetni, erre az Albiorix dizájn bedob egy 128 utast. És akkor ezen futtasd jól a 16 utas Rogue-ra írt programokat.

    Szerintem az Apple azért is hanyagolta a Furiánt, mert már a 32/40 utas feldolgozót is szélesnek tartották. Ezért kezdhettek el anno saját dizájnt tervezni, csak az befuccsolt, így kényszerből visszatértek az Imaginationhöz. De ebből nem igazán lesz nagy teljesítményű dedikált GPU, mert annak olyan skálázhatósági limitek, amiket nehéz átlépni. Maximum azt lehet tenni, hogy egy lapkába többször rakják bele ugyanazt a GPU-dizájnt, és akkor lapkán belüli több GPU-s rendszert kapnak. Ez még megcsinálható, de ez meg hatékonyságban nincs ott, ahol a mostani dedikált GPU-ik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gliskard #21 üzenetére

    Ahhoz előbb teljesítmény kell. De pont ezt a legnehezebb nyerni ezekkel az ultramobil GPU-kkal. Nem mellesleg a portolás az Imagination dizájnjaira nagyságrendekkel nehezebb lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gliskard #23 üzenetére

    Szerintem nem engedik el. A professzionális szintre mindenképpen kellenek nekik GPU-k az AMD-től, nagyon-nagyon messze van attól az Imagination, hogy ki tudják váltani ezeket a 6-10 TFLOPS-os szörnyetegeket.

    Vagy marad a felsőházban az Intel, amihez vesznek Radeonokat, vagy raknak PCI Express vezérlőt a rendszerchipjükbe, és bekötik hozzá a vásárolt GPU-t.
    Ezek mellett a vékony és kisebb notikba tökéletes csak a SoC az IGP-vel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gliskard #25 üzenetére

    Az Apple jelentősen túlárazza a Pro hardvereket a valós értékükhöz képest. Erről nem fognak csak azért lemondani, mert saját erőből meg sem tudják közelíteni azt a teljesítményszintet, ami ide kell.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák