Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Viktor77 #85 üzenetére

    Az IGP, mint a jövő megoldása kisarkított. Az tény, hogy a homogén többmagos processzorok olyan korlátokat ostromolnak, amit anno az egymagosok. A skálázásnak a fizika törvényei gátat vetnek. Ennek van egy szóban bonyolult leírása: Pollack's Rule
    Ezt a szabályt példákkal tarkítva nagyon egyszerűen meg lehet érteni. Megpróbálom felvázolni egy gyakorlati példával a mai igények szerint. Van egy négymagos processzorod x tranyószámmal, x fogyasztással, x egyszálú teljesítménnyel, x összesített teljesítménnyel, és x teljesítmény/watt mutatóval. Most ne emeljünk ki gyártót, mert az architektúra jellemzői rontják az általános vizsgálatát a szabálynak. Egyszerűen x processzor x képességekkel.
    Ha ugyanazon a gyártástechnológián maradsz, és nem növeled a tranyószámot, illetve a fogyasztást, akkor attól még tervezhetsz 8 magos processzort. Ilyenkor a méret, a fogyasztás, és a tranyószám megegyezik, de a teljesítmény már nem. Például az egyszálú teljesítmény 30%-kal csökkent, vagyis egy mag a 8 magos egységben a 4 magos egység 70%-ára képes teljesítményben. Az összesített teljesítmény azonban már változik, így ott már nőtt a számítási teljesítmény méghozzá nem is kevéssel. És ugyanígy jobb lett a teljesítmény/watt mutató is. Ez alapvetően a Larrabee koncepciója, mellyel az Intel a dark silicon jelenségre reagált. Na most a gyártók észrevették, hogy az egyszálú teljesítmény még mindig számít, márpedig, ha homogén többmagos processzorral akarják a dark silicon jelenséget elfedni, akkor Atom, vagy Bobcat kategóriás magok kellenek. Nyilván megoldás, mert az összesített teljesítmény jelentősen nőne, de mégsem tetszene mindenkinek. Itt jön elő a magok keverése. Nem kötelező homogén többmagos processzorral előhozakodni, így lehet akár heterogén is. Pár mag a késleltetésre van optimalizálva, míg a GPU-rész a throughput teljesítményre. Ezzel megtarthatod a viszonylag magas egyszálú teljesítményt miközben magas throughput tempót is kapsz a GPU-val. Ezért ez a fene nagy integráció mindenkinél, mert a dark silicon létező probléma, anno a Pentium 4 karrierjét és magát a koncepciót szépen derékba törte, persze az Intel naiv is volt, hogy a fizika törvényeivel akart versenyt futni, de ez most lényegtelen, mert gyorsan reagáltak a megváltozott helyzetre. Most ugyanaz a probléma, csak a többmagos processzorok futnak limitbe. A megoldást egyelőre a heterogén rendszerekben látják a cégek. Nyilván a programozói szokásokat jóval egyszerűbb megváltoztatni, mint a fizika törvényeit legyőzni. Ebből a szempontból logikus a váltás. Az persze tény, hogy még csak a kezdetén vagyunk ennek. Jórészt az integráció a GPU beépítését jelenti valamilyen kommunikációs csatornával a CPU-hoz. Itt az OS szintjén kell fejlesztés még (itt főleg GPU-s MMU támogatásra kell gondolni, ahogy a procinak is van MMU-ja), illetve olyan CPU-t és GPU-t kell összevonni, melyek egyrészt technikailag kiegészítik egymást (ami az egyiknek a gyengéje, az a másiknak az erőssége és fordítva), valamint a GPU esetében fontos, hogy képes legyen címfordításra az x86AMD64 címtartományán belül. Ezenkívül a teljesen koherens memória megosztása is alap. Szerintem nem mondok azzal meglepőt, hogy ezek a projektek szinte mindenkinél készülnek. Az AMD-nél a Bulldozer és a GCN architektúra társul, az Intelnél a mostani CPU-k, és a Larrabee, az NV-nél a Kepler architektúra és a Denver CPU-magok ARMv8-cal. Még az ARM is úgy tervezte az új generációs MALI IGP-t, hogy megfeleljen pár fentebb leírt igénynek az ARM magokhoz társítva.
    Az amit az AMD csinál egyáltalán nem egyedi dolog. Azért vannak ők kiemelve, mert a fúziós szempontok alapján az elsők. Itt ugye arra kell gondolni, hogy 2011 elején rakták le az első APU-t, míg a többiek még váratnak magukra, de például tavasszal az Intel is megkezdi ezt az ösvényt az Ivy Bridge termékekkel. A ZiiLabs még ennek a koncepciónak az élmenője, mondjuk úgy, hogy ARM-os szinten. Ők nem sokkal az AMD után rakták le az asztalra az első StemCelles SoC-ot. Persze ha nem nézzük szigorúan a PC-t, vagy a konzumer mobil szintet, akkor a PS3 Cell procija is heterogén többmagos egység. Általánosan az IBM-Sony-Toshiba trió a koncepció élharcosa. Voltak is olyan háttérbeszédek, hogy a Cell sarkalta az AMD-t erre, illetve az Intelt a Larrabee fejlesztésére. Ebben lehet valami, bár szerintem az igazat sosem tudjuk meg. Az biztos, hogy a Cell teljesítménye sokkoló volt akkor a fogyasztáshoz mérten, így ha a gyártók elméletben játszottak is a heterogén chipek gondolatával, a Cell példája adhatta meg ennek a lökést, mivel bizonyította, hogy működik. Az már más kérdés, hogy a Cellre a világ nem volt felkészülve. Itt majd a programozási szokásokkal lesznek parák. A programozók számára a helyzet bonyolódik, de mint mondtam a fizika törvényeivel szembe menni veszélyesebb.

Új hozzászólás Aktív témák