20 nm-en ütközik falba a Moore-törvény?

Gordon E. Moore még a hatvanas évek során állapította meg azt a tapasztalati törvényt, amire a chipfejlesztő cégek máig alapoznak, mint irányadó megfigyelés. A Moore-törvény leggyakoribb megfogalmazása szerint az integrált áramkörökben lévő tranzisztorok száma másfél évente megduplázódik. Ezt alapvetően a gyártástechnológia fejlődése teszi lehetővé azzal, hogy az említett időintervallumot figyelembe véve jelentősen csökken az egy tranzisztorra levetített normalizált költségek száma. Ez általánosan figyelve a változásokat egészen a mai napig igaz, de a 20 nm-es node esetében igen komoly problémákkal néz majd szembe az ipar.


[+]

Az idei ISSCC alkalmával a HSA alapítvány tagjai felvázolták, hogy az egyre komplexebb és folyamatosan dráguló chipgyártás a történelemben először azt fogja eredményezni, hogy az egy tranzisztorra levetített normalizált költségek nem fognak csökkenni a 28 nm-ről 20 nm-re való átállás során. Ez első hallásra furcsának hangzik, hiszen a kisebb csíkszélesség lehetővé teszi, hogy egységnyi területen belül több tranzisztort helyezzenek el a cégek, ami jelen esetben is igaz lesz, de a 20 nm-es node-on történő gyártás annyival drágább lesz, hogy a normalizált költségek megegyeznek a 28 nm-es technológiákkal. Ez nagyon leegyszerűsítve azt jelenti, hogy ha egy adott 28 nm-es lapkát változtatás nélkül implementálnak 20 nm-en, akkor az egy chipre lebontott költségekben nem lesz változás, hiába fér el több lapka az adott waferen. Ez az eddigi legnagyobb probléma, amivel az ipar szembe került, és lényegében véget vethet a Moore-törvény életének, mivel a cégek számára ez csak addig volt követendő norma, amíg a költségek szempontjából kifizetődő volt. A HSA alapítvány megállapítása egyébként abszolút nem újdonság. Az NVIDIA korábban felvázolta ugyanezt a problémát, amire egyelőre az egyetlen megoldásnak az tűnik, ha a chipek felépítésén radikálisan változtatnak a cégek.


[+]

Öröm az ürömben, hogy az ARM, az AMD, az Imagination Technologies, a MediaTek, a Qualcomm, a Samsung és a Texas Instruments jóval korábban felfigyeltek a problémára és számos nagy céggel kiegészülve megalkották a HSA alapítványt, ami a HSA infrastruktúrával szeretné megkerülni a fizika törvényeit, illetve a növekvő költségek által okozott problémákat. A HSA-t az érintettek nagyon egyszerűen vázolták fel, így röviden elmondható, hogy a koncepció alapvető eleme a GPU direkt programozása az olyan magas szintű programozási nyelvekkel, mint a C, a C++, a Java, a Python, vagy éppen a JavaScript és a HTML5. A rendszer nem függ majd a hardver utasításkészletétől, így lényegében a programot csak egyszer kell megírni, és a kód bármin futhat, ráadásul a HSA a teljesítményre helyezi a hangsúlyt, így kifejezetten jó lesz a sebesség.


[+]

Az alapítvány most először vázolta fel általánosan, hogy hogyan is nézne ki egy HSA-hoz igazított lapka. A vázlatos felépítés nagyon egyszerű. A CPU-magok megmaradnának a soros és a feladatpárhuzamos munkafolyamatoknak, míg az úgynevezett HSA CU-k közül egy csoport az adatpárhuzamos feladatokat dolgozná fel, míg a maradék HSA CU a grafikai számításokért felelne. A koncepció alapvető eleme, hogy az összes feldolgozó teljesen koherens memóriát oszt meg és egységes címtérbe dolgoznak.

Mivel minden hardver eltérő fizikai utasításarchitektúrát használ, így szükség van egy virtuális utasításarchitektúrára, ami viszont közös lesz. Ez lenne a HSAIL, ami tulajdonképpen egy nagyon egyszerű ötletre épül. A központi processzorok szempontjából az utasításarchitektúra több cég között is egységes. Gondolhatunk itt arra, hogy az Intel, az AMD és a VIA x86/AMD64-et használ, míg az ARM-os partnerek is azonos alapokra építenek. Ez teszi lehetővé, hogy az alkalmazást natívan lefordítsák a fejlesztők az adott utasításarchitektúrára, ami nagyon jó sebességet tesz lehetővé. A grafikus processzorok esetében azonban a helyzet messze nem ilyen egyszerű. Egyrészt minden gyártó más utasításarchitektúrát használ, és az adatpárhuzamosságot előnyben részesítő működés érdekében még ezt is leváltják 3-5 évente. Fizikai szinten az egységesség gyakorlatilag lehetetlen, hiszen ezt még házon belül sem tudják biztosítani, így minden vállalat használ egy saját virtuális utasításarchitektúrát, ami legalább a termékcsaládon belül megoldja a kompatibilitást. A HSA alapítvány itt jött elő azzal a ragyogó ötlettel, hogy a piac szereplői dolgozzanak ki egy olyan virtuális utasításarchitektúrát, amit közösen támogatnak, és ezzel leválthatják a saját házon belüli megoldásukat. Az előny kézzel fogható, mivel az egységes HSAIL-re írva az alkalmazást az adott program bárhol futhat módosítás vagy újrafordítás nélkül.

Az ARM és az AMD közösen kidolgozott koncepciója nagyon erős, így nem csodálkozunk, hogy a pár hónapon belül a piac legnagyobb szereplői álltak be mögé. A HSA alapítvány egyébként megerősítette, hogy hamarosan elérhető lesz felület programozóknak szóló végleges referenciája, amit nem sokkal később a HSA véglegesített specifikációi követnek. A hardver szempontjából az ARM és az AMD már elkészült a megfelelő architektúrákkal. Az AMD az év végén be is mutatja a Kaveri APU-t, míg az ARM esetében némileg bonyolultabb a helyzet, mivel a vállalat konkrét chipeket nem tervez, de amelyik partner összeházasítja az ARMv8-as processzormagokat egy Mali-T600-as sorozatba tartozó IGP-vel, illetve a szükséges CoreLink összeköttetéssel, akkor az a SoC a Kaveri APU-hoz hasonló tudással rendelkezik majd.

Azóta történt

Előzmények

Hirdetés