A jelenleg is zajló APU13 rendezvény kapcsán a szerverpiac került a középpontba. Az AMD korábban sem titkolta, hogy 2014-ben bevetik a Berlin APU-t, mely lényegében a Kaveri kódnevű fejlesztés szerverekbe szánt verziója lesz. Erre a váltásra már egy ideje készül a vállalat, de a GCN architektúra integrálásával jött el az a pont, amikor ezt érdemes meglépni. A miérteket Phil Rogers taglalta, így elemezte, hogy mire is használható a szerverben egy hUMA és hQ támogatással rendelkező APU. Ennek alapja a HSA platform lesz, melynek specifikációit az év végéig elfogadják az érintettek, így a hardver oldali rendszer véglegesnek tekinthető, legalábbis az első verzió szempontjából, ami persze később továbbfejlődhet, de most az alapok definiálása a lényeg. Ez lényegében a platformarchitektúrára és a programozóknak szóló referenciakönyvre vonatkozik, míg a HSA-MMU specifikációja már egy ideje elérhető.
Hirdetés
Ezzel párhuzamosan a HSA futtatási környezet draft specifikációinak kidolgozása is jól halad. Ez a munka könnyebbik része, mivel a HSAIL és az AQL specifikációk esetében mindenképp meg kellett egyeznie a HSA alapítványban résztvevő cégeknek, hogy az implementáció teljesen kompatibilis legyen mindegyik hardverrel, így a programot elég csak egyszer megírni és onnantól bárhol futtatható. A végül a fejlesztőeszközök a következő év elején kerülnek a HSA alapítvány munkacsoportjához. Ezek elfogadása időben jóval kedvezőbb lesz, hiszen nem hardveres specifikációkról van szó. A HSA fejlesztői platformokat egyébként szintén a következő év elején szállítják majd az érintett cégek. Ez az AMD esetében nyilván a Kaveri APU lesz, míg többi vállalat egy tervezés alatt álló lapkát kínál majd, vagy akár felkonfigurált FPGA-t. Nyilván a HSA alapítványban résztvevő programfejlesztők a publikus, vagy éppen béta állapotú fejlesztőeszközöknél jóval hamarabb hozzájutnak a szükséges csomagokhoz, így már most is dolgoznak az érdeklődő szoftvercégek a HSA-ra.
A szerverpiacon Phil Rogers szerint a HEVC fogja a legnagyobb változást kiváltani, hiszen a kijelzők felbontásának növelésével a szerverekre egyre nagyobb terhelés lesz téve ebből a szempontból. A H.264-hez képest a HEVC tömörítésének hatásfoka számottevően jobb, így a videoportálok számára igen jó célpont lehet. Lényeges probléma azonban, hogy a videók kódolása HEVC mellett nagyon erőforrás-igényes, így az új szabványt már az elejétől kezdve úgy tervezték, hogy a feldolgozás párhuzamosítása ne okozzon majd problémát. Éppen ezért az APU-knak ez a munkafolyamat nagyon feküdni fog, mivel az IGP az adatpárhuzamos feldolgozásra kifejezetten hatékony.
Lényeges feladatnak tekinthető még a B Trees struktúrák speciális B+ Trees változata, ami számos elterjedt adatbázis menedzsment szoftverben használatos, példaként említve az SQLite-ot (Dropbox, Apple, Mozilla, Google) és a CouchDB-t (BBC, Credit Suisse, CERN). A B+ Trees hagyományos GPU-s gyorsításával a legnagyobb probléma, hogy az adatbázisok mérete nagyon nagy lehet, így az adatok folyamatos másolása a CPU és a dedikált GPU memóriája között gyakorlatilag eliminálja a gyorsulást. Sőt, több esetben még lassabb feldolgozáshoz vezet a GPU-s gyorsítás használata. A Kaveri APU erre könnyen reagál, hiszen az IGP-je a CPU-val megegyező memóriába dolgozik, vagyis nincs szükség adatmásolásra. Az AMD tesztjében egy 35 wattos TDP fogyasztással rendelkező Kaveri APU 112 millió kulccsal rendelkező, 6 GB-ot foglaló bemenetet kapott, melyben egymillió párhuzamos keresés futott. A IGP-vel gyorsítva a rendszer a változó mennyiségű úgynevezett gyereknode-ok mellett legjobb esetben majdnem hatszor, míg nagyon sok gyereknode esetén nagyjából 80%-kal volt gyorsabb a processzormagokra kézileg optimalizált OpenMP kódnál.
A Hadoop is sokat profitálhat a Kaveri APU-ból, mivel ez a rendszer tradicionálisan fekszik a GPU-s gyorsításnak, de az adatmásolással járó állandó büntetés itt is komoly problémának tekinthető. Az AMD koncepciójában nincs adatmásolás, így a futószalag egyes lépcsőinek feldolgozását az a részegység végezheti, amelyiknek a legjobban fekszik, így a processzorrész, illetve az integrált grafikus vezérlő együtt dolgozhat a számításokon.
A HSA azonban a legnagyobb előnyöket az olaj és gáz utáni kutatásban kínálja. Ez az ipar az RTM (reverse time migration) technikát használja, hogy képet kapjon a föld alatt megbúvó esetleges gáz és olajkészletekről. Maga az algoritmus rendkívül sok adattal dolgozik és komoly mértékben párhuzamosítható, de a sok információ tárolása miatt extrém a memóriaigénye is. Itt akár 40-50 GB-ról is beszélhetünk, így hiába van GPU-s gyorsítás ezen a piacon, a mai gyorsítókártyákon nincs kellő mennyiségű fedélzeti memória. Ezért a cégek még ma is jellemzően százezres nagyságrendű node-okból felépülő szervereket használnak az adatok feldolgozására, így az egyes munkafolyamatok öt napig is futnak.
Phil Rogers elmondása alapján egy hasonló méretű szerverpark a Kaveri, illetve inkább a Berlin APU-ra épülve ugyanezt a munkát pár óra alatt elvégzi. Persze az ipar extra sebesség helyett, inkább jobb műszerekre fog beruházni és kihasználják a nagyobb számítási kapacitást, hogy pontosabb eredményeket kaphassanak. Éppen ezért jó eséllyel a kiépülő szerverek a HSA-val is pár napig fognak dolgozni az egyes munkafolyamatokon, csak éppen a közölt eredmény sokkal pontosabb lesz, mint az eddigiek. Ennek megfelelően inkább a kitermelés hatásfoka fog nőni, ami persze lényeges szempont így is, főleg annak tudatában, hogy az olaj- és gázkészletek gyorsan fogynak.
A programozás szempontjából a HSA biztosítja az alapvető támogatást a kedvelt nyelvekhez, így nem kell ismeretlen programnyelvre támaszkodni. Erről az AMD majd a Berlin APU startjával párhuzamosan árul el többet, így ezt mindenképp ki kell várni.
A rendezvényen egyébként több híresztelés is van azzal kapcsolatban, hogy az ARM-ra építő vállalatok is kiemelten érdeklődnek az IGP-vel gyorsítható szerverfeladatok iránt, így a HSA az alapítvány többi résztvevője előtt is megnyitja az utat a szerverpiacra. A megcélzott szegmensek egyelőre ködösek, de a HEVC szinte mindenkit érdekel, mivel a processzormagok helyett sokkal hatékonyabb az IGP-re bízni a transzkódolását.