Az NVIDIA vázolta a GPU-k jövőjét

A jelenleg is zajló SIGGRAPH 2011 alkalmával az NVIDIA kihasználta a lehetőséget, hogy vázolja a GPU-s számítások jövőjét. Az előadás alkalmával a Project Maximus és a Project Monterey technológiák kerültek elő. Az előbbi elgondolás a professzionális piacnak szól, és a több grafikus processzor összekapcsolásának jobb kihasználását teszi lehetővé. A Maximus felületen keresztül lehetőség nyílik összefűzni egy tetszőleges Quadro és egy Tesla kártyát, függően az adott alkalmazási terület igényeitől. Példának okáért számos alkalmazás igényel komolyabb általános számítási kapacitást, miközben a grafikai igénybevétel nem mondható túlzottan nagynak. Az NVIDIA szerint a Maximus technológiát alkalmazva ilyen esetben elegendő egy viszonylag olcsóbb Quadro 600 vagy 2000 jelzésű rendszer a grafikai munkához, míg az általános számításokra befogható egy Tesla kártya. Ezzel lényegében sokkal jobban testre szabhatóak a különböző konfigurációk az adott igényeknek megfelelően. A Maximus projektre épülő első konfigurációk előreláthatólag idén megjelenhetnek. A szoftveres oldalon az Adobe és az Autodesk már jelezte érdeklődését.


Project Maximus

A Project Monterey már sokkal érdekesebb elgondolás. Az NVIDIA Virtual Graphics néven is utal rá, és lényegében a számítások felhőben történő futtatását jelenti. A technológia még nagyon kezdetleges állapotban van, így csak elméleti bemutatás történt, és első körben a professzionális piacon lesz majd szerepe, de a PC-s piaci trendeket elemezve nem nehéz átlátni, hogy az elgondolást sokkal nagyobb célok vezérlik. A vállalat szerint a kliens oldalon évente milliárdnyi internetre köthető termék kerül eladásra, így a megterhelő számításokat érdemes a vékony, és könnyen hordozható gépek helyett a felhőben használt robosztus szuperszámítógépre bízni. A Monterey projekt lényege röviden, hogy olyan szolgáltatást nyújtson, mintha ott lenne az adott termékben az erős dedikált GPU, miközben fizikailag nincs ott.

Internetre köthető termékek várható eladásai
Internetre köthető termékek várható eladásai (forrás: Engadget)

A felhős számítások létjogosultsága állandó téma manapság. A professzionális piacon már számos területen bevetették a cégek, és a kliens oldalon is találkozhatunk ezzel az elgondolással a Gaikai és az OnLive esetében. Az utóbbi két szolgáltatás kihúzhatatlan méregfogának látszik az internetes játékot megnehezítő magas elérési idő, vagy más néven input lag. Erről korábban az Intel készített egy tanulmányt, és abból kiderült, hogy a probléma jelentős. Ettől függetlenül a Santa Clara-i óriáscég is a felhős számításokban látja a jövőt, továbbá az NVIDIA is kijelentette már, hogy 2014-re minden számításigényes program felhőben futhat. Virtual Graphics lényegében egy jelentős lépés ebbe az irányba. A PC-s piac fontosabb szereplői közül egyedül az AMD ódzkodik ettől a modelltől, még ha nem is állították le a saját fejlesztéseiket. A vállalat már kínál speciálisan felhős számításokhoz kialakított rendszert, ám kétségesnek tartják, hogy az Internet az elkövetkező három-négy év során, akkora fejlődésen megy keresztül, hogy az input lag a jelenlegi érték töredékére esik. Éppen ezért az AMD a versenytársak véleményét nem teljesen osztja, és inkább a hardverek direktebb programozását szorgalmazza.

A Virtual Graphics sikere persze az NVIDIA számára nagyon fontos, mivel az Intel olyan új mobil (ultrabook) és asztali (thin Mini-ITX) szabványokon dolgozik, amelyek ellehetetlenítik a dedikált GPU-k beépítését, így ebből a szempontból az VGA-k jövője a növekvő piacokon cseppet sem biztosított. A zöldek ugyan készíthetnek saját szabványokat, de jelenleg semekkora részesedésük nincs a PC-s processzorok piacán, így ki vannak szolgáltatva az Intel akaratának. Nyilván az AMD helyzete sem egyszerűbb, hiszen a piac hozzávetőleg 20%-át birtokolva szintén nehéz elfogadtatni egy új mobil vagy alaplapi szabványt a gyártókkal, amennyiben azt az Intel nem támogatja. Ezzel tulajdonképpen a dedikált GPU-k jövője az Inteltől függ, és nem nehéz észrevenni, hogy a Santa Clara-i óriáscég nem szívleli ezt a piacot. A Virtual Graphics segítségével az NVIDIA megpróbálja magát elszakítani az Intel akaratától, és úgymond virtuálisan társítanának a kliensgépekhez GPU-t, ha erre fizikailag esetlegesen nem lesz lehetőség. Az előnyök számottevőek, hiszen a Monterey projekt mellett akár a legkorszerűbb játék is futtatható lesz egy szimpla okostelefonon, ugyanakkor az input lag súlyos hátrányait mindenképpen le kell majd küzdeni.

A régóta ismert CUDA felületről nem esett szó az előadáson, de érdemes kitérni erre is. Tekintve, hogy a rendszer zárt, a fejlesztők nagyon nehezen fogadják el, pláne a gyártóktól független szabványok (OpenCL és C++ AMP) mellett. Ugyanakkor, ha a zöldeknek sikerülne legalább egy új generációs konzolba befészkelnie egy CUDA kompatibilis cGPU-t, akkor az előnyös lehetne a felület terjedésében, ami egyfajta vészforgatókönyv lenne, ha a felhős számítási rendszer mégsem tetszene az embereknek. Hasonló elképzelést vázolt az AMD a Fusion Developer Summiton, azzal a különbséggel, hogy az FSA szabványt bárki támogathatja, tehát egy nyílt kezdeményezésről van szó, ami az OpenCL és később vélhetőleg a C++ AMP felület kiterjesztése lesz. Mindkét megoldás előnye az API korlátjainak ledöntése, így a dedikált GPU-k beépítésének kizárása nem jelentene problémát, hiszen az integrált, heterogén módon programozható rendszerek kihasználása sokkal hatékonyabb lehet, és nem mellesleg közvetlenül a rendszermemóriához kapcsolódhatnak, ami a későbbiekben a közös virtuális címtér szempontjából rendkívül hasznos lesz.

A jövőt nehéz megjósolni, főleg annak tudatában, hogy az Intel a növekvő piacok esetében olyan szabványokon dolgozik, amelyek kizárják a dedikált GPU-k beépítését. Az ultrabook és a thin Mini-ITX platformok jelentős részét képzik majd a PC-s piac eladásainak, miközben némileg megkötik az NVIDIA és az AMD kezét, ami természetesen agresszívabb stratégiára kényszeríti az említett cégeket. Az NVIDIA Virtual Graphics jövőképe értékelhető alternatíva az Intel kihívására, de senki sem tudja még megmondani, hogy a felhős modell mennyire lesz kedvelt a felhasználók körében. A lehetséges alternatívákat átfutva nem biztos, hogy a felhasználók jól járnak ezzel a helyzettel, hiszen a PC nagyfokú kompatibilitását a Windows 8 eleve felborítja az ARM-os rendszerek támogatásával, és nem mellesleg a CUDA, illetve az FSA felület is szegmentálja majd a programok futtathatóságát az egyes rendszerekre.

Azóta történt

Előzmények

Hirdetés