Fujitsu blog: a mesterséges intelligencia és a GPU-k találkozása

Az új eljárás a mélytanulási algoritmus jelentős memóriaigényét tudja elosztani több grafikus gyorsítóra.

Manapság a mesterséges intelligencia az egyik legerősebb, informatikát előrehajtó tényező. A Fujitsu élen jár az AI kutatásokban, melynek fontos területe a mélytanulás. Ehhez rendszerint mély neurális hálózatokat (DNN) használnak, amelyeket sokszintű, egyre tovább bővülő gráfokként lehet felfogni. Kiválóan alkalmasak képek, írott szöveg, beszéd vagy nagy adattömegek elemzésére, aminek kézi feldolgozása szinte lehetetlen. A Fujitsu úttörője az ágazatnak, univerzális Zinrai API rendszeréről és HIKARI orvosi AI szolgáltatásáról már korábban írtunk.


[+]

A mélytanulás nagy előnye, hogy számítási része könnyen párhuzamosítható, viszont a nagysebességű végrehajtáshoz az egész gyorsan növekvő gráfot a memóriába kell pakolni, ha pedig a processzor rendelkezésére álló memória elfogy, akkor gondban vagyunk. Különösen igaz ez a GPU-kra, vagyis grafikus processzorokra, melyek memóriája a klasszikus CPU-kkal szemben 8-12 GB körül tetőzik.

Erre a problémára fejlesztettek megoldást a Fujitsu Laboratories of Europe kutatói. Egy olyan eljárást dolgoztak ki, ami a mélytanulási folyamat közben keletkező gráfok egyes rétegeit meg tudja bontani, és úgy osztja szét több párhuzamosított processzor memóriájába, hogy az egész mélytanuló rendszer egységessége megmaradjon. Az AI kutatásban közkedvelt Caffee nyílt forráskódú mélytanuló keretrendszernél az új módszerrel 90%-os gyorsulást értek el NVIDIA GPU-kat használva. A Fujitsu módszere hardverfüggetlen, így Intel Xeon Phi vagy FPGA, ASIC és bármilyen más hardverrel is kihasználható.


[+]

„Az utóbbi években számos olyan új technológiai fejlesztés jelent meg, amely hardveres gyorsítással biztosítja az AI-alkalmazások mély neurális hálózatainak (DNN) kiépítéséhez szükséges óriási számítási kapacitást. A DNN számítási költségeinek folyamatos növekedése komoly kihívás, különösen, amikor a modellméret eléri azt a pontot, ahol már nem fér el egyetlen gyorsító memóriájában. Szélesebb és mélyebb neurális hálózatokra és finomabb kategorizálásra van szükség az AI új kihívásainak kezeléséhez. A megoldásaink erre a problémára közvetlenül reagálva, több gép között osztják el a DNN memóriaigényét. Technológiánkkal így kiterjeszthető a neurális hálózatok mérete, ami pontosabb és nagyobb DNN-modellek kidolgozását teszi lehetővé” – nyilatkozta Dr. Tsuneo Nakata, a Fujitsu Laboratories of Europe vezérigazgatója az új mélytanulási technológia előnyeiről.

Azóta történt

Előzmények