A Qualcomm bejelentette a szerverpiacra szánt AI gyorsítóinak új hullámát, és itt rögtön két termékre is gondolni lehet, amelyek a Cloud AI 100 utódjai lesznek.
Hirdetés
Esőként, konkrétan 2026-ban a Cloud AI 200 érkezik, amely a vállalat rendszerchipjeiből már ismert Hexagon NPU technológiát biztosítja igencsak skálázható formában, PCI Express csatolóba helyezhető gyorsítókártyaként, amelyen 768 GB-nyi, nem meghatározott verziójú, LPDDR memória lesz. Egy rack szintjén az energiaigény elérheti a 160 kW-ot, a hálózati összeköttetést pedig Ethernet biztosítja majd.
Ennél erősebb alternatívának készül a Cloud AI 250, amely leghamarabb 2027-ben érkezik, és az elsődleges előnye az lesz, hogy számításokat végző memóriát alkalmaz majd. Hogy konkrétan milyen rendszert, az még nem nyilvános, de ezzel a módszerrel javítható az effektív memóriasávszélesség, miközben a fogyasztás csökkenhet.
A Qualcomm mindkét érkező gyorsítóját a gépi tanulás következtetés szakaszára szánja, a fejlesztésüknél pedig kiemelt szerepet kapott az alacsony TCO, vagyis a teljes életciklusra levetített üzemeltetési költség.
