A 70 milliárd paraméteres DeepSeek R1 LLM-et is lokálisan futtatná az AMD

A vállalat szerint a AMD Ryzen AI Max sorozat, megfelelő memória mellett képes lesz erre.

Hirdetés

Az elmúlt időszakban a DeepSeek R1 nevű nagy nyelvi modell, röviden LLM tartja lázban a világot, ugyanis a kínai, nyílt megoldás rendkívül jónak tűnik, a korábban vezető LLM-eket is maga mögé tudja utasítani. Ráadásul ennek a futtatása már lokálisan is megoldható, többek között az LM Studio nevű program igen egyszerű módon teszi ezt lehetővé, és a modellkatalógus tartalmaz is Qwen vagy Llama architektúrára optimalizált DeepSeek R1-et.

A legtöbb gépen a Qwen 7B-re és Llama 8B-re leméretezett opciók futnak is, de a nagyobb paramétert biztosító változatokhoz igencsak sok memória kell, nem beszélve a számítási teljesítményről. A Qwen 32B még ráküldhető egy 24 GB-os VGA-ra Q4_K_M kvantizáció mellett, de a Llama 70B verzió már megfeküdné bármelyik, végfelhasználóknak szánt VGA gyomrát.

Nem úgy a Ryzen AI Max sorozatét, amely 70 milliárd paraméteres DeepSeek R1 LLM-mel is megbirkózik, ha van mellette legalább 64 GB rendszermemória. Ezzel gyakorlatilag egy igen sok paraméterből álló LLM-et is könnyedén lehet otthoni szinten futtatni, ami mutatja, hogy mennyire gyorsan tud alkalmazkodni a piac egy-egy új irányhoz.

Hirdetés

Fotóznál vagy videóznál? Mutatjuk, melyik okostelefon mire való igazán!

PR Vásárlás előtt érdemes megnézni, mit kínálnak az aktuális telefonok, ha igazán ütős képeket vagy profi mozgóképeket szeretnénk készíteni.

  • Kapcsolódó cégek:
  • AMD

Azóta történt

Előzmények