Az elmúlt időszakban a DeepSeek R1 nevű nagy nyelvi modell, röviden LLM tartja lázban a világot, ugyanis a kínai, nyílt megoldás rendkívül jónak tűnik, a korábban vezető LLM-eket is maga mögé tudja utasítani. Ráadásul ennek a futtatása már lokálisan is megoldható, többek között az LM Studio nevű program igen egyszerű módon teszi ezt lehetővé, és a modellkatalógus tartalmaz is Qwen vagy Llama architektúrára optimalizált DeepSeek R1-et.
A legtöbb gépen a Qwen 7B-re és Llama 8B-re leméretezett opciók futnak is, de a nagyobb paramétert biztosító változatokhoz igencsak sok memória kell, nem beszélve a számítási teljesítményről. A Qwen 32B még ráküldhető egy 24 GB-os VGA-ra Q4_K_M kvantizáció mellett, de a Llama 70B verzió már megfeküdné bármelyik, végfelhasználóknak szánt VGA gyomrát.
Nem úgy a Ryzen AI Max sorozatét, amely 70 milliárd paraméteres DeepSeek R1 LLM-mel is megbirkózik, ha van mellette legalább 64 GB rendszermemória. Ezzel gyakorlatilag egy igen sok paraméterből álló LLM-et is könnyedén lehet otthoni szinten futtatni, ami mutatja, hogy mennyire gyorsan tud alkalmazkodni a piac egy-egy új irányhoz.