- OLED TV topic
- Milyen CPU léghűtést vegyek?
- Hobby elektronika
- Vezeték nélküli fülhallgatók
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Olcsó sportkamerák (GoPro alternatívák)
- HiFi műszaki szemmel - sztereó hangrendszerek
- Házimozi haladó szinten
- Kormányok / autós szimulátorok topicja
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
Hirdetés
-
Lenovo Essential Wireless Combo
lo Lehet-e egy billentyűzet karcsú, elegáns és különleges? A Lenovo bebizonyította, hogy igen, de bosszantó is :)
-
Olcsó 5G-s ajánlatot nyújt a Realme Indiának
ma Megérkezett a Realme C65 5G, az első készülék a MediaTek Dimensity 6300-zal.
-
Igencsak szerény méretekkel rendelkezik az Aetina Xe HPG architektúrás VGA-ja
ph Az 50 wattos modellt beágyazott rendszerekbe, MI-vel kapcsolatos munkafolyamatokhoz és edge applikációkhoz szánták.
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Pontosítsuk akkor ezt. A Tensor azért leválasztott feldolgozó, mert ALU-k szintjén nem működik, csupán 4x4-es mátrixban (a Volta és a Turing esetében, de lehet más mátrix más hardveren). Ezért különbözteti meg erősen az NVIDIA, mert amíg a normál FP16 FMA gyakorlatilag egy egyszerűen elérhető ALU operáció, addig a Tensor-féle FP16 FMAC inkább mátrixba fűzött változata ennek, ami csak mátrixokon tud dolgozni. Utóbbi teljesen más támogatást igényel, és a legtöbb API-ban, főleg a szabványosokban ez nincs is lekezelve. Pusztán az ALU szintjén persze alapvetően FMA-ről van szó, de csupán egy ALU a Tensor esetében nem hozzáférhető, ellentétben a fő ALU-kkal.
A mátrixot nem érdemes az FMA elé rakni, mert félrevezető. Az operáció zajlik mátrixokon, de maga a csupasz utasítás nem. Ergo nem az "fp16 matrix multiply-add" a legjobb leírás rá, hanem fp16 fused multiply-accumulate 4x4-es mátrixokon.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.