- Igencsak szerény méretekkel rendelkezik az Aetina Xe HPG architektúrás VGA-ja
- Miniképernyős, VIA-s Epomaker billentyűzet jött a kábelmentes szegmensbe
- Különösen rendezett beltér hozható össze a Cooler Master új házában
- A középkorra és a pokolra is gondolt az új AMD Software
- Új gyártástechnológiai útitervvel állt elő a TSMC
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- AMD GPU-k jövője - amit tudni vélünk
- Kormányok / autós szimulátorok topicja
- Vezetékes FEJhallgatók
- TCL LCD és LED TV-k
- Adatmentés - HDD - SSD - Flash
- Xiaomi Mi Box androidos médialejátszó 4K és HDR támogatással
- AMD Navi Radeon™ RX 6xxx sorozat
- Milyen alaplapot vegyek?
- Rendkívül ütőképesnek tűnik az újragondolt Apple tv
Hirdetés
-
A személyre szabott reklám lehet a streaming következő slágere
it A jobb célzott hirdetések érdekében adatplatformot indít a Warner Bros Discovery.
-
Igencsak szerény méretekkel rendelkezik az Aetina Xe HPG architektúrás VGA-ja
ph Az 50 wattos modellt beágyazott rendszerekbe, MI-vel kapcsolatos munkafolyamatokhoz és edge applikációkhoz szánták.
-
A Video AI lehet a One UI 6.1.1 ütőkártyája
ma Vagy hogy fogja a mesterséges intelligencia manipulálni a mozgóképeket?
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Elméletben 3 nm-nél van a jelenlegi tudásunk szerint a vége. A gyakorlatban inkább 5 nm, mert a 3 nm-hez röntgen kellhet, ami vállalhatatlanul drágává teszi a gyártást. A 7 nm most EUV-vel teljesen reálisnak néz ki, még akkor is, ha nem olcsó az átállás.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nagyon egyszerű a dolog. Korábban már leírtam. A GCN egy memória-alapú architektúra. Nagyon leegyszerűsítve ennek az a lényege, hogy maga a multiprocesszor bármilyen bekötést el tud végezni a host CPU nélkül. Ergo minden egyes ebből származó limit maga a memória, amennyi adat abba belefér, annyi köthető be. Ahhoz, hogy egy hardver úgy működjön kell bele egy olyan rész, ami tényleg ki is tudja váltani a CPU munkáját. Ez a GCN CU-kon belül az integer skalár ALU. Ez csinál minden bekötéssel járó munkát. Ennek az az előnye, hogy korlát nélküli a hardver programozhatósága, viszont hátránya, hogy ezek az egységek fogyasztanak. De hosszabb távon ezek nem fognak kikerülni, sőt az a pletyka járja, hogy a skalár egység kap majd lebegőpontos ALU-t is.
(#49) jattila48: Az egy GPU-architektúra. Az a lényege, hogy a felhasználó állíthatja be mennyi memóriát rendel a GPU-hoz. Ha 64 GB RAM-ja van, akkor simán hozzá tud rendelni 48 GB-ot, és akkor lényegében lesz egy 48 GB-os VGA-ja. A driverben van egy csúszka erre, ami 12 és 64 GB között állítható.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz jattila48 #54 üzenetére
Nem érted. A Vega úgy működik, hogy te felhasználóként beállíthatod, hogy mennyi memóriát kapjon a GPU. Lecsíphetsz neki egy rakás RAM-ot, és aztán a HBCC elintézi a többit. Ha van 128 GB RAM-od, akkor abból 56 GB-ot odaadhatsz, és akkor a Vega 64 GB-os VGA-ként fog látszani a programok felé. Az más kérdés, hogy otthon ez nem valószínű, hogy kihasználható, de persze lehet akkora méretű tartalom, amihez kell ennyi memória, különben a program egy out of memory üzenettel leáll.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz jattila48 #60 üzenetére
Nyilván nem, leginkább tartalomvizualizációnál hasznos. Egyébként nem csak ilyen Vega van. A Radeon Pro SSG 1 TB-ot jelez vissza az alkalmazás felé. Egyébként ez 512 TB-ig nem írja ki, hogy out of memory. A sima asztali Vega esetében ez a határ 256 TB.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz jattila48 #65 üzenetére
A tartalomvizualizáció az, amikor csinálsz egy borzalmasan részletes modellt, mondjuk egy animációhoz, és az a modell akkora lesz végül, hogy nem fér bele egy átlag VGA memóriájába. Tehát két lehetőség van, vagy építesz egy szervert megfelelően sok memóriával, amiben a CPU-val megnézed, hogy jól fog-e kinézni a tartalom az animációban, vagy veszel egy Vegát (feltéve, hogy nem akarsz a tartalom szétbontásával vesződni, hacsak nem muszáj nem akar senki).
Az biztos, hogy eléggé extrém igénynek számít otthoni szinten, azért nem teljesen átlagos mondjuk 40 GB-os tartalmat tervezni otthon, de alapvetően a hardverek eléggé olcsók már, hogy ez egy lehetőség legyen. Ritka, de megfizethető gépet kapni hozzá.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Rengeteget nyernek rajta. Nem kell emulációt alkalmazniuk a DirectX 12-nél a legmagasabb bekötési szinthez. Ehhez a GCN-nek maximum 16 skalárregiszterre van szüksége aktív wavefrontonként, vagyis a regiszterhasználat legrosszabb esetben sem lesz több 2,5 kB-nál. Ha emulálnák, akkor mondjuk egy dinamikus és divergens indexelés sokkal több vektorregisztert venne igénybe aktív wavefrontonként. Az NV implementációja pont ilyen, és legrosszabb esetben a bekötés 256 kB-nyi regisztert ehet multiprocesszoronként. Egy shaderrel ki tudod végezni az egész emulációt, és akkor onnantól kezdve a hardver semmire sem jó. Lényegében nem tudsz ellene tenni semmit, csak összetenni a két kezed, és imádkozni a jóistenhez, hogy ne írjon senki ilyen shadert. Egy felelős mérnök ilyet nem csinál, ők terveznek és nem reménykednek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Lacccca87 #72 üzenetére
Ezek a fejlesztések a konzolokba készültek. Ott akartak korlát nélküli programozást. Aztán átjött ez a modell a Mantle-be és onnan a DirectX 12-be is. Persze a Microsoft egy kicsit butította, így a valóságban nem memórialimites a DirectX 12 bekötése, hanem csak kétmillió bejegyzés a követelmény, de ez is elég nagy szám, még ha nem is korlát nélküli. De a lényeg igazából az emuláció hiánya. Ennek ugyanis vannak mellékhatásai. Például a CPU oldali terhelés megnő a beszúrt binding API által. Láthatod a Raven Ridge tesztben, hogy mekkora különbség van a DX11-es és a DX12-es eredmények között, ha a Vega 11-et hasonlítod a GT 1030-hoz. Nem azért esett vissza a GeForce teljesítménye DX12-ben, mert kicseréltük a hardvert, hanem mert nem raktuk alá a tipikusan használt nyolcmagos izomprocit, ami elfedné az NV DX12-es implementáció emulációjának hátrányait.
Rendben van, hogy a tesztekben 8 maggal rendelkező, 4 GHz-re húzott Core procikkal van elég erőforrás a binding kiegészítést futtatni az NV driverben, de ez egyáltalán nem életbiztosítás, főleg akkor, ha nem veszel mellé legalább nyolc szálas procit otthonra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A nem fog futni és a nem jól fut között nagy a különbség. A DX12 és a Vulkan emiatt teljesen jó alternatíva a piacnak. Alapvetően a memória kezelését kell csak finoman értelmezni. Vagy DX12 esetében ott az RSL, míg Vulkanhoz ott a VMA.
Ha pedig valaki sajátot ír, akkor az implementáció tekintetében gyakorlatilag ugyanazt használják a gyártók a két API-n. Ez egy jó kiindulási pont. [link]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Lacccca87 #90 üzenetére
Utólag nem olyan egyszerű ám beletervezni egy hardverbe mondjuk a pure bindless képességet. Az NV a Volta esetében sem csinálta meg, hordozzák a bindless alapot, mert a modernizálás olyan mértékű módosítást igényel, amit a memóriamodellnél kell átdolgozni, de addig lemenni azt jelenti, hogy újra kell tervezni mindent. Szóval vagy helyből jó vagy az újításokra, vagy nagyon sokáig csak emulálsz. Vannak persze könnyen betervezhető képességek, mint például a ROVs, vagy a barycentrikus koordináták tetszőleges kiolvasása, de valamihez nagyon mélyre kell menni. Annyira, hogy nem is mennek le, hanem írnak rá egy CPU oldali kiegészítést. Sokszor ez járható út, a tesztekben iszonyatosan erős procival tesztelnek, tehát van min futtatni az emulációt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
válasz Lacccca87 #97 üzenetére
Nézd meg a Ryzen 2400G tesztet. A DX11-es tesztekben a GT 1030 kifejezetten jól megy, ahogy kell. A DX12 tesztekben egyszerűen valami limitálja. És az a limit a meghajtó, az emulációnak kell némi prociidő, amit mondjuk egy átlagos VGA-teszten nem látsz, mert 16 szálas procival tesztelünk, de amint egy megfizethetőbb procira váltasz, rögtön látod ennek az implementációs iránynak a hátrányát. Az AMD ugye nem használja a CPU-t bekötésre, tehát ott nincs ebből hátrány. Ha mondjuk átváltanánk DX11-be a GT 1030-cal az érintett játékokban, akkor gyorsulna (kb. a Vega 11 elé ugrana nagyon picivel), mert ott kivettük a DX12 implementáció emulációjának a terhelését. És ez a jelen. Te például a Ryzen 2400G-nél lassabb i5-6400-as prociddal simán érintett lennél ugyanettől, ha nem így tervezte volna a GCN-t az AMD és inkább emulálnának egy CPU oldali binding kiegészítést.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Lacccca87 #102 üzenetére
Attól függ, hogy mikor járt nálad a GeForce. Az NV csak nemrég tért át az emulációra. Előtte a mintavételezőbe való bekötést támogatták. Az nekik is gyors, csak ezt elvetették. Valószínűleg azért, mert a tesztekben tényleg izomprocesszorokkal mérnek, ahol egy CPU oldali binding kiegészítést nem gond, viszont gond lehetne abból, ha kifut az erőforrásból a hardver, és ezt inkább nem várták meg. Elhanyagolható az a teszt, ahol átlagos processzorokkal nézik a hardvert.
Ezek nem fícsőrök, hanem a működés alapvető feltételei. Minden API alkalmaz bekötést. A DX11 szimpla CPU oldali binding API-t használ erre, a DX12-től kezdve van lehetőség a közvetlen bekötésre, vagy a mintavételezőbe vagy a multiprocesszorba.
Mint írtam ez a jelen. Nézd meg a tesztet, hogy mennyire lelassul DX12-ben a GT 1030, holott semmi nem indokolja. DX11-ben ugyanezekben a tesztekben fel is gyorsul. Egyszerűen a szoftver oldali DX12 implementáció limitekbe ütközik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Gyúrósok ide!
- Idén elmarad a BlizzCon
- AMD GPU-k jövője - amit tudni vélünk
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Garmin Forerunner 165 - alapozó edzés
- Kertészet, mezőgazdaság topik
- Kormányok / autós szimulátorok topicja
- Eredeti játékok OFF topik
- Vodafone mobilszolgáltatások
- További aktív témák...
- i3 8100/ ingyen automata
- Intel Core i7-11700K processzor (használt)
- BESZÁMÍTÁS! ÚJ Intel Core i5 11400F / i9 11900KF / i9 11900K tálcás processzorok 27% áfás számlával
- ! Intel 13700KF + ASUS TUF Gaming Z790 Plus D4 + Kingston FURY DDR4 3600MHz CL18 !
- Beszámítás! Intel Core i9-11900 Processzor - Garancia & Számla - Utolsó Darabok