- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Videós, mozgóképes topik
- Telekom TV SmartBox: szolgáltatói set-top box alacsony korlátokkal
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Azonnali fotós kérdések órája
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Fali konzol lapos tévékhez
- Bambu Lab X1/X1C, P1P-P1S és A1 mini tulajok
- Megrepedt vezérlőhíddal érkezhet az inteles MSI alaplapunk
Hirdetés
-
Frissült a MediaTek középkategóriás ajánlata
ma Hivatalos a Dimensity 6300, ez lesz a MediaTek kínálatából kivezetésre kerülő 6100+ utódja.
-
PlayStation konzolokra is megjelenik a Darkest Dungeon 2
gp A korábban PC exkluzív játék hamarosan végre játszható lesz konzolon is.
-
Az Intel a legmodernebb chipgyártó géppel előzheti meg az egész szektort
it Az Intel lett az első cég, amely szolgálatba állította az ASML új High NA EUV litográfiás chipgyártó eszközeit, ezzel minden riválisát megelőzheti.
Új hozzászólás Aktív témák
-
letepem
aktív tag
Gyorsan beindult az a bizonyos szekér
látok, hallok, érzek és gondolkodom.
-
gyiku
nagyúr
az intel es az nv hogy aszisztal ezekhez az esemenyekhez?
hüllő
-
őstag
Így újra feltenném a tegnap lehurrogott kérdést:
Amennyiben AMD alapú az új PS és HSA-t használ, akkor az AMD alapú PC-k élvezhetnek teljesítménybeli előnyt portolt játékoknál? -
Abu85
HÁZIGAZDA
Nem. Csak annyiban előny, hogy a piac arra fejlődik, amerre az AMD akarja, és amerre mondjuk az NV és az Intel nem akarja. De a HSA az nyílt platform. Oda bárki beléphet, és akár ugyanolyan jogköre is lehet, mint az AMD-nek. A szavazati jogok tekintetében az AMD a HSA-n belül semmivel sem több, mint egy ARM vagy egy Qualcomm.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
A HSA programok nem kérnek direkt hardver oldali támogatást. Az infrastruktúra előnye, hogy egy kódbázisból ki lehet szolgálni a HSA-val kompatibilis hardvereket és lesz egy legacy mód, ami ugyanazt a kódot olyan hardveren is képes futtatni, ami nem támogatja direkten a felületet. Ilyenkor természetesen csak a processzormagokon fog futni az alkalmazás, de működni fog. A legacy módot az x86/AMD64-hez az AMD, míg az ARMv7/8 architektúrákhoz az ARM írja.
(#9) golya87: A Rage problémáját az integráció és a hardveres megatextúrázás teljesen megoldja. Ehhez nem kell HSA.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
vinibali
őstag
pont valamelyik nap agyaltam rajta, hogy a japán óriás hiányzik innen és hátrányban lesz a Samsunghoz képest. örömteli a hír
BIOS/UEFI írás, helyreállítás, törlés, mentés! https://www.bvinarz.org/bios-iras/
-
VIC20
őstag
Mi az az ,,akadémiai támogatás"?
-
dezz
nagyúr
Miért ne jelenthetne előnyt olyan esetben pl. egy Kaverinél, ha egyes általános jellegű számítások kis késleltetésű kapcsolatot feltételezve futnak a CPU és a GPU kooperációjában, tehát szükségszerűen IGP-n - főleg ha a koherens shared memória miatt adatmásolgatásra sincs szükség?
(#8) atti_2010: Már attól függ, milyen szempontból. Azok is hasonlóan képzelik el a következő éveket, nem is tehetnék máshogy, mert ezt diktálja a fizika (*). Vagy mindkettő belép idővel, vagy létrehoznak egy saját megoldást. (Ami nem sokban fog különbözni tőle, csak mégsem az AMD kezdeményezése lesz. Mindkét cégre jellemző, hogy azért se a már létező, bevált megoldásokat használják, nehogy a másiknak is jó legyen, illetve néha puszta hiúságból.)
* Amíg be nem vezetnek valami teljesen új technilógiát a szilíciumos helyett, amivel pl. újra drasztikusan növelhető lesz majd az órajel - bár akkor is a GPU marad az egyik legjobb telj./fogy. arányú megoldás.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Az előny lesz, de nem a konzolok miatt fogják ezt kihasználni. A játékokat mindenképpen úgy fogják írni, hogy Kaveri nélkül is gyorsak legyenek. Persze Kaveri mellett nagyon gyorsak lesznek.
Nem hiszem, hogy lenne létjogosultsága egy saját HSA megoldásnak. A SIGGRAPH-on erről volt szó, és határozottan hangsúlyozták a fejlesztők, hogy vagy lépjen be mindenki a HSA-ba, vagy most hozzanak létre egy új alapítványt, ami készít egy HSA-hoz hasonló nyílt platformot a heterogén érára. Amit biztosan kijelentettek, hogy csak egy nyílt, alapítványon keresztül menedzselt megoldást fognak támogatni, hogy később ne legyen ebből gond.
Nem biztos, hogy a GPU a legjobb. Mostanában felmerült az a lehetőség, hogy a CPU és a GPU integrálása továbbmehet egy picit. Lesznek a CPU-magok, egy egyszerűbb IGP és közötte sok kicsi data-parallel mag, ami lényegében a shadereket helyettesíti. Ezt a Tilera vázolta fel először, mint alternatív irányt, mert már a grafikus magok is kezdenek szenvedni. Az Intel is megvette a ZiiLabs-ot, ami minő meglepetés pont ilyen koncepcióra fejlesztette ki a SteamCell architektúrát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
Nyilván nem úgy írják meg majd a multiplatform címeket, hogy PC-n csak Kaverin fusson, de valamekkora előnye lehet belőle. Már ha a PS4 viszonylatában beszélhetünk a HSA-ról (szerintem igen) és nem pedig valami egész más területen akarja alkalmazni (csak) a Sony.
Igen, inkább úgy kellett volna írnom, hogy GPU-szerű, vagy ilyesmi. (Bár nem azt írtam, hogy a legjobb, hanem az egyik legjobb.) Lényeg, hogy ha pl. grafén vagy más alapon újra növekedésnek indul a hagyományos CPU-k órajele (5-10 éves távlatban), akkor sok programozó újra "lustára" veszi majd a figurát, de az igazán teljesítményigényes alkalmazásokban akkor is hatékonyabb lesz egy akkor már grafén alapú GPU-féleség. (És addigra kényszerűen már meglesz a gyakorlat és kódbázis is hozzá.)
[ Szerkesztve ]
-
zoltanz
nagyúr
Pozitív, kérdés elég gyors-e a fejlődés.
Sztem még az is lehet a jövőben, hogy különböző feladatokra (képszerkesztés, videószerkesztés) jönnek ki célgépek, cél os-el. Ezekkel lehet hatékonyan dolgozni, PC-n is lehet majd csak az itt-ott lassú lesz (pl módosítások végrehajtásának megjelenítése előnézeti képen valósidőben), vagy jóval több pénzből lehet csak kihozni ezt a teljesítményt.Manapság egy előnye van ha nem vagy szegény, színvonalasabb ellenségeid lehetnek
-
Abu85
HÁZIGAZDA
válasz julius666 #21 üzenetére
A Tilera webkonferenciáján volt, amikor a multicore-ról beszéltek. Felhozták a mostani modellt, ami a CPU+GPU-ról szól, és mondták, hogy a GPU-t idővel ugyanúgy utoléri majd ugyanaz a probléma, mint a CPU-t. Vagyis nem lesz tovább skálázható a teljesítménye. Ezért érdemes előre gondolkodni és szétválasztani a GPU-t egy kisebb fix-funkciós blokkra dedikáltan a grafikához, és rengeteg data-parallel processzorra, ami különálló blokk a lapkán belül. Ilyen a Tilera technikája, illetve ilyen még a ZiiLabs hardvere, amit az Intel felvásárolt nemrég. Ez egy értékelhető lehetőség, ha a csíkszélesség csökkenése az okosodó GPU multiprocesszorokat is kiütné a nyeregből.
Jelen pillanatban arról van szó, hogy a CPU oldalán lényegében alig tudunk sebességet nyerni, vagyis ott több magot kell bepakolni kisebb órajellel. A GPU-nál a fejlesztés most arra megy, hogy bekalkulálja a Dennard Scaling végét, így a kisebb csík nem hoz a fogyasztásban előnyt, vagyis a sebességet onnan fogjuk nyerni, hogy minden egyes architektúraváltásnál a fő fejlesztési szempont az lesz, hogy a pJ/FLOP mutatót minimum felezni kell. Ezzel lényegében egységnyi fogyasztásba kétszer annyi teljesítmény fér be, akár azonos csíkszélességen is. A Tilera megoldása is erre épül. Nagyon buta, nagyon pici magok, amikből nagyon sok lesz. Jelenleg ez az elv ma háromszor energiahatékonyabb, mint amire a GPU-k épülnek. Ezekkel a koncepciókkal talán ki lehet húzni addig, amíg a CMOS helyett nem jön valami más.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
-
Abu85
HÁZIGAZDA
válasz Oppenheimer #23 üzenetére
Szerintem nem. De úgy tudom, hogy ott tanítanak GPGPU-t szóval, ha azokra beülsz, akkor meg lesz a tanuláshoz az alapod. A HSA alapvetően jóval egyszerűbb lesz, mivel a BOLT egy STL kompatibilis szabványos C++ sablonkönyvtár. Ergo igazából csak azt kell megtanulnod, hogy a GPU-ra hogyan kell elvi szinten kódolni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.