Új hozzászólás Aktív témák
-
dezz
nagyúr
válasz kleinguru #207 üzenetére
MCM = Multi Chip Module, ahol a proci spéci mini-nyákjára több chipet is feltesznek. Hátránya, hogy így messze nem lehet annyi adatvonal a chipek között, mint a stacking megoldásoknál.
(#208) Abu85: Persze, de azért a PCIe-nél "minden" csak jobb lehet, mivel hogy ez csatornánként 1 bit széles soros kapcsolat. És talán az sem mindegy, hogy a megalkotója, azaz az Intel annak idején igen csak ellenérdekelt volt a GPU és a CPU közötti "könnyed", kétirányú adatcserében.
Amúgy te milyen úton-módon látod megvalósulni a diszkrét kártyák megszűntetését?
-
-
Abu85
HÁZIGAZDA
Elvileg lehetséges, de egy külső busz, akkor is büntetés a késleltetésben. Ez csak integrálással tűnik el. Szerintem az AMD is csak próbálkozik valamit alkotni, de nem hiszem, hogy túl nagy reményeket fűznek ehhez. Az NV-hez hasonlóan ők sem számolnak hosszútávon a VGA-kkal. Próbálják életben tartani az egészet, amíg lehet, de előbb-utóbb vége lesz.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
"a mostaniakat igen, de a 2-3 év múlva megjelenő cucuckhoz tutira kevés lesz az APU"
Ez egy érdekes kérdés, mert nyilván fejlődni fognak, csakhogy ugye már a Trinitynél is elég szűkös lehet a memsávszél, és nem nagyon várható kettőnél több alaplapi memória-csatorna később sem a megcélzott szegmensekben (drága).
Viszont éppen a következő években tervezik bevezetni (ekkorra válhatnak kellően gazdaságossá) a stacking megoldások, amikor is a "sima" MCM-hez képest jóval szélesebb buszon ülő memóriachipek kerülhetnek a tokba az APU mellé...
De egyébként egy olyan dolog elképzelhető, hogy a frame-generálási előkészítő munkálatokat (pl. az eddigieknél komolyabb fizika, geometria, stb.) együtt végzi a CPU és IGP, aztán a nagyobb sávszélt igénylő képgenerálást vagy ugyancsak az IGP (ha nincs diszkrét), vagy egy diszkrét GPU.
(#204) Abu85: Elképzelhető itt valamilyen új, a PCIe-nél közvetlenebb összeköttetés bevezetése?
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Azt mindenképpen vedd számításba, hogy a nextgen konzoloknál alapvető fejlesztői elvárás, hogy egy memóriatárba dolgozzon minden, illetve az összeköttetés is sokkal gyorsabb legyen. Lehetőleg integrálva, hogy ns-os késleltetéssel lehessen a feladatokat dobálni a CPU és a GPU között. Itt jön a VGA problémája. A PCI Express 300-400 ns-mal dolgozik (függően a vezérlők távolságától) és elég gyenge adatátvitellel. Nulla esélyed van egynél több adatátadásra. Sőt még ez is sok, de ennyit muszáj csinálni.
Az AMD még akar VGA-kat, de ők sem úgy gondolnak már erre, mint egy általános termék, hanem mint az APU-k kiegészítő koprocesszorai. [link] - valahogy így. Ezzel lesz gyors kommunikáció a CPU és az IGP között, amit kiegészít a GPU, ami végtére is a rendszermemóriát használja.
Szerintem ez nem feltétlen előnyös. Abból a szempontból igen, hogy lesz egy csomó SIMD még, ami gyorsítótárként használja a VRAM-ot, és logikailag hozzákapcsolódik az IGP-hez, de ez csak platformmal működik. Valszeg egy-két évig fenn lehet tartani, de vége a full integráció ennek is. Ahogy bonyolódnak a feladatok úgy válik egyre nagyobb korláttá, hogy egy külső buszon kommunikál a CPU és a GPU.Várhatjuk az új konzolokat, hogy majd felpörög a VGA-piac, de a fejlesztői igények alapján pont ezek lesznek problémásak a PC-s CPU->VGA modellre. Annyi trükk kell majd itt, hogy a portok elkészítése hosszadalmas és drága lesz. Persze több opció is van ezenkívül. Az egyik, hogy lebutítják a játékokat PC-re. Ami szvsz senkinek sem az érdeke, de egyelőre sokan vakarják a fejüket még a cégeknél is.
Pont ezért komoly téma az API-k eldobása. Ezt a szoftveres korlátot legalább ki lehet ütni. Erre lehet opció egy virtuális ISA. Az a nagy probléma, hogy minél hardver közelibb réteget csinál valaki, annál kevesebb fejlesztő követi a céget. Én úgy gondolom, hogy a lehetőségre szükség van, de a fejlesztők többsége az egyszerűbb utat választja majd. Úgy kell a fejlesztést egyszerűvé tenni, hogy kiüsd a szoftveres korlátokat, és még ne is kelljen többféle architektúrára dolgozni. Ilyen alapon tényleg egy Java bytecode-hoz hasonló virtuális ISA a legjobb, csak kellően a hardverhez igazítva.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
Itt van még két slide, amit eddig nem nagyon láttam:
-
FireKeeper
nagyúr
válasz RyanGiggs #195 üzenetére
régebbi architektúrájú kártyával nyilván nem fog összedolgozni.. mivel nem hiszem, hogy az alsó és alsó/közép hd7000-ek megkapják a gcn-t, ezért tuti, hogy majd csak a jövőbeli hd8000-ekkel fog működni, de szerintem még ott sem mindegyikkel.
steam, GOG, uPlay: @petermadach || HotS: PeterMadach#2675 || Xperia 10 VI || Ultrawide & SFF masterrace || Unofficial and unpaid VXE R1 shill
-
RyanGiggs
őstag
Nem tudom kérdezte-e már valaki, ezért megkérdezem, hogy
majd a 2013-ban debütáló Kaveri APU mellé már bármelyik
vgát be lehet tenni?! Mire gondolok pontosan?!
Pl. a jelenlegi Llano mellé, ha jól tudom akkor CSAK max egy HD6670 társítható!
Tehát a kérdésem, a Kaveri APU mellé akár egy 5850-et, vagy
egy 7950-et is be lehet tenni, annak céljából hogy összedolgozzanak? -
dezz
nagyúr
Nos, remélem, nem csak azt az egy sort olvastad el Abu hozzászólásából, és nem kérdezed meg többször, hogy mire jó ez az egész az hétköznapi usernek...
De amúgy miért csak a hétköznapi user szintjét kellene nézni? A PC nem csak hétköznapi user szintű felhasználásra való, sőt nem is elsősorban hard-core gamingre. A leginkább megcélzott piacok ma már ezek: mobil vonal, olcsó irodai gépek és drága SW/HPC (SW = workstation, HPC = High Performance Computing, komolyabb WS, mini- és szuperszámítógépek), pl. ipari területre, kutatás-fejlesztésre, stb. -- amikből hosszabb távon általában a "kisember" is profitál. (Főleg, ha pl. majd ilyen alapú felhőkből streameli [vagy mi ide a jó kifejezés?] a képet a kis tabletjére, stb.)
(#177) atok666: Ha nem is annyira általános célú, mint a CPU, de az egyik fő cél az általános célú számításokra való alkalmasság. A GCN (HD79x0, stb.) kimondottan ennek szellemében készült, de már generációk óta szempont (Nvidiánál méginkább).
[ Szerkesztve ]
-
dezz
nagyúr
Nézzétek meg ezeket a videókat: [link], [link] Aztán a többit... És képzeljétek el, hogy így néznek ki majd a játékok, ilyenek lesznek a robbanások, a tűz, a folyadékok, alapvetően a fizika és a grafika...
Mindehhez a CPU önmagában nagyon-nagyon kevés, valós időben. Alapvetően GPU alapon valósítható majd meg valamikor. Leginkább a CPU és a GPU szoros együttműködésében. Csak hát oda el is kell jutni valahogy...
(#172) julius666: "Olyannyira nem hogy már a shader nyelvek idején is voltak próbálkozások. "
Tisztában vagyok vele, hiszen a GPGPU megjelenésekor még sehol sem volt a CUDA és a OpenCL.
"Egyébként a linkelt demóid meg amiket említettél is jellemzően fizikai/pénzügyi/képalkotásos számítások. Ezekről beszéltem én is, hogy ezekre valóban jó már most is a téma."
Azért nem egészen ezt írtad...
"Nem tudom mennyi dolgod volt szoftverfejlesztéssel meg mennyi GPGPU fejlesztővel beszéltél, mert ez így nem kicsit meredek."
Csak úgy 26 éve programozok és 20 éve ebből élek... (Bár úgy 10 éve jellemzően nem OS alatti user applikációkat, hanem hw-fejlesztés keretében embedded, uC.) A '90-es években jellemzően videós képfeldolgozással és effektezéssel foglalkoztam. (Akkor még nem úgy ment, hogy google: xyz torrent... Photoshop is kezdetlegesebb volt kissé. Mindenhez saját, jól optimalizált kód kellett.) Akkor nagyon-nagyon jól jött volna a GPU-k ereje!
Ha most lenne egy nagy számításigényű fejlesztésem, kizárt, hogy nem állnék neki GPU alapon megvalósítani... (Még ha esetleg szellemileg már kissé megterhető is lenne.)
Ma a legtöbb programozó kis beosztott, a főnök írja elő, mennyi időt lehet valamire szánni, stb. Ismerjük: pl. a legtöbb játékot is pocsék módon optimalizálják (pl. egyes exklúzív konzolos címekhez képest), a határidők, költségek és D-kat. code-monkey "hordák" miatt, stb. Ami kicsit is optimalizált, az már király...
Ismerősömék egyébként 6-7 éve fejlesztettek shader alapon egy komolyabb képfeldolgozást, ipari célokra.
(#173) Abu85: Sajnos pl. a CAD/CAM programok között jópár van, ami máig egyszálas... Ha nincs konkurencia adott témakörben (vagy csak elméletben, de be van betonozódva a piac), akkor nem nagyon erőltetik meg magukat...
-
Angel1981
veterán
"Gondolom az AMD ezért dolgozik azon, hogy a dGPU az APU kiegészítése legyen, mint egy koprocesszor, dedikált gyorsítótárral."
Igen, szerintem is megpróbálnak tenni azért, hogy a nextgen konzoljátékok átportolhatóak legyenek PC-re, mert ha nem sikerül, akkor tényleg drámaian esni fog a kereslet a dVGA-k iránt, és végérvényesen perifériára kerülhetnek, csak professzionális piac marad...
-
Abu85
HÁZIGAZDA
A Youtube-os megoldás nem valami korrekt, illetve alig használják. Ha nem így szerkesztetted le a videót, akkor nem is lesz elérhető. Egyedül az AMD kínál ilyet valós időben (Steady Video), csak ez nem érhető el minden gépen, mivel AMD platformhoz van kötve, ami szvsz baj.
Mert a skálázást nem veszed számításba. Teljesítményre mindig szükség lesz, csak más igények mellett. Most már a fogyasztás is fontossá vált. A processzormagok skálázhatósága viszont így erősen korlátozott. Csak abból indulj ki, hogy egy magról váltottunk kettőre. Ez elméletben duplázta a throughput teljesítményt. Ezután kettőről álltunk négyre. Ezzel szintén majdnem dupláztunk noha, az órajelet vissza kellett venni a fogyasztás mérséklése véget. Innen az egész turbó dolog, mert kihasználható a TDP keret egy maggal. Most már szinte csak +két magot pakolunk be, ráadásul egyre kisebb sebességelőnyt biztosítva. A skálázhatóság még nem tűnt el, de el fog. Négy mag jelenleg az ideális paraméter, és a további skálázhatóságra jobb eredményt ad, ha az IGP-t használják a gyártók. Sebességben, fogyasztásban előnyösebb. Egyedül a programozási modelleken kell változtatni.
A user azért vesz PC-t, hogy többet tudjon, gyorsabb legyen, és kevesebbet fogyasszon. Ezeket az igényeket a heterogén többmagos lapkákkal lehet biztosítani. A gyártók csupán kiszolgálnak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atti_2010
nagyúr
Hát igen mert nem kell diszkrét VGA-t használni ami jelentősen megdobja az árat, vagy ha játékos gépre törekednek akkor ötvözhetik a diszkrét kártya erejét az APU-val így jóval kisebb kártyát is lehet használni.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Davs
tag
válasz atti_2010 #175 üzenetére
Szerintem felreertettel, en errol az egeszrol annyit tudok csak, amennyit itt olvasok erdeklodtem csak, hogy kb mikorra er el az atlagfelhasznalokhoz a dolog..most vettem notit i3 sandyvel, elozo notim 5,5-6evet huzott le nalam, szoval ugy 4-5 ev mulva tervezek venni ujat es arra celoztam, hogy akkor mar kemenyen az-e fog folyni a csapbol ..
-
atok666
őstag
<off> Youtubeon is csak egy klikk a razkodas-szures </off>
Nem kotom az ebet a karohoz, de meg mindig nem latom a nagy elonyt.
A dolgok amiket felsoroltal - gondolom ez az atlagfelhasznaloi igeny, ez jott le az irasodbol es te jobban tudod mint en - a real-time video vagas kivetelevel, gyakorlatilag minden mukodik ma is. Az, hogy efektivebben megoldhato par dolog, a user szamara lathatatlan, nem erez belole semmit - talan annyit hogy egy oraval tovabb birja az akksi, esetleg 2euroval alacsonyabb lesz a havi villanyszamla.Atok
-
atti_2010
nagyúr
Pont a Tescos gépeknél lesz ez bevezetve legelsőre mert egy elég erős APU-nal kihagyják a VGA -t és elsütik jó áron a tulajdonképpen jóval olcsóbb gépet.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Abu85
HÁZIGAZDA
Az otthoni videószerkesztés egyre jobban kezd terjedni. Ma már boldog-boldogtalan vehet olcsó kamerát, amivel szépen csinálja a családi fotókat. Ezek nem biztos, hogy profi szintűek lesznek, amire a vReveal program a jó, mivel ez gyorsan feljavítja a minőséget, és elveszi a zavaró rázkódást. Ez a OneClickFix opció például CPU-val jóval tovább tart, mint egy APU-val. Persze lehet mélyebben is szerkeszteni, ami még tovább tart. Az otthoni videószerkesztés, az egy nagyon menő üzletág ma. Nem véletlen, hogy ennyi alternatívát kínálnak már rá a fejlesztők. Egyszerűen mindenki fel akarja tölteni a youtube-ra az anyagát. Szintén nagyon terjedő dolog a képekben való információkeresés ... Pl.: arcfelismerés, mivel a közösségi szolgáltatások behálózzák a júzerek életét. Erre is vannak programok, amelyek OpenCL-lel a APU/GPU erejét kihasználva keresik a megadott arcot több ezer kép közül.
A Kinect egyelőre egy beköszönő technológia. Még nem beszélhetünk arról, hogy mennyire jön be az embereknek, mert a konzolos megoldás más, mint a PC-s. Ha viszont bejön, akkor szintén nem kérdés, hogy a GPU-n érdemes a képkockákat feldolgozni. Nem csak energiát spórolsz vele, de gyorsabban is dolgozható fel az adott tartalom. Sajna a kinectnek azért van egy elég komoly lagja, ami nem csupán az adatok feldolgozásából jön, de jórészt onnan is, amit a gyorsabb feldolgozás csökkenthet. Persze eltüntetni nem lehet, de manapság azért nagyon érezhető lagról van szó.
Növekvő terület még a telekonferencia, mely most kezd otthoni szinten is kialakulni. Szintén vannak rá programok OpenCL-es gyorsítással. Persze itt valszeg majd a Skype adja a reformokat, de az MS-nek ott a C++ AMP.
Ezek mind terjedő dolgok. Zömében azért is megy erre a piac, mert a fizikai korlátok mellett az igények is a GPU-val való kiszolgálás felé tolódnak el. Egyszerűen egyre gyorsabban akarnak a júzerek videót szerkeszteni, egyre gyorsabban akarnak arc alapján keresni a képek között. És persze mindezt egyre kisebb fogyasztással. A CPU nem skálázható olyan mértékben, hogy ezeket az igényeket lefedje.A hardcore játék, aminek a célcsoportja szűkül. Ez zömében a konzolok miatt alakult így. A PC-s játékpiacnak nincs vége. Ezt az AMD is mondta az előadásokon, de nem lehet elmenni amellett, hogy a social gaming válik meghatározóvá. Mondta Lisa Su, hogy a hardcore réteg egy nagyon fontos terület, és mindig lesz erre igény, de a hétköznapi játékosok nagyságrendekkel nagyobb piacot képeznek, ami üzletileg kihagyhatatlan lehetőség. Nyersebben fogalmazva a social gamingben van a pénz, míg a hardcore csak úgy van már. Néha hoz egy kis nyereséget, majd egy kis veszteséget, de a social gamingből, vagyis az APU-val/IGP-vel megcélzott területekről származó nyereség, ezt messze kompenzálja. Pénzből élő cégek hülyék lennének kötni magukat a régi trendekhez. Ha változik az igény, akkor változtatni kell a termékeken is. Most ez történik.
A social gamingnél valszeg a web lesz a meghatározó. Azon belül is a Flash 11, a WebGL/WebCL/HTML5, és a többi felület, mint a Unity vagy a WebVision. ezeket kell erősen támogatni. Mindegyik GPU-val gyorsítható.A hardcore gaming egyelőre nehéz ügy. Attól függ a jövője, hogy az új generációs konzolok hogyan alakulnak. A Wii U és a pletykált új Xbox felépítése egyáltalán nem kedvez annak a modellnek, ami most a PC-ben van: egy CPU rendszermemóriával, és egy dGPU saját memóriával, mindez egy magas késleltetésű nem éppen gyors busszal összekötve. Gondolom az AMD ezért dolgozik azon, hogy a dGPU az APU kiegészítése legyen, mint egy koprocesszor, dedikált gyorsítótárral. Most arról még nehéz bármit is mondani, hogy ez mennyire jön majd be. Az biztos, hogy változtatni kell, és az új konzolok felépítéséhez kell igazodni valamilyen szinten.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atti_2010
nagyúr
Ha hirtelen mindenki APU-ra fejlesztene akkor a CPU-t majdnem el is lehetne felejteni vagy elég lenne egy 1 magos APU, mert sokkal rosszabb a hatásfoka mint a GPU-nak.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
atok666
őstag
Igen, ezert irtam ezt a ket peldat, ahol a masszivan parhuzamos kod nagy elonyt jelent, de ez mind eleg specialis terulet - szerintem. WinZip detto. Havonta, kb. ha egyszer tomoritek vmit ami nem 20mpig fog tartani, hanem 3. Tudom, nem rolam szol a dolog, de nem hinnem hogy masok napi szinten tomoritenek terrabytenyi adatokat - gyakorlatilag semmit nem ad - megintcsak szerintem. Ezert irtam mar tobbszor is, hogy en nem latom - az atlagfelhasznalo szempontjabol - azt a nagy lepest amit az APU/GPU ad.
Atok
-
atok666
őstag
Enkodolas, othtoni videoszerkesztes, kinect, jatekok - csupa olyan dolog amirol allandoan azt irjatok, hogy nagyon kis retegnek szol es nem ok a celcsoport - ergo nem eri meg nagyon fejleszteni ide - vagy megis?
Ha mar a mostani CPU is tul eros, tehat felesleges fejleszteni, akkor miert jobb a CPUnal sokkal erosebb GPU? Az hova?Atok
-
Abu85
HÁZIGAZDA
A jelszótörésben régóta a GPU a király. De egy jól megválasztott jelszóval akkor sem tud mit kezdeni. A rövid jelszavakat természetesen gyorsan bezúzza.
Ennél a résznél a fájltömörítésben lehet előnyt kovácsolni. A Corel már készíti is a APU/GPU-val gyorsított WinZip 16.5-öt.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atok666
őstag
válasz atti_2010 #175 üzenetére
Valoszinuleg gyorsaban tori fel a jelszot a GPU es gyorsabban kodol, de ez a mezei user szempontjabol kb zero elony. GPU erosebb specialis feladatokban, de nem altlanos celu processzor ha jo tudom, vagy tevednek? Majd ha pl egy komplet fejleszoi kornyezet fut GPUn , es 100x gyorsabban lekompilalja ugyanazt a kodot akkor azt mondom ok - aztan az is lehet, hogy mar van ilyen csak en nem tudok rola.
Atok
-
Abu85
HÁZIGAZDA
A felhasználás módjától, a programoktól, a mobil iránytól és a dedikált GPU meglététől függ. Például a multimédiás programok fejlesztői eléggé érdeklődnek ez iránt, így manapság már egy APU a legjobb megoldás ide. Ez idén a gyártók fejlesztéseit látva nagyon kiterjed, ugyanis a Trinity és az Ivy Bridge is erősen a fejlesztők igényeit követi. Például az enkódolásra lesz egy több módban is elérhető dedikált enkódolómotor. Vagy például az otthoni videoszerkesztésnél ott van a vReveal, mely már OpenCL-re van optimalizálva, azon belül is nagy előny a sebességben, ha nem a lassú PCI Express buszon keresztül megy dGPU kezelése. Ebből a szempontból gyorsan hátrány lesz a sima processzor.
A jövőben a GPU-ra a tipikusan jól párhuzamosítható feladatok fognak átkerülni. Például a C++ AMP-re az MS biztos átírja a Kinect SDK-t, mivel a mobil termékekbe is bele akarja rakni, amit a procik nem bírnának el. Ezen a ponton is gyorsan előny lesz az APU.
A játékok még az opciós terület. Például a Shogun 2 IGP-n számolja az AI-t, ha AMD Brazost, vagy Llano APU-t használsz. Ez nem annyira általános megoldás, mert CTM-ben van írva, de erre lehet vinni a játékokat, hiszen működik.
További opció a WebCL, amit a mobil cégek erőltetni fognak, mivel GPU-t használja a weben az általános számításra. Ezzel energiát spórolnak meg az üzemidőben, és még gyorsabb is a feldolgozás.
Nagyjából ezeken a területeken lesz erős fejlődés.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atti_2010
nagyúr
Még mindig jobb mintha csak azt szajkóznák hogy CPU-t vegyetek mert az kell nektek, jó erős CPU, közben egy GPU jóval gazdaságosabban működik hiszen az Intel legerősebb CPU-ja is töredékét tudja egy HD 7xxx számítási teljesítményének.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Davs
tag
~kb hány év kell ahhoz, hogy az atlagfelhasznalo szempontjabol "hatrany" legyen a sima cpu az apuval szemben? Szoval mikorra lesz mindennapi, hogy ki is lesz hasznalva? 4-5 ev?
-
Abu85
HÁZIGAZDA
A programozókat felesleges szidni. Ők egyszerű megoldásokat keresnek. A kétmagos CPU-kra való átállás sem volt gyors. Azt mindenki tudta, hogy ez a következő lépcső, csak mondhatni nem akarták. De amikor egy magon a skálázódás megszűnt, akkor az egyetlen úttá vált, és ez versenyt gerjesztett a programozóknál is. Amelyik szoftver megfelelt az új igényeknek, fennmaradt, amelyik pedig nem. Hát lemorzsolódott.
Most is ugyanez van. Mindenki tudja, hogy a fizika korlátot szab a homogén többmagos processzorok skálázásának. Ezzel szükséges az új elv. Arra pedig át fog állni minden szoftverfejlesztő, mert a verseny megindul. Aki nem használja az új fejlődési lehetőséget lemorzsolódik, ahogy ez az egymagos éra végén történt. Erre a helyzetre még rátesz a fene nagy mobil irányvonal, vagyis minden sokkal gyorsabban történik mint korábban, mert a mobil igények még kisebb fogyasztást követelnek, és az emberek elvárják, hogy legyen teljesítményben is előrelépés. A gyártóknak egyszerűen nem adnak választási lehetőséget a vásárlók, a heterogén éra az egyetlen megoldás az igények kielégítésére.Az Intel ugyanúgy beáll a sorba. Hiba lenne önfejűen újra a fizika törvényeinek legyőzésére törni, mint a Pentium 4 idején. Egyszer már megtapasztalták, hogy ez lehetetlen. Még egyszer megpróbálni szerintem nem érdemes. Működésre kell bírni a Larrabee-t, és az az Intel fegyvere itt. Akkor lesz gáz, ha nem fog működni. Ha nagyon agresszív a stratégia, akkor már a Broadwellbe be kell rakni. Kockázatos, de a Skylake-ig várni még nagyobb kockázat, hiszen akkor az AMD és az NV közül az Intel lesz az integrációs versenyben a legutolsó, ez az SDK-k terjesztésénél katasztrófával ér fel. Az Intel a legkevésbé sem akarja, hogy az AMD vagy az NV SDK-jával készüljenek az új programok. Az AMD-t időben valszeg már nem lehet verni, mert a Kaveri 2013-ra van tervezve, de a 2014-re készülő NV Maxwell még elkapható.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
julius666
addikt
Figyelembe kellene venni, hogy az GPGPU-s téma nem tegnap indult, az eleinte elég kezdetleges CUDA-val, az OpenCL-lel és az első, már valamilyen szinten GPGPU-képes GPU-kkal együtt.
Olyannyira nem hogy már a shader nyelvek idején is voltak próbálkozások.
Egyébként a linkelt demóid meg amiket említettél is jellemzően fizikai/pénzügyi/képalkotásos számítások. Ezekről beszéltem én is, hogy ezekre valóban jó már most is a téma.
Azok az algoritmusok, amik párhuzamosíthatók és SIMD-esíthetők, többnyire "GPU-síthatók" is.
Igen, elméletben. Gyakorlatban ha nem elég nagy az a számítási igény amire szükséged van, nem éri meg. Egyrészt a késleltetés miatt (a CPU-s SIMD egységek ugye ott vannak kéznél rögtön, míg a GPU-hoz kinyúlni így tippre még a mostani APU-knál is legalább a memóriaelérés ideje). Ez az említett fizikai/stb. számításoknál meg van, egyéb területeken már nem feltétlenül.
Nem jól párhuzamosítható esetben meg hát ugye bikmakk.
Itt inkább a programozók hajlandóságáról van szó, hogy nekiálljanak átírni a teljesítményigényesebb programokat OpenCL-re.
Ó, azok a fránya programozók.
Nem tudom mennyi dolgod volt szoftverfejlesztéssel meg mennyi GPGPU fejlesztővel beszéltél, mert ez így nem kicsit meredek.[ Szerkesztve ]
-
dezz
nagyúr
válasz julius666 #169 üzenetére
Figyelembe kellene venni, hogy az GPGPU-s téma nem tegnap indult, az eleinte elég kezdetleges CUDA-val, az OpenCL-lel és az első, már valamilyen szinten GPGPU-képes GPU-kkal együtt. Azóta generációról-generációra volt fejlődés, bár elsősorban Nvidia oldalon, amit most viszont GCN egy hétmérföldes lépéssel kompenzál, igaz a válasz sem várat magára túl sokáig a Kepler képében. Ezek utóbbiak már kimondottan elsősorban GPGPU-s felhasználásra készültek!
Nos, én nem csak hallomásokra hagyatkoztam, hanem feltettem az AMD OpenCL driverét (illetve most már benne van az alap drivercsomagban) + több tucat OpenCL demót, példaprogramot, stb. az AMD-től, Nvidiától és máshonnan.
"az idétlen modell és a korlátok miatt pár speciális erre a fajta számítási problémára kihegyezett területen kívül vagy nem is implementálható rendesen a célalgoritmus, vagy nem lesz gyorsulás"
Aha. A fent említett cuccok között számos különféle terület képviseltette magát és sokkal gyorsabban (5-10x) futottak GPU-n (HD5750), mint CPU-n...
Azok az algoritmusok, amik párhuzamosíthatók és SIMD-esíthetők, többnyire "GPU-síthatók" is. Persze, jelenleg több szakértelem és "elszántság" kell hozzá, mint egy "sima" C kódhoz, amit (néhány más előny és könnyítés mellett) a HSA hoz el. De azt mondani, hogy még nem tartunk sehol és ez még szinte használhatatlan, ill. "nincsenek még értelmes chipek", az egyszerűen nem igaz.
Az 1-2 éven belül megjelent PC hw-ek közül az egyedüli nem OpenCL képes az a Sandy Bridge IGP-je... De a legkisebb gépeket leszámítva ugye amellé is tehetünk OpenCL-képes videókártyát.
Még azt sem lehet mondani, hogy a cégek a professzionális piacra korlátoznák az OpenCL-t...
Itt inkább a programozók hajlandóságáról van szó, hogy nekiálljanak átírni a teljesítményigényesebb programokat OpenCL-re. Illetve a felhasználók elvásárairól. És arról is, hogy az Intel egyelőre inkább igyekszik keresztbe tenni ennek, mint előmozdítaná. De ezt már nem sokáig teheti meg. Tudja ezt ő is, hiszen az Ivy Bridge már szintén OpenCL támogatású lesz. És az, hogy ezáltal (és AMD-s társai által) már a hétköznapi IGP-től kezdve ott lesz minden gépben az OpenCL (nem is olyan kis teljesítmény mellett), újabb nem kis előrelépés.
A HSA (vagy pl. Nvidia részről az ilyenek, mint pl. az Echelon - aminél mellesleg akár ők is átvehetik a HSA-t) nyilvánvalóan egy teljesen új korszakot fog nyitni -- de az előszelét már most is érezhetjük. Elég hozzá kicsit kinyitni az ablakot...
[ Szerkesztve ]
-
julius666
addikt
Igazából nem a GPGPU létjogosultságát tagadtam, csupán hogy ez a "heterogén számítás kora" még mindig piszok messze van.
Az hogy pár kirakatalkalmazást aminél a célfeladatok éppen jól feküdtek a GPU-k architektúrájának és ezért megérte vesződni vele nem nevezném még annak. Jelenlegi formájában nagyon szutyok a dolog, az idétlen modell és a korlátok miatt pár speciális erre a fajta számítási problémára kihegyezett területen kívül vagy nem is implementálható rendesen a célalgoritmus, vagy nem lesz gyorsulás, de cserébe bekapsz egy rakat lehetséges bug- és sérülékenységi forrást a programodba. Na meg amennyire hallottam a CSUDÁ-ban meg OpenCL-ben sem velejéig tejfel az élet amint valami trükkösebbet akarsz (tehát nem tankönyvi példaprogramról van szó). A sokezer-csilliárd teraflopsos értékek a marketinganyagokban marha jól mutatnak de ha nem lebegőpontos műveletek ezreit akarom daráltatni a GPU-n, szart sem érnek.
Majd ezt a HSA-t meglátjuk mit fog tudni, az mindenesetre látszik az AMD nyilatkozataiból hogy 2014 előtt nem kapunk teljes támogatást bíró lapkát. És akkor még mindig ott vagy hogy alig lesz ilyen a piacon.
Elnézést hogy csak most válaszoltam, remélem még elolvasod.
[ Szerkesztve ]
-
Plasticbomb
addikt
Csak gondolj bele (Valahol láttam adatot arról,m hogy az akkori (kb 2 évvel ezelőtti ) csúcs intel proci tudott 25-30 GFLOPs számítási teljesítmény... Na ezt hasonlítsd össze egy akkori (Kb hd 5770) VGa 1,36 TFLOPS számítési teljesítményével... )
ArchLinux, Star Citizen, Subnautica+BZ, ASTRONEER, Grounded, DRAG, VOLCANOIDS, Space Engineers, Elite:Dangerous, Beyond Blue (TK-Glitch Proton)
-
Plasticbomb
addikt
válasz djculture #40 üzenetére
A VGA, mint külön VGA megmarad egyenlőre. Ha szagat a CRYSIS az APU-n, akkor bevágsz a gépbe egy hd 7970/7990-et s csókolom......
ArchLinux, Star Citizen, Subnautica+BZ, ASTRONEER, Grounded, DRAG, VOLCANOIDS, Space Engineers, Elite:Dangerous, Beyond Blue (TK-Glitch Proton)
-
Plasticbomb
addikt
Nem, csak evolúciós lépcsőn lép egyet feljebb... Vagyis a sima CPU APU lesz. S mi a Fő külömbség a CPU és az APU között: Az, hoyg az utóbbiban már VGA is van....
ArchLinux, Star Citizen, Subnautica+BZ, ASTRONEER, Grounded, DRAG, VOLCANOIDS, Space Engineers, Elite:Dangerous, Beyond Blue (TK-Glitch Proton)
-
dezz
nagyúr
Engem meg az érdekelne, hogy miért nem FinFET-nek nevezik, mint az ipar többi része, már amióta kifejlesztették (10 éve?).
-
cqr
aktív tag
Máig nem értem, hogy a TriGate-ből hogyan lett a marketinganyagban 3D-s tranzisztor.
Bár a 3D elnevezés nem az igazi, azért annyira nem érthetetlen, hogy honnan jött : d.
Igaz hogy a vezetési jelenség továbbra is effektíve 2D-ben történik (csak nagyobb felületen), azért még is csak lesz olyan vezetési sík ami a z tengellyel párhuzamos : dd..
-
atti_2010
nagyúr
TriGate-ből hogyan lett a marketinganyagban 3D-s tranzisztor. Ez az utóbbi évek legnagyobb baromsága, hogy egy tranyó 3D-s. Értem, hogy a júzer nem érti a TriGate-et
Vér Pista már 3 szemüveget is rendelt hozzá hogy a haverok is lássák ha vesz új Ivyt.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Abu85
HÁZIGAZDA
válasz Angel1981 #160 üzenetére
Az Intel nem túlozza el a dark silicon jelenségét. Anno amikor a Pentium 4-et fejlesztették teljesen leszarták, hogy létezik ez a probléma. Egy darabig vitték a terveket, majd látták, hogy nem működik, és követték az AMD-t a többmagos irányba. Ezzel párhuzamosan törölték is a Tejast. Ugyanaz volt a probléma, mint most is, csak most a többmagos chipek skálázásával van gond. Ezzel az Intel nem mond magának ellent, csak nem akarnak megint félrefejleszteni. Nekik sem volt könnyű a Pentium 4-es vonalat eldobni, de el kellett, mert a mérnökök képtelenek voltak a fizika törvényeit legyőzni.
Lehet jönni a gyártástechnológiai váltásoknál az előnyökkel. Rendszerint az az előny, hogy egyre több tranyó fér be ugyanakkora helyre. Aztán ott van az, hogy a tranyók bekapcsolásához szükséges energia nem csökkent olyan mértékben, mint ahány tranyóval több építhető be egységnyi területre. Ezt szokás elhallgatni, de minden gond alapja. Ha ez nem lenne, akkor most 10-20 GHz-es egymagos processzorok dolgoznának a gépekben zömében a Netbrust architektúrára építve.
A bejelentésekkel az a baj, hogy marketinges csinálja. Ez addig nem gond, amíg a termékbejelentés egyszerű. A gyártástechnológia tipikusan nehéz terep. Máig nem értem, hogy a TriGate-ből hogyan lett a marketinganyagban 3D-s tranzisztor. Ez az utóbbi évek legnagyobb baromsága, hogy egy tranyó 3D-s. Értem, hogy a júzer nem érti a TriGate-et, de most komolyan egy olyan marketinganyagra építesz, ami 3D-s tranyót említ? Ki tudja még milyen fontos részletek kerültek törlésre "a júzer úgysem értené alapon".
De ha már marketing akkor gondolhatsz a Larrabee-re is, hogy ilyen-olyan ray-tracing valós időben. Hát ... termék nem lett, nemhogy ray-tracing. Az pedig kizárt dolog, hogy egy mérnök, vagy egy programozó valóban valós idejű ray-tracinget mondott a marketingeseknek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Angel1981
veterán
Ok, ebben van igazság, de:
"a kicsiből viszont több fér el, növelve az adott területre eső fogyasztást"
Az első mikrochipet 10 mikrométeren, vagyis 10.000 nm-en gyártották.
Mostanság már vannak kísérleti, 10 nm-es gyártósorok, vagyis adott területre 1000^2-en, vagyis kb. 1 milliószor több tranzisztort tudnak bezsúfolni.
Ha a fogyasztás nem csökkenne; már rég MW-okat fogyasztó chipek lennének.
Az Intel 2009 őszén, az IDF-en büszkén demonstrálta a 22 nm-es gyártástechnológiáját, és ott magyarázta, hogy adott tranyóra viszonyítva mennyivel csökken a fogyasztás a 32 nm-hez képest...
Nem ez az első eset, hogy egy cég ellentmondásba keveredik önmagával, mert marketing szempontból előnyösebb neki hol ezt, hol azt mondania...
Kicsit olyan érzésem van, mint pl. anno a Sony esetében, amikor a PS3 debütálásakor arról beszélt, hogy azért nincs rezgő funkció a kontrollerekben, mert "nem tudták megoldani", hogy egyszerre rezegjen, és legyen tartásérzékeny, holott szabadalmi vita volt a háttérben, és aki józan ésszel belegondolt, már akkor tudta, hogy hülyeségeket beszélnek, vagy keményebben fogalmazva; hazudnak!A DS, mint írtam, valóban létező jelenség, de az Intel erősen eltúlozza, ellentmondva korábbi önmagának is...
[ Szerkesztve ]
-
cqr
aktív tag
válasz Angel1981 #155 üzenetére
Ha egy tranzisztor kisebb, kevesebb atomból áll, tehát a működtetéshez is kevesebb áram fog kelleni.
Nem tudom, hogy tanultál-e mikro/nanoelektronikát, de a teljesség igénye nélkül talán inkább így érdemes elképzelni : a mos karakterisztikánál egy adott fesz kényszert feltételezve az átfolyó áram a fizikai méreteket tekintve elsődlegesen a W/L aránytól függ. Hiába szélesebb a nagyobb, 'több atomból' álló tranzisztor (ezáltal javítva a vezetőképességet), arányosan hosszabb is, így kb. (a kb. hangsúlyos : ) hasonló áram fog folyni a nagyon, mint a kicsin (a kicsiből viszont több fér el, növelve az adott területre eső fogyasztást.)
Természetesen számít a méret, messze nem lineáris a kapcsolat, rengeteg másodlagos, harmadlagos hatásnál is figyelembe kellene venni. (Illetve egy CMOS kapcsolásnál persze nem csak az egymásba vezetésből származik a fogyasztás.)
[ Szerkesztve ]
-
-
atti_2010
nagyúr
válasz Angel1981 #155 üzenetére
Ismét szemléletváltásra van szükség, mint anno a Netburstnél, amikor végre nagy nehezen belátták, hogy nem lehet a frekvenciát tovább növeli gazdaságos mértékben.
Igen de ehhez az Intelnek is be kellene lássa hogy értelmetlenné vált a "maggyártás" de ők az ellenkezőjét teszik, nyilvánvaló hogy miért.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Angel1981
veterán
Ez a dark silicon nekem valahogy nem kerek!
Ha egy tranzisztor kisebb, kevesebb atomból áll, tehát a működtetéshez is kevesebb áram fog kelleni.
Szerintem az Intel túlmisztifikálja ezt az egészet, hogy ne legyen olyan furcsa, hogy ő is beáll a heterogén érát támogatók sorába.
Arról van szó, hogy felesleges a magok számát ilyen tempóban növelni, mert a programozóknak egyre nehezebb dolguk lesz velük kapcsolatban.
Ismét szemléletváltásra van szükség, mint anno a Netburstnél, amikor végre nagy nehezen belátták, hogy nem lehet a frekvenciát tovább növeli gazdaságos mértékben.
Akkor persze egyből a magok növelését látták gyakorlatilag egyetlen, és "ultimate" megoldásnak. Most már ez sem folytatható, váltani kell, csak alibiből előjöttek ezzel a "dark silicon"-nal, mintha ez kényszerítené rá őket a váltásra...
A DS természetesen létező jelenség, de mint mondtam ,az Intel túlmisztifikálja - ez személyes véleményem![ Szerkesztve ]
-
atti_2010
nagyúr
válasz Angel1981 #151 üzenetére
Ahhoz hogy fent tudjon tartani akkora gyárakat folyamatosan termelnie kell de nekik nem volt annyi melójuk, megoldhatták volna hogy a GPU gyártást is ők végezzék de ahhoz meg gépeket kellett volna vásárolni viszont abban az időben nagyon el voltak adósodva és vitték a bankok a pénzt zsákszámra, mint most a Magyarországtól, így el kellett adni.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
-
Angel1981
veterán
válasz atti_2010 #147 üzenetére
Igen, ezzel egyetértek, de ugyebár ha az AMD is kisebb csíkszélességen készíti a megoldásait, akkor még jobban oda tud pörkölni az Intelnek.
Oliverda: köszi! Én is ebben bízom, hogy 2014-ben már 20 nm-es lesz a gyártástechnológia, 2016-ban meg 14 nm.
Az AMD-nek egyébként van teljesen saját gyártósora, mint az Intelnek? -
atti_2010
nagyúr
válasz Angel1981 #145 üzenetére
Hiába fogja az Intel 14nm gyártani a cuccát ha a szokásos "adok nektek egy még erősebb processzort egy jó fos IGP-vel" stratégiát követi.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Angel1981
veterán
Tudom, hogy más a gyártási eljárás, de kicsit furcsállom, hogy az AMD még 2013-ban is 28 nm-en akarja gyártani az APU-it, amikor az Intel elvileg 2014-ben már 14 nm-en lesz!
Azt tudni lehet, hogy a Kaveri utódja 2014-ben hány nm-en készül?[ Szerkesztve ]
-
jozsef m.
tag
Kis előzetes:
-
dezz
nagyúr
válasz #16729600 #139 üzenetére
Én sem a konzolokat védtem, természetesen ez mindkettőre vonatkozik, hiszen lényegében ugyanaz a grafika (bár egyes exklúzív címekben próbálnak szép dolgokat kihozni, a "végtelenségig" csiszolgatva, azért megvannak a korlátok), fizika (hiánya).
Az következő konzolgenerációnál a várható 2-3x erősebb hw-ből (aktuálishoz képest) azért nyilván jóval többet ki tudnak majd hozni. Persze attól, amit írtam, ez még ugyanúgy messze van.
Mondjuk, érdekes lehet a jövőben, ha esetleg majd valami nagyon spéci konzol hw-t fejleszt egy cég, ami PC-re ki sem hozható, mert pl. önmagában lesz teljes egész.
(#138) atok666: #135?
-
#16729600
törölt tag
Én nem védem a pc-s játékokat,de nem hiszem,hogy szemernyi pozitív előnye lenne minőségben a konzol gémeknek.Jellemzően bármilyen next gen konzolra annak a teljes élettartalma,kifutási ideje alatt megjelenik pár darab értékelhető játék.Ezeknek a mai 3-4 óra alatt végigvihető,agyat ,gondolkozást nem igénylő förmedvényeknek aztán teljesen mindegy ,hogy APU vagy DGPU van alattuk.Természetesen ez vonatkozik a pc only megjelenésekre is.Az általad megfogalmazott jelzősor ( "számítógépes", művies, élettelen, rideg, stb.) kis átfogalmazással minden további nélkül érvényes a konzol generációra is.
[ Szerkesztve ]
-
atti_2010
nagyúr
Egybe összefoglalom neked, a CPU-nak vége, haldoklik mert már nem bírja optimálisan kiszolgálni a mai igényeket és a magok száma sem növelhető a végtelenségig, a másik dolog pedig hogy egy GPU adott áramfelvételen 10x több számítást tud végrehajtani.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
hugo chávez
aktív tag
Ok, köszi. Tehát akkor még sem olyan egyszerű a dolog, mint ahogy elképzeltem, mármint, hogy a Microsoft csak beteszi a támogatást valamelyik DX-be és hadd szóljon...
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
dezz
nagyúr
Elég sokan azért nem játszanak 3D (mármint virtuális valóságos, nem térbeli [bár lassacskán ez is egyet fog jelenteni]) játékokkal, mert azt mondják, túlságosan "számítógépes", művies, élettelen, rideg, stb. És mindemellett az akciót leszámítva unalmas és egysíkú. Egy jóval élethűbb (nem csak grafikailag, hanem fizikailag is) és "klasszabb" virtuális világba szerintem sokkal több hétköznapi ember csatlakozna be... (És van egy olyan érzésem, hogy éppen ez a hosszabb távú cél.) Ehhez viszont a mainál sokkal-sokkal nagyobb számítási kapacitás kell majd!
Egy igazán pontos és gyors gesztus-vezérléshez azért kell a kapacitás. Pl. a Kinect hagy "némi" kívánnivalót. (Aztán, ha már itt tartanak, jöhet a térbeli környezet-felismerés, majd augmented reality.)
Ezek a 2D-s OS-ek is nagyon uncsik már...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz hugo chávez #133 üzenetére
Persze, hogy kell. Egy fix-funkciós egység kell a tesszellátor elé, hogy az megmondja mit, mennyire és hogyan kell tesszellálni. Ez adja meg az UV mapok valós idejű módosításához is az adatokat.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
atok666
őstag
Igen, igen, csak kerdem en, hogy kinek?
Az egyeszeru felhasznalo - akik a legtobb szamitogepet veszik - nem jatszik (neha ilyen-olyan ville stb, de semmi uj jatek, vagy ha igen, nem hiszem, h extra mod zavarna a real time ray-tracing hianya)
Ral time ray tracing, radiosity, fizika, ai? kinek?
Gyakorlatilag azt irod, hogy foleg a jatekosok hasznalnak ki az uj platform adta elonyoket, ami pedig csak egy elenyeszo reteg a gepvasarlok koreben - legalabbis ezt olvasom szinte minden cikkben.
UI - hm, am legyen, lehet, h a hangfelismeresben sokat segitenek a masszivan parhuzamostithato feladatok - nem latok bele, de legyen - persze mar ha a hangvezerles a jovo.
Egy gesztusalapu vezerlessel meg azer csak elbir ez "mezei" cpu is.Ezek a rovid tavu dolgok - ezeket latom en is, csak az ertelmet nem nagyon, a hosszabb tavukhoz meg nincs fantaziam - ezert irtam a hozzaszolasomat
Atok
[ Szerkesztve ]
-
dezz
nagyúr
Válasszuk ketté:
1. Játékok: a maiakkal már egy közepes CPU is elég a mai legnagyobb kártyák kiszolgálására is (két ilyenhez már kevés, de az nem sok embernek van).
2. Egyéb mai, hétköznapi alkalmazások és UI-k (user interface-ek): egy közepes proci többnyire valóban mindenre elég.De ez csak átmeneti állapot!
Várható változások az 1-est illetően:
- A mai játékok többségét, mint már elhangzott, alapvetően konzolra tervezik és onnan portolják PC-re, azaz a konzolok képességeit alapul véve tervezik őket. Nos, a mostaniak már nem valami nagy számok... Jelentős előrelépés várható az újabb konzolgeneráció megérkezésével, 1-2 éven belül is.
- A hagyományos PC-s real-time rasztergrafika minőségi szempontból nagyjából elérte a lehetőségei határát. (Komolyabb kártya általában max. grafika mellett is csak igen nagy felbontásokhoz kell.) De ez koránt sem jelenti azt, hogy a számítógépes real-time grafika elérte volna a végcélját, közel sem: szép-szép, de még nagyon műies! Lásd ray-tracing, radiosity, stb. stb.
- A fizika kb. sehol sincs még... Komolyabb fizikához CPU alapon (kliens szinten) nem is érdemes nekiállni -- GPU-val, főleg az egyre fejlettebbekkel már igen!
- Az MI sincs szinte sehol...Várható változások az 2-est illetően:
- Beszédfelismerés, gesztus-felismerés, stb. megjelenése az ember-gép "kapcsolatban".Ezeket mind GPU alapon optimális megvalósítani.
És ezek csak a rövidebb távú dolgok, hosszabb távon még annyi mindent el lehet képzelni... Csak egy kis fantázia kell hozzá...
Jópár dolog van, amibe CPU alapon eleve értelmetlen belekezdeni, de a GPU által jelentett többszörös-sokszoros teljesítmény mellett már érdemes.
[ Szerkesztve ]
-
atok666
őstag
Sokan irjak, h a mai cpuk ereje mar tulmutat az atlagfelhasznalo igenyein (szerintem is), ergo felesleges az eros cpu. Elinduln(t)ak a gyartok a gpu integralas fele - kerdem en, mit hoz ez az integracio ugyanannak a usernak akinek nem erdemes az erosebb cput megvennie mert ugysem hasznlaja ki? (bongeszesen, media tartalmak fogasztasan kivul gyakorlatilag mast nem csinal a szamitogepen). Kisebb fogyasztast? Nem 6 ora utan dugom a toltot a konnektorba, hanem 10 utan (csak hasra utottem)? - talan ez jo lehet nehany esetben, de akkor lenne igazan nagy durranas ha mondjuk 6 orarol 6 napra none az uzemido . Valos idoben kodol videot, esetleg gyorsabban tomorit - nem hiszem, h ez befolyasolo tenyezo.
Szep es jo, h ez az irany, de vhogy az atlagember szempontjabol nem latom (egyenlore) azt a nagy plusszt amit ez az irany jelol. Megveszi az emberke a $3-4-500os gepet a tescoban, hazaviszi, bekapcsolja es lovese sincs mi van benne. Ugyanazt a felhasznaloi elmenyt kapja egy "klasszikus" cpu+gpu val mint egy integralt megoldassal.
Valamit biztosan kifelejtettem, de en nem latom azt a nagy plusszt amit masok igen.Atok
-
Abu85
HÁZIGAZDA
A Truform az egy másik történet. Tesszellálás az is, de nem programozható. Óriási a különbség. Az egy szimpla fix-funkciós egység volt, ami egy belső hardveres rutinnal felbontotta a háromszögeket. A programozhatóság hiányának hátránya ott jött, hogy mindent felbontott. Esetenként a kocka eredetileg sík oldalai domborúak lettek. Ettől függetlenül 17 játékra készült normális implementáció, de a hardver csak a Radeon 8500/9100-ba került bele. A DX9+-os Radeonokban egy Truform 2.0 került, ami funkcionalitásban ugyanolyan, mint ez első megoldás, csak szimplán egy emuláció formájában, amit az R2VB-vel oldott meg az ATI. A fix-funkciós egység eltűnt. A konzoloknál használták még fel a Nintendo Wii-hez.
A tesszelláció sok fejlesztésen átment az idő folyamán. Az első megoldás valójában nem a TruForm volt, hanem a GeForce 3-ba rakott alapszintű HOS support. A baj ezzel az volt, hogy borzalmasan lassú volt, így senki sem támogatta. A TruForm a második volt ebben, csak azért maradt ez a köztudatban, mert konkrétan fix-funkciós egységen keresztül működött, így a sebesség is jó volt. Ezzel mint említettem 17 játék hivatalos implementációval támogatta is. A TruForm 2.0 csak egy spórolós lépcső volt. Mivel a dolog annyira azért nem volt jó, hogy korrekten támogatni lehessen.
Ezután jött az első hivatalos megoldás tesszellálásra, ami a Vertex Texture Fetch volt. Na most ezzel az volt a probléma, hogy az MS elkövetett egy bakit a specifikációk megfogalmazásakor. Egyszerűen semmilyen formátumot nem írtak elő kötelezően a vertex textúrázás támogatására, vagyis jó volt a VTF és az R2VB is technikailag, noha nyilvánvaló volt, hogy a VTF-et gondolták szabványosra az MS-nél. Ez ugye egy zavaros helyzet, mert van két eltérő megoldás ugyanarra. Itt az ATI nyilvánvalóan meg akarta a textúra mintavételezők helyét spórolni a vertex shader elől, és ez hátráltatta a vertex textúrázás terjedését. A DX10 alatt ez már tisztázódott, így az MS hivatalosan is a VTF-et írta elő a vertex textúrázásra, illetve a geometry shader végre lehetővé tette a programozható tesszellálást hivatalosan. Itt meg az a probléma került elő, hogy az NVIDIA hardvere a Fermi megjelenéséig gány volt geometry shader alatt, ami hátráltatta a geometry shader terjedését.
Itt állt elő az AMD először egy programozható tesszellátorral, ami a Xenos kompatibilis motor volt. Ezzel az AMD elérte, hogy az Xbox 360-ra a fejlesztéseket Radeonon végezzék.
Ezután jött a DX11 és a mai helyzet. Most a DX11-es NoSplit tesszellátor problémáira kell megoldásokat találni. Opció jelenleg a virtuális textúrázás bevezetése a PTEX textúraformátummal.
Hosszútávú lehetőség szerintem a DiagSplit, amihez persze új API kell.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
válasz julius666 #121 üzenetére
Az a helyzet, hogy totálisan tévedsz. Ha nem tudnád, már a mai GPU-k is képesek általános célú számítások elvégzésére, csak ez ma még némileg nehézkesebb és korlátozottabb, mint ugyanazt CPU-n megvalósítani. Mivel azonban a GPU-k sokszorosan felülmúlják a CPU-k számítási teljesítményét, számításigényes feladatoknál igen hasznos a GPU-k nagy erejének kihasználása és már évekkel ezelőtt el is kezdődött a GPGPU-s "korszak". (Klikkelj csak rá a linkre és ne felejtsd el megnézni az Applications szekciót sem!)
A GPU és a CPU közötti kapcsolat szorosabbra fűzése részben a GPU-k erejének kihasználásának egyszerűbbé tételét szolgálja. Továbbá (a GPU-k egyre "rugalmasabbá" tételével együtt) bizonyos korlátok ledöntését, miáltal mégtöbb területen lesz alkalmazható a dolog, új távlatokat nyitva.
Más szóval, nagyon is megvan az igény a GPGPU-s alkalmazásra, lehetőleg persze minél egyszerűbben -- a cégek ezt az igényt igyekeznek kiszolgálni. Akinek jobban és előbb sikerül, az "nyer".
És nem, nem az AMD az egyedüli versenyző, az Intel és az Nvidia is csatasorba állt. (Nem beszélve sok más, kisebb cégekről más területeken.)
Az általános célú számítások leprogramozásának évekkel ezelőtti, nehézkesebb és a szakértelem mellett kellő türelmet igénylő shader alapú megvalósítása után nagy előrelépés volt pl. az OpenCL (nyílt szabványú számítási nyelv) támogatásának megjelenése (ezt a ma a PC-s piacon lévő, 2-3 éven belül megjelent GPU-k és 1 éven belül megjelent IGP-k közül egyedül a Sandy Bridge alapú Intel procik IGP-je nem tudja, de az Ivy Bridge már szintén tudni fogja). A cél azonban az, hogy még erre se legyen feltétlen szükség, egy sima C++, Java, stb. programból is könnyedén kihasználható legyen a GPU ereje.
(#123) szunya1: A GPU-k ereje már ma is sokmindenre felhasználható, csak nem kis munka egy komolyabb programot átírni pl. OpenCL alapúra, így jelenleg leginkább új, különösen számításigényes projekteknél használják. Annyi, hogy ahogy egyre egyszerűbbé és "nagyszerűbbé" válik a dolog, egyre több területen állnak át rá, ahol a CPU már kevés.
[ Szerkesztve ]
-
atti_2010
nagyúr
De azon már nincs nyereség akkor meg minek, a lényeg hogy jó drágán elvigyék a procit oszt ott egye meg a fene tovább, viszont adnak garanciát újabb 35$ -ért.
[ Szerkesztve ]
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
Abu85
HÁZIGAZDA
A terméktámogatás zömében csupán szoftveres probléma. A megoldás az, hogy le kell ültetni a rendszerprogramozókat, hogy írjanak normális támogatást a driverbe. Azt ne kérdezd, hogy ez miért nem történik meg.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#16729600
törölt tag
válasz julius666 #121 üzenetére
Teljesen egyet tudok érteni,a mezei, nem a MIT-en végzett felhasználókat hidegen hagyják a misztikus,ki nem érlelt,be nem vezetett nagyívű 3 betűs technikai rövidítések a jövőből.Ami érdekes az a teljesítmény, ami megjelenik jelenidőben a cső végén.Mondom ezt elkötelezett AMD felhasználóként.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz julius666 #121 üzenetére
Nem mi jósoljuk ezt, hanem a gyártók. Mi csak leközöljük, amit a gyártók mondanak, bemutatnak, vagy tanulmányban publikálnak. Lesz majd egy olyan cikk, amit nem a gyártók adataira építünk fel, és arra keres választ, hogy miért megy mindenki erre. Ehhez már több mérnökkel konzultáltam (zömében ARM-osokkal, ők a legbeszédesebbek ebben a témában, meg tapasztalataim szerint úgy általában is), és a rövid válasz itt a fizika törvényei, de nyilván ezt ki kell fejteni. Az AMD itt a legkevésbé beszédes. Még az NV-től és az Inteltől is kaptam választ a fizikai kérdésekre. Persze ebből nincs gond. Általánosan akarom a dolgot vizsgálni nem pedig gyártóspecifikusan, így az AMD véleménye nem érdekes. Főleg úgy nem, hogy az ARM, az Intel és az NV is egységesen a fizika határait jelölik meg elsődleges gondnak, és ezt több tanulmány is hasonlóan látja. Zömében olyan levezetéseket kaptam, hogy növelheted a tranyót a gyártástechnológiai váltásoknál, mivel erre lehetőséget ad a kisebb csíkszélesség, de a tranyók bekapcsolásához szükséges áram már nem csökken olyan mértében, mint amennyi extra tranyót építhetsz be egységnyi területet figyelembe véve. Ez konkrétan az alapprobléma. Erre kell megoldás találni, ami egyszerűen az, hogy a tranyókat beépítheted, csak arra kell ügyelni, hogy ne legyen mind aktív. Fred Pollack szabálya szerint jó megoldás itt a processzormagok komplexitásának csökkentése, és ezzel az egységnyi területre beépíthető magok számának növelése. Ezt az NV a GTC Asia 2011-en is megemlítette, hogy járható út, csak kivégeznék az egyszálú teljesítményt, amire azért még van igény. Ezért a másik opció a heterogén elv, vagyis meg kell őrizni pár processzormagot viszonylag erősnek, a jól párhuzamosított számításokat pedig sokkal egyszerűbb magokra kell bízni, melyek jelentősen kevesebb energiát emésztenek fel. Ezzel a gyártók reagáltak a fizika határaira. Nem tolták azokat ki, csak megint adtak maguknak pár évet, hogy jöjjön valami gyökeresen új gyártási eljárás. Innentől kezdve a dolgot a programozó oldaláról kell egyszerűvé tenni. Ez most a feladat.
A HSA támogatója az AMD mellett az ARM. Konkrétumok is vannak, de ezek nem publikusak. Ezért lesz 2012 közepén az AFDS, ahol sok dolog publikus lesz. Addig csak az férhet hozzá, akik partnerei ennek az egésznek. Itt valószínű, hogy el kell intézni a formai dolgokat, mert nem biztos, hogy mindenkinek megfelel az a specifikáció, amit az AMD dolgozott ki. Mivel ez a felület már nyílt, és a fejlesztést is alapítvány végzi, így a tényleges specifikációkat úgy kell publikálni, hogy az végül minden érintetnek megfelelő legyen.
A Xenos kompatibilis tesszellátor hasznos volt PC-n, mert az Xbox 360-ra lehetett vele dolgozni. Minden olyan multiplatform cím, ami Xbox 360-ra is elkészült, és ott tesszellációt használt az PC-re AMD hardveren lett fejlesztve. Zömében ezért készül a DX11-es játékok többsége az AMD Gaming Evolved partnerprogramja alatt. A HD 2000 óta minden GPU-ban van Xenos kompatibilis tesszellátor a DX11-es mellett. Az persze igaz, hogy a GCN architektúrába már úgy építették be, mint egy külön részegység, és nem mint a tényleges setup motor része. Ez a sebességre nem hat jól, mivel eléggé le van butítva a tranzisztorok spórolása miatt. A funkcionalitásban viszont ez nem számít, mert úgyis a fejlesztőknek készült.
Az egész tesszelláció problémás DX11 alatt, mert a legbénább NoSplit megoldást használják. Azóta már van jóval jobb DiagSplit. Persze a Microsoft mentségére legyen mondva, hogy amikor a DX11 alapjait véglegesítették még csak a NoSplit és a BinSplit volt. Ezek közül tényleg a NoSplit az előnyösebb valós időben. Ettől függetlenül a problémák jelentősek, mert sok feladatott ró a tesszellálás a művészekre, és a hardverre is, de utóbbi a kisebb gond. Amíg a DiagSplit le nem váltja a régi motort, addig a virtuális textúrázás erősítése és a Disney PTEX formátuma lehet a megoldás a művészek munkájának megkönnyítésére. A DiagSplit előnyei ezzel minimálisra csökkennek, de azért marad még jó tulajdonsága, mert a quad-fragment merging hatékonysága ehhez a modellhez a legjobb, noha alkalmazható NoSplithez is.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
julius666
addikt
Tetszik hogy kb. 2009 óta (ha nem régebben) jósoljátok folyamatosan hogy 1-2 éven belül eljön a heterogén számítás kora és kb. hetente lehozzátok lényegében ugyan azt a cikket.
Közben a jövőre kijövő HSA-s cuccok is még butítottak lesznek, arról nem is beszélve hogy amíg csak az AMD tolja nem sokat ér (tudom hogy vannak érdeklődők de konkrét tervek még nem nagyon). Kicsit olyan szaga van nekem mint a tesszellációnak volt, amikor az AMD elsőként beépített valami gyengus próbamegoldást és akkor is ment a nagy csinnadratta meg a tuti techdemók, de végül nem használták semmire. Arról nem is beszélve hogy az egész tesszelláció témát eddig értelmes alkalmazásban még nem láttam, mert macerás dolgozni vele illetve így hogy a gépek egy töredéke tudta(/tudja) csak, nem érte meg. Ebből a szempontból is stimmel a párhuzam, ez nagyjából illik a heterogén számításra is, csak ez nagyobb piac így itt elvétve már azért vannak szárnybontogatások.
Szvsz amíg nem lesznek értelmes chipek (a jelenlegik nem ilyenek) eléggé elterjedtek a piacon addig nem lesz itt lószar sem, az pedig alsó hangon 3-4 év.
-
datatomm
tag
A mobil irányba fejlődés legfőbb haszna a fogyasztás csökkentése. Azért az itthon is számít, hogy 5-600W-ot vagy 1-150W-ot eszik a gép. A villanyszámlán érezhető a különbség.
Ami igazán lényeges, az a szemnek láthatatlan.
-
tombar
senior tag
fúhh nálam annyira nem játszik sokat a mobilitás, szóval csak olyan érdeklődésként figyelem a dolgokat. mondjuk azt hiszem h anno a cikkben is írtad, h spekulálni sem nagyon érdemes.
btw a terméktámogatásos témánál ha jól értem jórészt olyan problémák vannak, amelyeket az intel nem akaródzik megoldani?Everybody knows, you dance like you fuck. So let me see you dance!
-
Ł-IceRocK-Ł
veterán
Izgalmas jövőbeli kilátások, a kérdés az hogy hogyan fog átalakulni az egész info-piac. Az egyik cég ezt vetíti előre, mások szerint megint más fog eltűnni a piacról, szerintem előre ezt nem lehet tudni. Bizonyos erős irányok mindig jelen vannak, és a vállalatok egyre jobban, és gyorsabban tudnak igazodni a változó piaci igényekhez.
"lol, rock, te egy kib*szott médium vagy. mit médium, HARD " by FireKeeper
-
Abu85
HÁZIGAZDA
Mivel fejlesztés alatt álló termékekről van szó, így nem érdemes a teljesítményt értékelni. Az AMD azt ecsetelte, hogy az ultra alacsony fogyasztású kategóriában 50%-kal jobb lesz a Trinity IGP-je az Ivy-énél. Ez konkrétan úgy jött ki, hogy lemérték egy A6-os 17 wattos APU teljesítményét, majd a Core i5-2537M teljesítményéhez hozzáadtak +30%-ot, mivel az Intel azt mondta, hogy ennyit lép előre itt az Ivy. Így jött ki az 50%. Az látszik, hogy pusztán spekuláció az egész, ezért is nem tulajdonítottam neki jelentőséget. Eleve a termékek teljesítménye a megjelenésig még változhat. Mindenesetre neked leírtam, hogy az AMD hogyan számol, de szerintem nem érdemes ezt figyelembe venni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem a teljesítménnyel van gond a HD Graphics 2000-nél, hanem a terméktámogatással. Nézd az Opera 12 alpha VEGA gyorsítását ... az összes Intel IGP feketelistán van az OpenGL-es kódra. Egyszerűen nem elég jó a terméktámogatás. A hardver állítólag jó, mert a DirectX-es kóddal már nem kell tiltani. Ez lesz a végleges Opera 12-ben valszeg.
A teljesítmény főleg Silverlight 5-re, WebGL-re, Flash 11-re és később a WebCL-re kell.
Silverlight 5-re az Intel nem kínál teljes támogatást, míg az AMD és az NV igen. Ez a felület persze már halva született, de ha már létezik, akkor illene megírni rá a teljes supportot. Nem hiszem el, hogy erre pont az Intelnek nincs kapacitása.
A WebGL az implementációfüggő. Az OpenGL-es támogatás mellett az Intel nagyon lassú, de pár böngésző ANGLE módot használ, ami DX-en keresztül megy, és ott már jó. Az AMD és az NV minden szempontból jó.
Flash 11-re az Intel nem kínál teljes támogatást, míg az AMD WHQL, az NV pedig béta driver szintjén már igen.
A WebCL lesz még egy para. Arra OpenCL driver kell. Az Intel azt csak az Ivy Bridge-től tudja támogatni, míg az AMD és az NV aktuális IGP/GPU-i már most megfelelnek erre, és működő driver is van.
A teljesítmény szempontjából pedig bármelyikben tudsz írni olyat, ami egy erős VGA-t is kifektet noha valószínű, hogy erre nem kerül sor a valós weboldalakon, esetleg webes játékokban.
Szintén vannak még a böngészős játékok között Unity-s és WebVisionös holmik. Az Intel egyiket sem támogatja, míg AMD-n és NV-n ez megoldott.
Aztán vannak még projektek, pl.: Mozilla Paladin, ami HTML5-öt és WebGL-t használ, és az erre épülő webes játékok fejlesztését szeretné megkönnyíteni.Az igaz, hogy a legtöbb embernek elég a HD Graphics 2000 által nyújtott teljesítmény, de a terméktámogatás láthatóan elég gyenge a webes felületek szempontjából. Ez itt minőségi kérdés elsősorban.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tombar
senior tag
"A normál és a maximális teljesítményre felkészített módban tehát nem lesz változás, de az alacsony fogyasztásra kihegyezett 13 és 11 wattos TDP keret már módosul. Az új értékek rendre 14 és 12,5 watt körül lesznek."
én idáig csak erről tudok. a másik: "Az Intel eredetileg 17 wattos normál TDP keretet tervezett, melyhez 25 wattos maximális érték tartozik." persze a 25 watt már csak dokkolóval mehet.
"Az utolsó a már fentebb említett 17 wattos verzió, ami Pumori dizájn alapja, míg a középső termék egy 35-45 wattos TDP osztályba sorolt megoldás. Mindkét újdonság a mobil piacra szánt Comal platformban kap helyet." a virgók meg mennek a 65 wattba.
szóval elvileg ott lesz 20 wattos előny, habár azt a teljesítményt már csak dokkolóval érhetjük el más kérdés h igp-k terén mit érnek el.
am a játékokhoz visszatérve, tudom h égés volt a hd 4000 a cesen , de utána volt egy anadteches cikk, amiben látható volt h működött dx 11ben is és elfogadhatóan futott az f12011 is. vmi tipp h mennyit vernek rá?Everybody knows, you dance like you fuck. So let me see you dance!
-
RapUGround
tag
Olvasva a hírt, a fórumot. Nekem az a véleményem, hogy az AMD az APU mellé mindig fog kínálni valamilyen formában Hidrid Crossfire megoldást, hogy a rendszer ne csak az általános számításokban tudjon jeleskedni hanem játékokban is vagy olyan alkalmazásokban ahol jól jön a hcf-ben a plusz memória sávszélesség. Ameddig memória sávszélességet nem oldják meg másképp, addig lesz HCF is.
-
Zeratul
addikt
Az a 12,5 W ami valójában 15 mert az intel nem tudta tartani a saját kitűzött célját a fogyasztás tekintetében
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Az notikat főleg netre veszik a júzerek. A jó ebben az, hogy már a megterhelő webes tartalmakat is a GPU gyorsítja. Ha IGP terén erősebb a rendszer, akkor az egyenlő azzal, hogy alkalmasabb a webre.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Melyik nagy volumenű hír maradt ki az NV-től? Az Echelon projektet és a jövőbeli elképzeléseket is csak mi írtuk meg a magyar oldalak közül. [link]
Azt meg ne várd el, hogy megírjak olyan dolgokat ami nem igaz. A Keplerről senki sem tud semmit. Én magam kérdeztem meg a Compalt. [link] - le is írtam mit mondtak, ezek többnyire készpénznek vehetők. Mondjuk speckókat is kérdeztem, de arra már nem válaszoltak. Amint kapok valahonnan adatot megírom.
Asztali terméket nem láttak még az általam megkérdezett VGA-gyártók. Persze lehet, hogy egy Foxconnos kontakttal itt többre mennék, mint egy PC Partneressel, de nincs a Foxconnál senki, akinek írhatnék. Majd ha nem csak olyan találgatások lesznek, amik teljesen elborult elképzelésre épülnek (integrált Ageia gyorsító pl.), akkor megírjuk.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MZperX75
addikt
"Ha már ultrabook, szvsz a 17W TDPjű trinity felér egy vasalt bakancsos tökönrúgással az intel részére"
Na ezen jót nevettem! +1
más:Trill- troll-oknak
üzenem:
Abszolút felhasználásból kiindulva nekem tök mindegy ,hogy Intel,AMD,NV vagy akármi,ez nem számít,csak az ,hogy mit tud,és ez mennyiért.
Minél hosszabb ideig lehessen használni zéró befektetéssel.
A csúcskategória az mindig egy nagyon kis százalék felhasználót érint,+vér Pistikét anyu lóvéjával,kék napellenzőben ,és AMD-s hír hallatán azonnali pesszimizmussal,hülyeség írásával.Nem védem az AMD-t ,az is egy gyarló cég,mint az összes!
Ha lett volna jó áron ,a mostani konfigomnak jobb alternatívája a másik nagyobb cégnél akkor nem kérdés ,hogy mit vettem volna.
De a mai napig nincs!
(Brazos E-350)OFF
[ Szerkesztve ]
-
dezz
nagyúr
Megerősítésképpen tette be.
(#99) Youri: Mi, a 0-1 fps? (Esetleg scrollozz a kép jobb oldalára!) Egy ilyen kártyával nem 1280x1024-ben játszik az ember...
(#102) Niquis: Ezt azért így nem hinném. Amit nem túl nagy áldozatok árán ki lehet hozni belőle, azt ki is fogják hozni. Pl. meglátjuk, mit tud a Piledriver ilyen szempontból. Arra mégsem számíthatnak, hogy 1-2 éven belül minden FP-igényes programot átírnak a CU-k kihasználására. Illetve az is lehet, hogy előbb-utóbb szépen fogják az FPU-t és lecserélik 1-2 CU-ra.
[ Szerkesztve ]
-
Niquis
aktív tag
Nekem is ez jutott eszembe... valamikor tavaly olvastam egy hírt, amikor már volt erről szó. Akkor esett le, hogy az AMD már nem is akar erőlködni azzal, hogy a CPU-iban az Intel fölé erősítse mondjuk az FPU-t... melléraknak egy általános GPU-tömböt azt kész.
"És ha helyzet van, akkor mindig lépni kell. Ha olyan a helyzet."
Új hozzászólás Aktív témák
- (nem csak) AMD FX / Ryzen tulajok OFF topikja
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Apple notebookok
- Politika
- Ingyen kellene, de tegnapra
- Diablo IV
- Új design és okosabb AI: megjött a Galaxy S25 készülékcsalád
- Google Pixel topik
- Nők, nőügyek (18+)
- Futás, futópályák
- További aktív témák...
Állásajánlatok
Cég: Marketing Budget
Város: Budapest