- Milyen RAM-ot vegyek?
- Videós, mozgóképes topik
- Nvidia GPU-k jövője - amit tudni vélünk
- Kettő együtt: Radeon RX 9070 és 9070 XT tesztje
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Használt VGA / videókártya ajánló
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Milyen egeret válasszak?
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
Új hozzászólás Aktív témák
-
ukornel
aktív tag
Értem, amit írsz, szó sincs arról, hogy ne akarnám megérteni.
Itt most levezetsz egy végletekig leegyszerűsített logikát a gyorsítók használatára. Ebből a levezetésből ismételten és következetesen kihagysz fontos elemeket. Senki nem vitatja, hogy egy FPGA-val nagyságrenddel beljebb vagy - de csak egyes, gyakran ismétlődő matematikai részműveletek gyorsításában. Ezzel szemben az IGP-vel a programozhatóság tekintetében vagy nagyságrenddel beljebb, miközben a CPU-nál még mindig nagyságrenddel gyorsabb.
A prociba akkor érdemes beépíteni a sok tranzisztort, ha minél nagyobb arányban ki is használják a programozók. Ezt végiggondolták az ARM-os gyártók jó részénél, az Intelnél, az AMD-nél és az nVidiánál, ezt gondolhatnád végig te is."Java-t még consumer oldalon használ valaki? Oracle megoldott, hogy ne legyen ilyen gond..."
Nem sikerült megértened, amit írtam. Nem az volt a kérdés, hogy ki használja a Java-t, hanem azt egy példának hoztam föl az IGP univerzalitására az FPGA-val szemben.
"Amire szükséges egy igp, azt egy ősrégi intel vacak (hd4000-es fentebb) megoldja."
Nem oldja meg.
A procik (egyre) nagyobb részét vékony, lapos notebookokban adják el, ahol minden köbcenti számít, és ha lehet, kihagynák a dVGA-t; az okostelefonokról már nem is beszélve. A 3D teljesítmény növelésére meg a HD4000-n túl is van igénye a laptop és telefon tulajoknak. -
MaUser
addikt
Java-t még consumer oldalon használ valaki? Oracle megoldott, hogy ne legyen ilyen gond...
Btw, nem akarod, megérteni amít írok. Amire szükséges egy igp, azt egy ősrégi intel vacak (hd4000-es fentebb) megoldja. Amire meg kell a kapcitás, arra értelmetlen erősebb igp-nek a tranzisztorát pazarolni, amikor egy nagyságrenddel beljebb vagy fpga-val. Mit nem lehet ezen megérteni sokadszorra sem?
-
ukornel
aktív tag
"Azért az igp sem univerzális azért olyan nagyon, más kód kell akár két gtx-hez is, ha tényleg optimalizálni akarsz [...] Az FPGA kódot nyugodtan adhatná a gyártó, amit api-n keresztül dokumentál. A legtöbb feladathoz ez elég lenne, ha meg széleskörű újabb igény van, hát lehetne frissíteni a kódot és kész. STB gyártóknál pl. jó részben valami fpga fut, nem egy nagy ördöngősség azért azt megcsinálni."
Olyan szinten relativizálod a kódolással kapcsolatos tényeket, hogy jaj...
A Java 9 HSA támogatással érkezik. Magas szintű programnyelv, és a fejlesztőnek nincs dolga a GPU tényleges architektúrájával. Ezt értem én pl univerzalitás alatt, azt viszont nem, hogy "ugyankérem, az FPGA-t is pikk-pakk fölprogramozzuk a következő feladatra" (értsd valamilyen mérsékelten összetett matematikai műveletre)."felesleges szvsz a tranzisztort a kihasználatlan és relatíve lassú igp-be tolni"
Alapvetően hibás nézőpont.
A telefonok, notebookok, sőt már az asztali gépek jó részében eleve nélkülözhetetlen az IGP, nagyon is kihasználják tehát! A jobb helykihasználás, költségcsökkentés és fogyasztáscsökkentés miatt ezekben nincs és nem is lesz külön grafikus kártya. A filozófia az, hogy ha már úgyis ott van, használjuk föl általános számításokra is! Szó sincs tehát plusz tranzisztorok pazarlásáról. -
MaUser
addikt
Azért az igp sem univerzális azért olyan nagyon, más kód kell akár két gtx-hez is, ha tényleg optimalizálni akarsz. De a mai szinten bőven overkill egy hd4000-es intel is a legtöbb feladatra, ha meg nagyobb teljesítmény kell, felesleges szvsz a tranzisztort a kihasználatlan és relatíve lassú igp-be tolni. Mert még mindig ott tartunk, hogy mire kéne egy átlag embernek egy bika igp. Nagyjából semmire... Photoshophoz nem mindegy, hogy az algoritmust igp-n vagy bármely más módon futtatod? FPGA-aba szépen raksz olyan kódot ami kell és arra építesz. Azért ma már az fpga-knál sem ott tartanak, hogy 10 perc egy programozás.
Az FPGA kódot nyugodtan adhatná a gyártó, amit api-n keresztül dokumentál. A legtöbb feladathoz ez elég lenne, ha meg széleskörű újabb igény van, hát lehetne frissíteni a kódot és kész. STB gyártóknál pl. jó részben valami fpga fut, nem egy nagy ördöngősség azért azt megcsinálni. Ha meg már van a korábbi alap készleted készen, akkor nem nagyobb munka lenne a saját problémád ezen megcsinálni mint egy igp-n. Mert programozási szempontból oly mindegy, hogy a igpFoo() vagy az asicFoo() függvényt hívom. (Kiv. shared data, de az ugye consumer piacon fehér holló esete.)
-
-KP-
addikt
Úgy érzem az Ivy Bridge még mindig maradhat egy darabig...
-
ukornel
aktív tag
"az igp lenne a kompromisszum cpu-fpga vonalon, csak szerintem túl nagy kompromisszum. Hiába gyorsabb, mint a cpu, de azért erősen szűk területen van értelme használni (ugyanúgy, mint az fpga)"
Szerintem elbeszélünk egymás mellett úgy, hogy erősen relativizálod pont azokat a minősítéseket (kompromisszum, gyorsaság, programozhatóság), amik itt kritikusak.
Az IGP (az Imaginationstől az AMDn át az nVidiáig, az Inteltől az ARMig en bloc) az integráció és, a könnyű, általános programozhatóság felé halad - ilyet az FPGA-ról nem mondhatunk (még?) el. Nagyon impozánsak azok a gyorsulási eredmények, amiket FPGA-val értél/értek el, de sajnos ezek az eredmények egyediek és az átlag felhasználó szempontjából csak afféle demonstrációk, mint amikor elkezdték mutogatni, hogy nahát, mire képes a Llano vagy a Trinity IGP-je, ha kihasználják (pl Photoshop)." Nyilván ez nem mindig elég, de az esetek 99%-ában bőven elég lenne egy api ami szolgáltatna konvolúciót, rendezést, alapabb mátrix műveleteket, fft-t, dwt-t, dct-t, stb. Ha pedig több kell, akkor váltasz rajta programot egy másik api hívással. Nem lenne több, mint ma egy dxva használata video lejátszás közben."
Egy-két-három feladatra beépíteni egy drága FPGA-t csak speciális esetekben érheti meg.
A belinkelt hírek (FPGA a Xeonokba) pont az a hozzáállás, hogy most, pillanatnyilag ennyit tudunk adni, ha ki akarod használni, oldd meg magad - ha sikerül, az tök jó, mindenki boldog. Éppen emiatt reklamáltál korábban (a gyártók által nyomatott könnyű/nehéz irányok). -
MaUser
addikt
Igen, az igp lenne a kompromisszum cpu-fpga vonalon, csak szerintem túl nagy kompromisszum. Hiába gyorsabb, mint a cpu, de azért erősen szűk területen van értelme használni (ugyanúgy, mint az fpga), ott meg az a további egy-két nagyságrend gyorsulás fpga-val azért már csábítóbb. Egyébként meg fpga megoldható úgy, hogy kap egy szabvány API-t aztán hívogatod. Nem látnál belőle többet, mint most egy AVX-ből vagy SSE-ből. Egyszerűen meghívod azt a függvényt, ami azt használja. Nyilván ez nem mindig elég, de az esetek 99%-ában bőven elég lenne egy api ami szolgáltatna konvolúciót, rendezést, alapabb mátrix műveleteket, fft-t, dwt-t, dct-t, stb. Ha pedig több kell, akkor váltasz rajta programot egy másik api hívással. Nem lenne több, mint ma egy dxva használata video lejátszás közben.
Tudom, bilibe lóg a kezem, intel nem hülye, hogy a saját piacát tegye tönkre és ne szívja le a pénzünket évente a semmi teljesítmény növeléssel.
-
FPGA-ban az a szopó, hogy amit írsz kódot az csak ott fog működni, viszont ha IGP-re HSAIL-ben írsz, az mindenhol futni futni fog. Persze nem olyan gyorsan, mint az FPGA, de egy sima CPU-nál nagyságrendekkel jobban. Max azt tudom képzelni, hogy az Intel elindít valami újat az FPGA vonalon, de azért ez elég messze van, lásd Ati felvásárlás és Kaveri, s utóbbiban még mindig nincs normálisan kihasználva az IGP.
-
ukornel
aktív tag
Persze, biztos, hogy lehet gyúrni a felprogramozásra, de mitől lenne egyszerűbb, mint kódírás IGP-re?
Egyetértek, hogy ha van egy nagyon sokszor, és sokáig (hónapokig, évekig) ismétlődő feladat, mint pl oldalak rangsorolása egy adatközpontban, vagy az általad említett konvolúciós képfeldolgozás során, és megoldható a használata, akkor az FPGA úgyszólván verhetetlen. Ha gyakran változó és jóval általánosabb problémákra szeretnéd használni az FPGA-t, akkor ott vagy, hogy amint végez egy feladattal, mondjuk 3 millisec alatt, programozhatod át a francba
Ne érts félre, nem becsülöm alá az FPGA-kat.
Valahogy úgy képzelem ezt, hogy a CPU - többmagos CPU - IGP - FPGA tengely egyik irányában nő a teljesítmény, a másikban pedig a programozhatóság. (Ugye, korábban elhangzott, hogy legjobb lenne nuku párhuzamosítás mellett, csak soros programozási modellel haladni előre.) Mindennek megvan az előnye, és a hátránya - kompromisszumot kell kötni. -
MaUser
addikt
Felprogramozás lehet kérdés, de egyrészt nem hiszem, hogy erre ne lehetne gyúrni, másrészt fpga-t nem csak egy kódra tudsz felprogramozni. A teljesítménybeli különbség az fpga kód függvénye. Az én területemen azonos áron 100-300x-os a gyorsulás.
Egyébként tipikusan egy adott művelet az ami időigényes és célhw-t igényel. Pl. képfeldogozásnál triviálisan 2d konvolúciót csinálsz rogyásig. Ilyenre millió publikációt talász fpga, cpu, gpu összehasonlítás kapcsán. A vicc, hogy 15 éve is két nagyságrend volt az fpg előnye nagyobb konvolúciós mátrixnál és mára sem sokban változott ez.
Egyetlen kivétel ahol az fpga alapú támogatás nem működne, az ahol az adatmozgatás a szűk keresztmetszet. Na most ilyenből aztán tényleg nagyjából nulla van consumer piacon. Ha meg lenne is, akkor a fejlesztőnek illik elgondolkodnia, mert az ilyen esetek 99%-ában early abandoning használatával megoldható a memória sávszél gond.
-
ukornel
aktív tag
Igen, én is épp most olvastam az Altera-Intel hírt (talán inkább csak spekuláció egyelőre)...
Afelől nincs kétségem, hogy az FPGA gyorsabb és hatékonyabb, de
1. Azonos lapkaméreten, azonos áron is igaz-e a dolog?
2. Ha a gyorsítónak adott feladat sűrűn változik, az FPGA gyakori felprogramozása nem emészt-e föl túl nagy energiát? -
MaUser
addikt
FPGA igen célirányosan programozható, igp-k bár szabadon, de lassúak sokszor. Pl. amivel én dolgozom (nem is túl spec. mátrix számítások) ott elvileg igp kifejezetten hasznos, csak éppen egy olcsóbb fpga jelenleg két nagyságrenddel gyorsabb, mint egy erősen optimalizált cuda kód (ocl meg még lassabb). Nyilván ez nagyon célterület, de az esetek többségében ez a járható út. Van egy általános procid és ahová meg kell igazán az erő, ott nem állsz neki igp-vel bohóckodni, hanem kap célhw-t, akár programozható fpga keretében. Sokkal hatékonyabb leszel. Csak éppen ilyet consumer piacon melyik gyártó szeretne/tudna? AMD-n kívül nem maradt senki, ők meg más irányba mentek. Intel meg csak - ahogyan írod - szerver piacon gondolkozik ilyenen, mert ott van érdemi konkurencia (Sparc, Power, direkt fpga-k, stb.) A piacot egyébként jól mutatja, hogy még az egyik fpga gyártó (Altera) is önmagában 6-7x többet ér, mint az egész AMD.
Ennyire árazták be a két irány sikerességét. Consumer piacra lehet nyomatni a hsa-t, de továbbra is ugyanoda lyukadunk ki, hogy alig igényli valami és baromira nem látszik, mi lesz ami ezt megváltoztatná.
Mert továbbra sem hangzott el itt sem az, hogy jön az új win os, ami 10x gyorsabb lesz hsa-val, vagy a chrome majd 10x gyorsabban fog betölteni egy lapot hsa alapon.
Btw, éppen mai hír, hogy közben még tovább ment az Intel, úgy néz ki megveszi az Alterát is.
-
joysefke
veterán
válasz
Jim Tonic #123 üzenetére
Akikkel anno beszélgettem a procikról, azt mondták, nem volt egy jó konstrukció.
De, nagyon jó konstrukció volt, papíron. A processzortervezők ki-outsourcolták az utasítások ideális sorbarendezésének feladatát a compilerbe, persze ahhoz hogy működjön, kellett volna egy compiler ami ezt hatékonyan megoldja.
Drága volt, sokat fogyasztott,
Drága volt, mert keveset gyártottak belőle (és mert túlméretes chache-t kellett belepakolni), illetve mert mindig gyártástechnológia lemaradásban volt, ha hozta volna amit kell, akkor nyilván hamarabb megkapta volna a legújabb gyártástechnológiát egyrészt már ez eredményezett volna egy fogyasztáscsökkenést, illetve ha ott lett volna a teljesítmény, akkor a teljesítmény/fogyasztás hányados egészen máshogy nézett volna ki (ugyanakkora fogyasztás mellett is).
és nem hozta a teljesítményt.
Nem és ez a compiler hibája volt, vagy gúnyos akarok lenni akkor lehet úgy is mondani, hogy a csak papíron szép konstrukció hibája. Mert a compiler is elválaszthatatlan része a processzornak, nem lehet egyiket a másik nélkül értelmezni.én sosem fejlesztettem rá.
énsem, de emlékszem, 10 éve rengeteget volt ez téma, HWSW-n mindig jelentek meg cikkek róla ("sikerre volt ítélve")
J.
-
ukornel
aktív tag
válasz
joysefke #121 üzenetére
"A jelenlegi irány sem tűnik jobbnak. hosszú éve tólják és látható eredménye nem sok van."
Valóban, nincs sok látható eredménye, de van. Ezzel máris klasszisokkal jobb a zsákutcához képest.
Ami eddig van, az lényegében némi demonstrációnak tekinthető. Átfogó terjedése akkor lehetséges, ha lesz hozzá hardver és fejlesztőkörnyezet. Ez végre karnyújtásnyira került. Az IGP már egy ideje ott figyel a lapkában, csak még a tudásán kell fejleszteni és hozzáadni a körítést. -
Akikkel anno beszélgettem a procikról, azt mondták, nem volt egy jó konstrukció. Drága volt, sokat fogyasztott, és nem hozta a teljesítményt. Rá is kerestem most amúgy, a legtöbb helyen nem is említik a compilert, csak azokat a hibákat, amiket én is. De elhiszem neked, én sosem fejlesztettem rá.
-
hugo chávez
aktív tag
"Pl. programozóként én azt szertném (bilibe lóg a kezem, tudom) ha lenne max. négy nagyon gyors magom. De pl. 2-2 big-little elrendezésben is álom lenne. Mert soros problémákat nem tudok párhuzamosítani, ha megszakadok sem. Vagy ha mégis, akkor meg te mint vevő nem fizetnéd meg a beleölt munkaidőm."
El kéne fogadni, hogy az órajelemelés kifújt, kész, vége. Az Intel már megtapasztalta ezt a Netburstnél. (És, amennyire láttam a III-V félvezetőkből készült tranzisztorok karakterisztikáját egy Intel slide-on, azoknál is maximum a jelenlegiekhez képes háromszoros órajelet lehetne elérni elméletileg, gyakorlatilag nyilván kevesebbet. Arról nem is beszélve, hogy ha azokra hirtelen átállnának, akkor azokat a termékeket senki nem tudná megfizetni, olyan magas lenne az átállási/gyártási költség). Soros, skalár végrehajtás sebességét tehát már nem lehet érdemeben növelni, van 3-4 GHz, 64 bit, FMA, ezzel kifújt. A magok többszörözése is már elérte az értelmes határt a 4-8 maggal otthoni környezetben, ennél több magnak csak szervereknél van értelme és persze a sok mag miatt vagy az órajelet kell visszavenni, vagy a TDP fog az egekbe nőni (ez látható az Intel Xeon-jainál is). Az Intel persze próbálkozik más úton is, az AVX már 256 bit széles, Skylake-kel jön az 512 bit. De ez vektoros végrehajtás, tehát ez sem jó mindenhez. És láthatod, jelenleg mennyire van kihasználva, vector intrinsic-re programozni nem egyszerűbb, mint GPGPU-ra. Tehát ez a két út van jelenleg (10-20 éves távlatban) a GPU/IGP általános célra befogása és a proci SIMD egységeit "szélesíteni". Aztán jöhet más, teljesen eltérő paradigma, kvantumproci, optikai proci, stb.
-
joysefke
veterán
Nem. A te irányod nem egyszerűen nehéz, hanem zsákutca a jelenlegi technológiai szinten.
Bár erre hosszabb ideje nem vagy hajlandó reagálni.A jelenlegi irány sem tűnik jobbnak. hosszú éve tólják és látható eredménye nem sok van. Benchmarkokon kívül szinte semmi nem támogatja az iGPU-n való futást (3d játékoktól eltekintve).
J.
-
ukornel
aktív tag
"A cégek számára az én irányom a nehéz."
Nem. A te irányod nem egyszerűen nehéz, hanem zsákutca a jelenlegi technológiai szinten.
Bár erre hosszabb ideje nem vagy hajlandó reagálni."Ebbe buktak bele, illetve inkább haladnak a könnyű úton profitot maximalizálva."
Mint írtam korábban (#91), egyáltalán nem könnyű ez az út. A könnyelmű profitmaximalizálásról meg annyit, hogy az AMD, az irány mostani úttörője évek óta veszteséges.
De azért köszönjük, jó próbálkozás volt..."AMD gyártástechnológiai lemaradása miatt bukta a mhz versenyt,"
Azóta ráadásul az AMD-nek már nincs is gyártástechnológiája.
A Globalfoundries annyira lelassult, hogy jobbnak látta licenszeli a legújabb gyártástechnológiát, az IBM kiszállt, a TSMC-ből mintha fogyna a lendület, még a Samsung kapaszkodik nagyon az Intel után, az UMC a kanyarban sincs. Az látszik, hogy olyan erős fizikai korlátokat feszeget a csúcstechnológia, hogy kis előrelépésért is rendkívüli erőfeszítést kell tenni. Először a kicsik szakadtak le, aztán most a nagyok, végül a legnagyobb marad, de ő is ugyanúgy fog járni, csak egy kicsit tovább bírja - de látni kell, hogy ott a vége."Minek csinálna pl. egy 2-2 big-little procit?"
Hasonlóról én is írtam már régebben :-)
"Gyak minden másik prociját feleslegessé tenné."
Szerencsére már elég sok olyan program van, ami kihasznál 4, 8, sőt akár még több szálat, tehát a 4=< szálon számoló procikat máris nem tenné fölöslegessé.
"Gondolj bele, hogy minek kéne más proci egy notiba, ha lenne low-power core m magod, max 2-3w tdp-vel és ha nagyon kell akkor lenne mellettük 2 20w-os erősebb mag és dinamikusan tudna váltani a gép"
Lehet, hogy van itt egy kis félreértés. A Core-M ugyanolyan Broadwell mikroarchitektúrára épül, mint a nagy teljesítményű Core i7-5775C; pl egy Airmont mag jobban passzolna az itt vázolt feladatkörhöz ("LITTLE").
Az Intel a Core-M procikban az órajel hihetetlen széles tartományban (1,2-2,9 GHz) változtatásával szükségtelenné teszi egy kis teljesítményű mag beépítését. Elég jól leszorították a szivárgó áramot."plusz még low power fpga frissíthető kóddal video és audio codec-ekhez"
Már háromnegyed évvel azelőtt bejelentették, hogy most ide leírtad.
Így teljesüljön minden kívánságod!
Ugyanakkor, bár tény, hogy nem értek hozzá, mégis kétségeim vannak azt illetően, hogy mennyire lesz egyszerű egy ilyen FPGA-t felprogramozni - attól tartok, egy IGP-t könnyebb. Ráadásul ha valami, hát az FPGA implementálása igazán tranzisztorzabáló (a szavaiddal, "a tranzisztorok jó részének elpazarlása a semmire"). -
MaUser
addikt
A cégek számára az én irányom a nehéz. Ebbe buktak bele, illetve inkább haladnak a könnyű úton profitot maximalizálva. AMD gyártástechnológiai lemaradása miatt bukta a mhz versenyt, intel meg bőven elvan úgy, hogy csak dőljön a lé és legyen picivel gyorsabb, mint bármely konkurens. Minek csinálna pl. egy 2-2 big-little procit? Gyak minden másik prociját feleslegessé tenné. Gondolj bele, hogy minek kéne más proci egy notiba, ha lenne low-power core m magod, max 2-3w tdp-vel és ha nagyon kell akkor lenne mellettük 2 20w-os erősebb mag és dinamikusan tudna váltani a gép ,plusz még low power fpga frissíthető kóddal video és audio codec-ekhez. Netezésnél lenne nulla fogyasztásod, ha jón új codec, csak kódot frissítesz. Ha meg kéne több erő, mert éppen video-t vágsz, akkor meg ott a két másik mag. Na ilyen értelmes dolgok helyett inkább elpazarolják a tranzisztorok jó részét a semmire.
Szerk: A szomorú meg az, hogy ehhez sokan ezerrel tapsolnak és nem értik, hogy csak őket fejik.
-
válasz
Jim Tonic #110 üzenetére
"Az Itanium pont azért bukott meg, mert nagy volt a fogyasztása, plusz drága volt. A compiler hiányzott, de ha csak ez lett volna a gond, akkor megírják."
Ezzel szemben az Itanium pont a compiler miatt bukott meg. Mire megirtak rendesen a VLIW-t jol kihasznalo icc-t, addigra mar beertek a Xeonok.
(Disclaimer: kb. 10 evvel ezelott epp SGI Altix-ra fejlesztettem, sok Itanium procival. Egyszeruen remiszto volt latni, hogy sok esetben, foleg single-core workloadoknal a desktopokon celszerubb volt szimulaciot futtatni, mint az Altixon.)
-
MaUser
addikt
válasz
Jim Tonic #102 üzenetére
Milyen hatékonyság? Nézzük, hogy mik vannak: asztali oldalon a cpu árának fele kétharmada, már a sokszor teljesen felesleges igp. Baromi hatékony, tényleg. Core-m esetén külön rohadt jó, hogy azért szabályoz le a proci, mert az igp miatt le kell. A felhasználási területre pedig bőven elég lenne egy core m is hd3000 szintű igp-vel és negyedelt igp tdp-vel így meg a legnagyobb negatívuma az igp lett. Minek pl egy üzleti gépbe ez a gpu?
Arm oldalon meg intel kb. négy éve keseredetten magyarázza az FTC-nek, hogy arm már vetélytársa és ne darabolják. Ennek ellenére nincs érdemi arm szerver, sorra bukik meg az összes kezdeményezés a kezdeti lelkesedés után. Ugyanis teljesítmény/fogyasztás alapon még az ősrégi power-ek is jobbak, mint az arm-ok, amik néhány igen speciális esettől eltekintve szinte használhatatlanok serverekbe. Ahol meg kell a sok alacsony fogyasztású mag, oda meg vannak sokkal jobb célprocik, asic-ek, vagy simán van rá fpga.
Egy keseredt real-world use caset mondjatok már erre a hú de jó heterogén őrületre, ami itt a ph-n folyik. Ezt nem tudtok már ezer topik óta, csak megy a mantra, hogy hú de jó lesz. Van esetleg egy chrome/win/office/whatever gyakran használt program hsa ág és emiatt arra tér át mindenki, vagy mi? Ja, hét éve nem tud elkészülni.
-
ukornel
aktív tag
"A képszerkesztést már fentebb írtam, hogy aki profin akarja az csinálja úgy és a többséget meg egyáltalán nem érdekli. "
Nézd, a átlagfelhasználók 90%-ának, és az idő 95%-ában futtatott alkalmazásoknak egy <20W-os laptop proci, sőt egy mobil proci ereje is bőségesen elég, úgyhogy amit mondtál, azt bátran kiterjesztheted mindenféle fejlesztésre, úgy általában.
"lassul a fejlődés üteme. [...] Eklatáns példa az USA harci repülő ipar, ami lassan felőröl minden szereplőt és maradni fog 2"
Szerintem ez így, ebben a formában csak korlátozottan igaz, hiszen mind a prociknál, mind a vadászgépeknél létezik külső, független piac, ahonnan beugorhatnak versenytársak, lásd pl a magabiztos ARM-nyilatkozatokat.
Tudomásul kéne venni, hogy vannak a jelenlegi technológiai szinten objektív, fizikai korlátok, amik behatárolják a fejlesztési irányt. Úgy a csipgyártásban, mint a harci repülőknél."már 7-8 éve nem sikerül egy programot sem felmutatni rá ami széles közönségnél érdemi gyorsulást hozni"
Vicces, hogy "széles közönségnek" készült programokat hiányolsz, holott a széles közönségnek még nincs olyan központi egysége, ami ezeket futtatni lehetne. Egyelőre ez így van, de pár éven belül ez meg fog változni.
"programozóként én azt szertném (bilibe lóg a kezem, tudom) ha lenne max. négy nagyon gyors magom. [...] De pl. 2-2 big-little elrendezésben is álom lenne. Mert soros problémákat nem tudok párhuzamosítani, ha megszakadok sem. Vagy ha mégis, akkor meg te mint vevő nem fizetnéd meg a beleölt munkaidőm."
Aha, most pontosan azt a viselkedésmódot adtad itt elő, amit korábban magad kárhoztattál, miszerint a procifejlesztések a "könnyű irányba" mennek el. Te is arra mész - és tudod mit? Megértem. Ugyanígy meg lehet érteni az emlegetett cégeket is.
Max négy maggal nem tudom, hogyan lehetne tartani mondjuk évi 20% teljesítménybeli fejlődést tartósan (ez 4 évente adna duplázódást). Ehhez az órajelek masszív emelése, vagy olyan egyre összetettebb utasítások bevezetése kellene, amit hatékonyan kihasználni már-már művészet. Ezekre, ahogy korábban is írtam, abszolút semmi reális kilátás nincs. Talán évtized(ek) múlva, radikálisan új megközelítéssel, ami még a kanyarban sincs.
Ezzel szemben nagyon is elképzelhető, hogy hamarosan olyan eszközöket, heterogén procikat, fejlesztőkörnyezetet, stb adnak a kezedbe, amivel a soros programozásnál nem nagyságrenddel több munkával nagyságrenddel gyorsabb és/vagy energiahatékonyabb kódot tudsz írni."ez az egész igp tematika itt a ph-n erősen túlreprezentált. Ha olvasol más külföldi lapokat, ott nincs napi amd cikk hogy milyen jó lesz majd az igp mindenre (egyszer, talán, valaha). Helyén kell kezelni, ennyi."
Lehet, hogy túlreprezentált, de szerintem aki nem éppen vásárlás előtt áll, azt nem hozza lázba az ötödik termék tesztje ugyanannak a gyártónak ugyanabból a generációjából. Ami érdekes, az a jövő, és abból most a legközelebbi és legelőrehaladottabb az IGP bevonása általános feladatokra.
Nem mondom, érdekes a grafén, meg a kvantumszámítógép is, de az egyenlőre eléggé homályos...#106 joysefke
"lassan a procik 2/3-a iGPU lesz ami általában nincsen kihasználva "Aha, de akkor mitől zuhan a dVGA piac??
Ja, hogy mégiscsak ki van használva nagyobb részt... -
joysefke
veterán
válasz
Jim Tonic #110 üzenetére
Az Itanium pont azért bukott meg, mert nagy volt a fogyasztása, plusz drága volt. A compiler hiányzott, de ha csak ez lett volna a gond, akkor megírják.
10 évig írták, mégse sikerült.
a fogyasztási problémájára pedig így emlékszem a sok év távlatából:
A fogyasztása pedig máris nem lett volna akkora probléma, ha teljesítményt is sikerül lerakni a fogyasztás mellé. Általában az aktuális x86-server vonalbeli társai mögött kullogott gyártástechnológiában, de ha a teljesítménye rendbe kerül és vállalható alternatíva lett volna, akkor megszün(tethe)tték volna a gyártástechnológia lemaradást is (ami ugye tovább csökkenti a fogyasztást)
J.
-
joysefke
veterán
szerkesztve (lsd alul)
"3DMark API Overhead Feature Test" ráadásul Windows 10-en, ami ha jól tudom még csak nem is GA...
Milyen játék ez a "3DMark API Overhead Feature Test", mert még nem hallottam róla?? És A10-en jobban fog futni mint i3-on meg 7770/750Ti-n? Megkockáztatom, hogy nem.
A viccet félretéve újabb 3D játékokban FHD/mediumon jelenleg a legerősebb APU is alulról karcolgatja az "egy üveg bor után már folyamatosnak látom" szintet.
Arra hogy ez érdemben megváltozzon szvsz nincs esély addig amíg
1, memória sávszélességben illetve
2, iGPU tranzisztorszámban nincsen komoly emelkedés.Az elsőre jelenleg még desktopon jódarabig nincs kilátás (DDR4+QC memvezérlő és még mindig nem tartanánk ott, mint egy jelenleg is elérhető közép kat VGA-val) ha pedig megvalósítják a nagysebességű iGPU memhozzáférést, még akkor is csak ott vagyunk, hogy a gépemben dobogó jelenleg 3-éves 7870 architektúra 3D játékokban eltapos mindenféle iGPU-t, ha csak nem raknak rá mégtöbb tranzisztort, hogy valami ki is használja a majd egyszer megnővekedő memória sávszélességet. Na de akkor meg drága lesz...
Tehát még mindig fantasy landban vagyunk, a ha-majd-akkor-talán világában.
Félreértés ne essék, jó dolognak tartom, ha van egy irodai munkára használható IGP a prociban, mert ezzel ki lehet váltani egy komponenst ami melegszik/elromlik stb, de ha én bemegyek a boltba 50E forintért procit vásárolni, akkor a jelenlegi fejlesztési költségek nagy részét kitevő IGP árát csak akkor szeretném kifizetni, ha bekövetkezett a "ha-majd-akkor-talán" és már tényleg jó is valamire. Addig pedig az arányokkal van baj: kifizetek 50E forintot egy prociért, aminek a 2/3-át nem lehet értelmesen kihasználni?
ráadásul kezdenek odáig fajulni a dolgok, hogy a CPU részt (L2 cache illetve a CPU rész TDP-je) vágják vissza azért, hogy legyen hely az IGP-nek.
____
Szerk.
És mégis mit kell ezeken a grafikonokon amiket még utólag beraktál látni?
Elmondom én mit látok:
1, Azt látom, hogy bármi legyen is amit mértek, a desktop VGA-k meggyalázzák a leggyorsabb APU-t
2, totálisan irreleváns grafikonokat sikerült belinkelni, mert a célközönség nagy ívben */-*/ a "calls/second"
értékeket (tudod, ebben már az x360 is gyorsabb volt, mint a mai VGA-k régebbi DX-el, aztán mire ment ezzel az X360)
három dolog számít:
-FPS
-Frametime
-Input lagJ.
-
válasz
joysefke #106 üzenetére
Megártott a sok Abu prófécia, take a break! Nem vagy egyedül Direkt beraktam egy tesztet, hogy lásd, mit hoz, ha kihasználod a HSA-t. Tízszeres gyorsulás! És még mindig nem akarod megérteni...
Az Intel is kénytelen keresni az energia hatékony megoldásokat, mert szorítja az ARM. Mindenhol. A szerverekben is. Pont azért, mert a hatékonyság lett a legfőbb kérdés. Drága az energia.
Az szerinted mennyire hatékony, hogy lassan a procik 2/3-a iGPU lesz ami általában nincsen kihasználva és könnyen lehet, hogy nem is létezik rá mód, hogy a jelenlegi számítási feladatok egy nagyon kis szeleténél többet tudjanak hatékonyan futtatni. Ugyanez volt a többmagos processzoroknál 10 éve. Szerinted az is hülyeség volt, mi? Milyen mód nem létezik? A lebegőpontos műveleteknél, ami nagyon-nagyon nagy arány, tízszeres gyorsulásokat mérnek.
Azzal pedig senki ne példálózzon, hogy "mert az Intel is őket másolja, akkor már csak kell legyen benne valami". Aki dolgozik az néha téved is, nagy cégek pedig jó nagyokat is tudnak tévedni.
Ja, mindenki hülye, csak Te vagy helikopter. Meg Mauser.Mint pld. az Intel: egy teljes évtizedig kitartottak az Itánium mellett, ami papíron olyan jól festett, de a működéséhez elengedhetetlenül szükséges compilereket képtelenség volt úgy megcsinálni, hogy az Itanium gyorsabb legyen mint egy jobbfajta x86-os. Az Itanium pont azért bukott meg, mert nagy volt a fogyasztása, plusz drága volt. A compiler hiányzott, de ha csak ez lett volna a gond, akkor megírják.
Szoftverfejlesztő vagy amúgy?
-
7time
senior tag
-
joysefke
veterán
válasz
Jim Tonic #102 üzenetére
Még mindig csak darálsz, de nem akarod megérteni, de a többiek sem. A lényeg a hatékonyságon van.
Megártott a sok Abu prófécia, take a break! Nem vagy egyedül
Az szerinted mennyire hatékony, hogy lassan a procik 2/3-a iGPU lesz ami általában nincsen kihasználva és könnyen lehet, hogy nem is létezik rá mód, hogy a jelenlegi számítási feladatok egy nagyon kis szeleténél többet tudjanak hatékonyan futtatni. Vannak olyan algoritmikus problémák amelyeket nem lehet értelmesen párhuzamosítani és "lehetséges" (khm..) hogy a jövőben ezeket a szoftver eszközöket nem fogják tudni leváltani más jobban párhuzamosíthatóakra. legalábbis nem a desktop szegmensben.
Azzal pedig senki ne példálózzon, hogy "mert az Intel is őket másolja, akkor már csak kell legyen benne valami". Aki dolgozik az néha téved is, nagy cégek pedig jó nagyokat is tudnak tévedni.
Mint pld. az Intel: egy teljes évtizedig kitartottak az Itánium mellett, ami papíron olyan jól festett, de a működéséhez elengedhetetlenül szükséges compilereket képtelenség volt úgy megcsinálni, hogy az Itanium gyorsabb legyen mint egy jobbfajta x86-os. egy évtizedig és kitudja mennyi elsüllyeszettt dollármilliárdig kitartottak mellette...A tanúlság pedig ebből az, hogy: nagyszerű hardvert lehet tervezni minden hónapra eggyet, de szoftvert ami ki tudja használni már sokkal nehezebb, és mire elterjednek egy újfajta paradigma az egy fél örökkévalóság. Másrészt pedig ami papíron nagyszerűnek tűnik az nem biztos hogy megvalósítható a gyakorlatban. (mint pld. a gyenge itanium compiler)
______
104/105: i-r-ó-n-i-a...J.
-
Pete55555
addikt
válasz
joysefke #103 üzenetére
-egyre gyengébb (de az AMD-nél még mindig erősebb/jobb) CPU-kat adnak ki, annak reményében, hogy előbb utóbb megijednek a régebbi géppel rendelkező emberek és gyorsan váltanak attól való félelmükben, hogy ha tovább várnak, csak egyre lassabb CPU-k lesznek piacon.
-miután ez megtörtént utánna meg lehet újra adagolni a teljesítményt mondjuk 33MHz-es tempóban (valaki emlékszik még a 90-es évek végére az athlon előtti korszakból??) És akkor majd megint váltanak a népek a gyorsabb procira.Így van, pontosan ez a tervük. Végre valaki, aki átlát a szitán.
-
joysefke
veterán
Lesz eDRAM nélkül, teljes (megszokott) méretű cache-sel magas órajelre szánt (K-verzió) mainstream (nem extreme) Skylake?
Régebben láttam valami intel roadmappet, amelyben a Skylake desktop-teljesítményben a Broadwell alá volt sorolva. Azért mégis csak "mókás" lenne, ha a Haswell után két mainstream asztali CPU generáció is csökkenő teljesítményt jelentene az elődhöz képest
Lehet ez lesz az intel új üzletpoloitikája:
-egyre gyengébb (de az AMD-nél még mindig erősebb/jobb) CPU-kat adnak ki, annak reményében, hogy előbb utóbb megijednek a régebbi géppel rendelkező emberek és gyorsan váltanak attól való félelmükben, hogy ha tovább várnak, csak egyre lassabb CPU-k lesznek piacon.
-miután ez megtörtént utánna meg lehet újra adagolni a teljesítményt mondjuk 33MHz-es tempóban (valaki emlékszik még a 90-es évek végére az athlon előtti korszakból??) És akkor majd megint váltanak a népek a gyorsabb procira.
J.
-
joysefke
veterán
Abu írta, hogy a lapka 70%-át foglalja el az iGPU, tehát tranzisztor arányban nyilván még jóval többet. (a GPU tranzisztorokat sűrűbben tudják pakolni mint a CPU többi részében).
Feltételezem, hogy a gyártási költségek is ilyen arányban állnak: A PC-s szemmel gagyi GPU adja majd a költségek 2/3-át...
Cserébe majd a Libre Office-ban (vagy micsodában) 1-2 fügvény gyorsabban fog futni. must have!!!
Remélem a Skylake-kel visszatérnek a földre és adnak ki rendes mainstream desktop orientált CPU-t is...
J.
-
tom_tol
addikt
válasz
Jim Tonic #94 üzenetére
Ez szép és biztosan jó is lesz. De ez szerintem nem elég indok arra, hogy a vásárlókkal kifizettessék egy még nemlétező szoftverkörnyezetre alkalmas eszköz árát. Az rendben van, hogy ebbe az irányba haladnak, de az nagyon nincs, hogy már nem lehet kapni IGP nélkül csak felső kategóriás CPU-t. MaUser nem irkál ostobaságokat.
-
7time
senior tag
Eklatáns példa az USA harci repülő ipar, ami lassan felőröl minden szereplőt és maradni fog 2 (talán).
Ez manapság szinte mindenre érvényes ha ezen emészti magát az ember hamar orvoshoz kerül, manapság bármilyen iparágról legyen szó nagyon nehéz a belepés mert az ott levők bebetonozták magukat, de ez nem jelenti azt hogy ha valami hülyeség azt mindannyian elkezdik követni, pláne hogy az IGP dolgot az AMD találta ki egyáltalán nem veszélyesek egyik versenytársra sem így mindenki mondhatta volna hogy más utat követ, de senki nem mondta hanem az AMD -t követik sőt nagy cégek csatlakoztak a HSA -hoz, így nehéz lesz elmagyaráznod hogy ez miért is akkora fail.
joysefke hamarosan-hatnak-hetnek-kiválthatnak-elterjedhetnek
Ha annyira biztos vagy benne hogy ez hülyeség nem kellene ennyire zavarjon.
-
joysefke
veterán
Kiemelem a lényeget a PH!-n az utolsó 5 évben elterjedt HSA/heterogén csodavárásról:
hamarosan-hatnak-hetnek-kiválthatnak-elterjedhetnek
csupa feltételes mód meg majd akkor meg majd még akkor, még egy kicsit kell várni...
Bazz a többség nem életjáradék kötvényt akar venni csak egy nyamvadt processzort 15-50E Ft között, amit most lehet használni. Itt és most.Vásárlók szempontjából (itt és most) több értelme lenne az egész desktop intel vonalat eggyel elcsúsztatni:
i3->Pentium, i5->i3, i7->i5, i7 extrém-> i7 (6 magig), i7 extrém (8 magtól)mint egy túlhjzlalt iGPU-ra pazarolni a drága szilíciumot, ami már az adott chip-terület több mint felét elfoglalja és mégis a többség gyakorlatilag semmi hasznát nem látja...
Az utóbbi évek energiatakarékossági fejlesztései egy 6 magos CPU értelmes hűtésére is lehetőséget adnak.
J.
-
MaUser
addikt
válasz
Jim Tonic #94 üzenetére
A képszerkesztést már fentebb írtam, hogy aki profin akarja az csinálja úgy és a többséget meg egyáltalán nem érdekli. Az meg hogy multicore opt kódot éppen lo-n keresztül hívsz meg, hát nem éppen real-world scenario. Pl. ha megfeszülök sem tudok olyat mondani, ahol 6.8mp-et kéne várnom bármilyen excel táblára pedig vannak ám szép testesek ezerrel.
Persze direkt lassút tudnék gyártani, de minek.
A versenyről meg annyit, hogy mióta AMD vegetál és más konkurencia nincs, versenynek nehéz lenne nevezni a dolgot, amikor Intel legnagyobb problémája, hogy fel ne szabdalják konkurencia hiányában. Pl. sehol egy core/Athlon szintű ugrás. Lassan adagolt fejlesztések vannak a profitmaximalizálás miatt. Így is lassul a piac, mert ahogy korábban írtuk egy négy éves proci is bőven sok mindenre és korlátját nem igen érezni pro igényeken kívül.
7time: Nyilván a cégek már csak ilyen jópofák, hogy azért mennek ebbe az irányba mert nem itt remélnek profit maximumot, hanem mert nekünk jó.
Az már a fejlett iparágak paradoxona, hogy belépni ide új ötletekkel már nem nagyon lehetne, mivel eszméletlen erőforrást (pénzt és főleg tudást) igényelne, ergo egyre kevesebb szereplő lesz és lassul a fejlődés üteme. Ez középiskolás közgáz anyag, nem egy örödöngősség, de megoldás erre nincs. Eklatáns példa az USA harci repülő ipar, ami lassan felőröl minden szereplőt és maradni fog 2 (talán). A fejlődés meg minimális és a költségek szállnak el. Pedig verseny van, csak éppen már ennek a hatása nem tud érvényesülni erőforrások hiányában.
ukornel: Nem vagyok cpu fejlesztő, de nyilván a közjó érdekében nem azt az irányt nyomatnám ami a célközönség kis százalékát érinti és kb. már 7-8 éve nem sikerül egy programot sem felmutatni rá ami széles közönségnél érdemi gyorsulást hozni. Pl. programozóként én azt szertném (bilibe lóg a kezem, tudom) ha lenne max. négy nagyon gyors magom. De pl. 2-2 big-little elrendezésben is álom lenne. Mert soros problémákat nem tudok párhuzamosítani, ha megszakadok sem. Vagy ha mégis, akkor meg te mint vevő nem fizetnéd meg a beleölt munkaidőm.
Szerk: annyit még hozzá hogy ez az egész igp tematika itt a ph-n erősen túlreprezentált. Ha olvasol más külföldi lapokat, ott nincs napi amd cikk hogy milyen jó lesz majd az igp mindenre (egyszer, talán, valaha). Helyén kell kezelni, ennyi.
-
ukornel
aktív tag
Most, hogy végleges a HSA 1.0, és közeledik a Skylake, esély van arra, hogy hamarosan a piac nagyobb része (is) alkalmas legyen ilyen programok futtatására. Addig hiába várod az ilyen hétköznapi alkalmazásokat, mert nem sokan írnak ilyeneket kis túlzással az asztalfióknak.
Mobilon viszont még gyorsabban terjedhetnek majd, mert komoly telejsítmény- és akku üzemidő pluszt nyerhetnek vele. Akár fixfunkciós egységeket is kiválthatnak IGP-vel, az öldöklő árversenyben nagy előny a kisebb lapka. -
-
tom_tol
addikt
Könyörgöm, mondjon már végre valaki egy "hétköznapi" alkalmazást ami kihasználja az IGP erejét
-
ukornel
aktív tag
"miért gondolod, hogy az nV, Intel, AMD azért "fejleszt" mert az nekünk vagy bárkinek jó magukon kívül? Pörgetni kell a profitot"
Ha neked nem tetszik, nem veszed meg, és nem pörgeted a profitjukat. Ennyi.
"Nekem nem baj, hogy fejlesztenek, azt azonban erősen kritizálom, hogy elmentek a számukra legkönnyebb irányba"
Szögezzük le, hogy a fejlesztési irány egyáltalán nem könnyű. Sokkal nagyobb váltás, mint mondjuk egy sima CPU architektúra reszelés, vagy akár mint a 32-64 bites, vagy az egy/többmagos váltás. Több generáció alatt, lassan vezeti csak be az Intel és az AMD is, az nVidia most csúszott meg vele. Hiába formálódott iparági összefogás a szoftveres környezet fejlesztéséért, az is lassabban halad, mint amennyi egy termékgeneráció élettartama. Nem látom én ezt olyan hűdekönnyű iránynak.
Ehelyett mégis milyen irányt kellett volna inkább erőltetniük szerinted?
Ahogy én látom, az eddigi irányú fejlesztések egy jó ideje már csak egyszámjegyű pluszokat hoznak (százalékban). A szálanként és órajelenként végrehajtható műveletek száma tovább alig növelhető. Az órajelek kétség kívül beverték a plafonba a fejüket, abban sem maradt sok tartalék. A gyártástechnológia további fejlesztése teljesítményben egyre kevesebb pluszt hoz, a költségek meg brutálisan elszállnak.
A kritizált fejlesztési irányban ezzel szemben nem néhány százalékos, hanem többszörös pluszteljesítmény lehetősége van. Itt és most. Nem pedig majd N év múlva, amikor grafénből meg a Jóég tudja milyen anyagból készülnek a csipek (lagalábbis most ezt álmodjuk, és belelóg a kezünk a bilibe) ."Mert az nem fejlődés, hogy megyünk vissza 30 évvel ezelőtti és akkor is bukott konstrukciókhoz"
He??
-
7time
senior tag
-
MaUser
addikt
Na de miért gondolod, hogy az nV, Intel, AMD azért "fejleszt" mert az nekünk vagy bárkinek jó magukon kívül? Pörgetni kell a profitot és ebbe az irányba tudnak most menekülni, ahogy fentebb írtam. Nekem nem baj, hogy fejlesztenek, azt azonban erősen kritizálom, hogy elmentek a számukra legkönnyebb irányba és most az van éppen lenyomva a torkunkon ezerrel, hogy ez nekünk hú de jó, meg de nagy fejlődés. Mert az nem fejlődés, hogy megyünk vissza 30 évvel ezelőtti és akkor is bukott konstrukciókhoz.
-
mepet
addikt
De akkor bizony jön az ítélet napja, és akkor hiába kormányzó a terminátor...
Szóval akkor az nem parasztvakítás, hogy kihasználatlan/kihasználhatatlan tartalékok rejlenek benne felárért?
Akkor ennyi erővel eladok nektek egy öntisztuló pólót (nem lesz olcsó...), ami csak az öt év múlva megjelenő nadrággal együtt viselve lesz majd öntisztuló! De még az is lehet, hogy akkor sem fog tökéletesen működni. De lehet, hogy már működik is, csak a szagán még nem érezni... -
-
ukornel
aktív tag
Nézd, ebből a szempontból, átlag asztali felhasználói szemmel már rég nem érdemes fejleszteni semmit. A páréves utasításkészletekkel, azóta elavult csíkszélességen is olyan csipek készültek, amivel az otthoni alkalmazások simán mennek. Offisz, szkájp, fészbuk, médialejátszás, böngésző, de akár a fullhádé játszásdi is. Ami efölött van, az rétegigény, parasztvakítás, aminek nincs értelme... de aztán évek múlva meg hoppá mégis kiderül, hogy a tömegek nem tudnak meglenni a legújabb telefonos alkalmazásuk nélkül, ami mondjuk az utcaképet, vagy az arcukat, vagy akármi elemzi folyamatosan, és az alapján dug az orruk alá valamit hű de hasznosat.
Asztalin (is) aktuális téma a VR. Ott vannak a sasszemű gémerek, akiknek (állítólag) kiböki a szemét, ha a a fps lemegy 90-ről 85-re. Magyarázd el nekik, hogy nem fog számítani a PCIe késleltetése.Igen, jelenleg ez maradt az egyetlen út. Ha nem kell az új piacra dobott termék, mert neked fölösleges, akkor örülhetsz, mert nem kell pénzt költened. De azért ne fejlesszenek? Mi ezzel a gond?
-
Asztali gépek CPU-inak szemszögéből nézve én is 99%-ban parasztvakításnak látom ezt a vonalat.
Mert még mindig játékokban gondolkodsz.
A CPU-k néhány maggal rendelkező, soros utasítás végrehajtásra optimalizált chipek. A GPU-kban ezzel szemben több ezer mag van, masszívan párhuzamos adatfeldolgozásra optimalizálva.
Ha pl. lebegőpontos számításokat végzel, a gyorsulás akár tízszeres is lehet. Ha ez okosan kihasználja a fejlesztő, jóval kevesebb idő és energiafelhasználással fut a programja. Nézd meg pl. ezeket a táblázatokat: [link] -
mepet
addikt
Így van. Asztali gépek CPU-inak szemszögéből nézve én is 99%-ban parasztvakításnak látom ezt a vonalat. Az, meg, hogy ezek miatt a fejlesztések miatt majd évek múltán marha gyors lesz egy olyan kínai telefon, amit sosem fogok megvenni, hát az annyira érdekel, hogy ezért biztos többet fizetek majd egy asztali prociért...
Létezhet olyan felhasználói igény, amikor ezek a fejlesztések jól jönnek. Elhiszem. Ezért írtam az imént 99%-ot, nem egyel többet. -
MaUser
addikt
Valószínűleg ez az én korlátoltságom, de jópár éve programozásból élve sem látom ezt a "korlátoltságot". Konkrét példa tényleg sokat segíteni, csak senki nem képes rá mondani, csak jön mindig ez a frázis puffogtatás. nV, Intel, stb. meg azért megy ebbe az irányba, mert freki növelés bedőlt, bonyolult proci párhuzamosítás 4 mag felett is lassan értelmetlen és ez maradt az egyetlen út jelenleg, hogy új terméket lehessen piacra dobni.
Ha 10 év múlva már nem tudnak erősebb gpu-t benyomni a cpu mellé, akkor megint elkezdenek tolni valamit, amit már 40 éve is megvolt. Mert mediagx ezer éve volt és akkor is megdöglött.
-
ukornel
aktív tag
"Na ezeket az átlag consumer igényei szerint most is megoldod bármivel, [...] Az átlag facebook, net, youtube, stb. user-nek baromi nem számít, hogy kap egy, a mostaninál compute-ban akár 100x erősebb IGP-CPU párost. Mert minek? Erre tudnál válaszolni, ugyanis ez az a kérdés, amire nincs válasz. Értsd: tök jó, hogy lesz baromi erős IGP-CPU, csak minek?"
Nem biztos, hogy baromi erős lesz, lehet hogy "csak" a mostani asztali átlag teljesítményt hozza, ellenben mobil fogyasztási keretből, kevesebb adatsínnel, kisebb helyen, passzív hűtéssel, stb. Ez nagymértékben kitágítja a lehetséges felhasználási területeket és módokat. Nem véletlen, hogy a mobil szegmens érdekelt a témában.
"akinek meg komolyabban gondolja, az megveszi azt a kártyát amivel az ő álltala használt progi a legjobb."
Egyrészt: az, hogy melyik kártya hogyan teljesít egy-egy speckó progiban, az nagyobb részt támogatás kérdése. Másrészt: komoly feladatok egy részében pont hogy előjön az adatmozgatás, mint szűk keresztmetszet, ami miatt a diszkrét gyorsító korlátba ütközik.
Az látszik, hogy a belátható, közeli jövőben az AMD, Intel, nVidia is mélyen integrált IGP+CPU procikat fog gyártani, sőt, várhatóan a Samsunk, meg a Qualcomm is. Látszik, hogy erre még van komoly fejlődési potenciál, tehát miért ne tennék - ez a kérdés, nem az, hogy "minek"...
-
MaUser
addikt
Minden olyan esetben, amikor a CPU és a GPU közti adatmozgatás a szűk keresztmetszet. Gondolom nem nekem, totál hozzá nem értőnek kellene ezt itt leírni; de le is írták már egy párszor...
Eegen és ezerszer leírtuk már egy jó páran, hogy ez csak ott gond, ahol egyáltalán szóban jön a GPU-s gyorsítás. De az meg nem jön gyakran szóba, mert alig van értelme valamit párhuzamosítani. Video kódolás, 3D grafika és kép/hangfeldolgozás nagyjából ahol van értelme GPU gyorsításnak. Na ezeket az átlag consumer igényei szerint most is megoldod bármivel, akinek meg komolyabban gondolja, az megveszi azt a kártyát amivel az ő álltala használt progi a legjobb. Az átlag facebook, net, youtube, stb. user-nek baromi nem számít, hogy kap egy, a mostaninál compute-ban akár 100x erősebb IGP-CPU párost. Mert minek? Erre tudnál válaszolni, ugyanis ez az a kérdés, amire nincs válasz. Értsd: tök jó, hogy lesz baromi erős IGP-CPU, csak minek?
-
MK VII
veterán
válasz
Joachim21 #78 üzenetére
Haldoklik??? Szerintem meg pont,hogy egyre jobban fejlődik... Sőt..
Én inkább úgy fogalmaznék,hogy átalakultak a gyártási szempontok.. Más felé fejlesztenek a cpu gyártók.
Szerintem arra gondolsz,hogy processzor erőben "haldoklik". Nem haldoklik az csak egyszerűen hova fejlődjenek már? 6-8-10ghz? Nem hiszem,hogy az az irányvonal a megfelelő. Meg ugye a hőtermelés is elég nagy már egy 5ghz körüli processzornál. Fogyasztásról meg ne is beszéljünk. Jó irányba halad a cpu fejlesztés.
Igen be kell látni,hogy egy i5-2600k-val + egy jobb VGA-val még szépen el lehet játszadozni,de például sokan vannak akik kinőnek a játékos korszakukból és váltanak.. Majd ahogy én is eladom a dVGA-m és a jelenlegi Pentiumomat és egy i5 Broadwell-t be fogok húzni,mert nekem az tökéletesen meg fog felelni. -
Joachim21
őstag
Ezeket a cikkeket olvasva mindig az a benyomásom, hogy gyorsuló ütemben haldoklik a PC. A VGA-knál 2 évente, 3 évente jönnek csak új architektúrák, a processzorok olyan dolgokat támogatnak, amit a szoftveresek majd 5 év múlva sem támogatnak talán, közben pedig drágábban adnak lassabb cuccokat. Régen a Prohardver volt az egyik első oldal amit megnéztem, ma a Mobilarena. Valahogy átkerültek a hangsúlyok, és 2010 óta nincs miért fejleszteni egy erős PC-t, mert az ma is erős.
-
ukornel
aktív tag
"Milyen olyan feladat van átlagos esetben, amihez vagy nem jobb egy izmos külön GPU (egy jobb GTX erősebb full alapjáraton, mint a legerősebb IGP) vagy nem elég bármilyen mai full fapad IGP is?"
Minden olyan esetben, amikor a CPU és a GPU közti adatmozgatás a szűk keresztmetszet. Gondolom nem nekem, totál hozzá nem értőnek kellene ezt itt leírni; de le is írták már egy párszor...
Nem tudom, mi neked az "átlagos eset". Ami ma átlagos, az lehet, hogy évek múlva elavul. Ami ma extrém, az esetleg (a heterogén programok elterjedésével) teljesen átlagosnak fog számítani...
-
MaUser
addikt
Troll on: Sokak szerint pedig mióta AMD kitalálta, azóta IGP forradalom van. De majd jövőre lesz az IGP éve.
Egyébként most már teljesen mindegy merre megy az Intel, próbáltak ők már más architektúra irányába menni kétszer is a közelmúltban, mindkettő bukta lett. Egyszerűen nincs sok hely IGP alap segítségnek, csak valamiért ezt nehéz megérteni. Milyen olyan feladat van átlagos esetben, amihez vagy nem jobb egy izmos külön GPU (egy jobb GTX erősebb full alapjáraton, mint a legerősebb IGP) vagy nem elég bármilyen mai full fapad IGP is? Power user vesz külön GPU-t. Egyéb esetekben meg hol használod ki a GPU-k előnyét, a párhuzamos végrehajtást? Ezt kérdezem már az IGP evangelistáktól itt a kezdetektől fogva, de válasz az nincs.
Btw, most lesz egy remek konferencia Münchenben, hogy merre lehet lépni párhuzamosítással beágyazott rendszereknél. Mondjam, hogy az előadások 95%-a arról szól, hogyan ne szívj hatalmasat azért, mert multicore cuccot kell használnod olyan feladatokra, amikre egyébként az egy mag a megfelelő? Egyszerűen teljes paradigma-váltás kellene, de az meg nem tudom, hogyan következhetne be, hogy mondjuk 100 elemet for ciklus helyett úgy nézzünk, hogy alapból szétvesszük annyi részre az adatot ahány magunk van és úgy nézzük át őket és persze a dependency-vel sincs semmi gond. Na ilyesmi támogatás fejlesztői oldalról nagyon gyerekcipőben jár és ez még nem is olyan nagy baj, mert a legtöbb feladat bizony soros és nem párhuzamos.
-
gaba.hu
csendes tag
Leginkább ez a Broadwell-K előnye, ugyanis érkeznek olyan programok, ahol a felkínált teljesítményt nem a processzormagok, hanem az IGP ereje határozza meg. A Core i5-5675C és i7-5775C ezekben az alkalmazásokban és játékokban lényegesen gyorsabb lesz
Szóval az IGP-s OpenCL vagy a DX Compute Shader működni fog aktív dvga mellett is, vagy jó szokás szerint a driver letiltja ilyenkor ezt a funkciót?
-
Diniboy
aktív tag
Hát ha mogyoró nem is,de saláta, meg egyébb zöldség még lehet
Why are Fujitsu and Toshiba growing lettuce in semiconductor plants -
GeryFlash
veterán
Továbbra is tartom hogy tilos broadwellre váltani, ki kell várni a Skylaket, persze kellenek bétateszterek is az Intelnek, de azok legyenek az Applösök
-
Vagy inkább csak a megnőtt mobil (notebook, ultrabook, tablet stb) piacra reagálnak az x86-nál. ARM-nál azért még megy rendesen az izmozás, igaz leginkább szerverbe. De csak hogy folytassam amit elkezdtem, én konkrétan architektúrák korlátjaira gondoltam. Ha nagy teljesítményt akarsz, akkor jobb architektúrát kell tervezni. Persze ez
kurváramódfelett nem egyszerű, de a mostani "GPU"-knál látszik, hogy mire megy ki a játék. Azért az idézőjel, mert lassan akár már ezeket is lehetne hívni CPU-nak, hisz mára sok minden megjelent bennük, amit eddig csak CPU-ban láttunk.(#71) Duracellm...: A cikkből nagyjából kiderül mely direktívákat támogatja. Ma nem profitálsz belőle semmit, lásd első hsz-em. De ha már az Oracle is beállt a HSA mögé, akkor azért az elég reményteli jövő. A jelenlegi (megfelelően felkészített) Java 8 programok automatikus GPU gyorsítást fognak kapni Java 9 alá, s ez csak a kezdet.
-
#16939776
törölt tag
Ez a két processzor mennyiben kompatibilis HSA direktívákkal? Milyen kézzelfogható előnyt jelent ez most?
-
sb
veterán
Teljesítményre a cpu fejlődése is megállt nem csak az x86 szvsz.
Hatékonyságnövelés megy és a mobil szegmens. Adott teljesítményt minél kisebb fogyasztással kihozni.Viszont ez is abba az irányba mutat, hogy az össz számítási teljesítmény nem fog már cpu oldalon tovább nőni. Két irány van szerintem:
1. A facebook/youtube júzer. Erről írt derive, mint akik nem vesznek majd új cpu-kat/apu-kat. De valójában csúcs cuccokat ők soha nem is vettek, nem voltak soha piac a top fejlesztések számára. Náluk lehet irány a hatékonyságnövelés.
- Ugyanazt a teljesítményt megkapja kisebb fogyasztású, jobb cuccokban: pl egy passzív tabletben/telefonban amihez 10 éve egy asztali gép kellett.
- Növekvő teljesítményt kap, de nem csúcsteljesítményt. Ez a reális, most is ez zajlik. Egy telefon/tablet lepkefing erősségű desktophoz képest, de önmagukhoz képest egyre erősebbek. Viszont ugrás ott is a gpu felhasználásból lehet. Ráadásul ebben a szegmensben a fogyasztás egy plussz, jelentős faktor még a gpu befogására. (Egyébként pedig hiába elég a fszbúkra X teljesítmény, úgyis nőni fog az igény, mert jönnen új feature-ők, hangfelismerés, arcfelismerés, minden szar...)2. Power user. Ide meg jönnek a nagyobb procik/gpu-k. Itt lesz kereslet rá ha valaki jelentős plusszt kap vele. Márpedig azt kaphat. Főleg a cpu-k 4 év alatti 10-20%-os növekedéséhez képest.
Szóval én csúcson - a teljesítmény miatt - és kommersz kategóriában - ott meg a relatív teljesítmény, hatékonyság, hordozhatóság miatt - látom fejlesztési iránynak.
Meg mert egyszerűen nincs hova fejlődni. Eladni meg csak azzal lehet. Hiába sírunk, hogy X éve nincs normális gpu-s program. Előbb-utóbb ráállnak mert ha jelentős az előrelépés egy 5-6 éve helyben toporgó piacon akkor ez óriási versenyelőnyt jelenthet. Pangó piacon.
-
ukornel
aktív tag
"65w eleg baráti. Igp-t ki kell kapcsolni (ilyen cpu melle ugyis mindenki dvga-t vesz), igy az egesz tdp mehet a cpu-nak, + tuning."
Ennek semmi értelme, mert ez a proci az IGP-ről szól.
Az órajelei megegyeznek a jó öreg i5-2500K-éval - oké, IPCben volt valamennyi előrelépés azóta, de abból nem sok látszik a legújabb utasításokat nem kihasználó programok alatt. Az eDRAMból is az IGP profitálhatna igazán, nem a CPU.Érdekes egyébként, hogy a cpu-world nem tünteti föl a "C" végződésű processzoroknál az L4 cache-t. Viszont jelez az asztali szegmensbe R végződésű Broadwell-eket is, BGA1364 tokozással (ezeknél feltünteti az eDRAM-ot).
-
sb
veterán
1. Leállt az x86.
Én magam is ezt írtam minden topicba 1-2 éve, nem mondtál újat.
2. GPU forradalom tart 7 éve.
Biztos... szerintem mondjuk nem. Most jön mivel most állt rá az Intel is erre a vonalra. Teljesen normális, hogy nem volt forradalom amíg csak a kicsit ugrálnak. Mármint desktop szintről beszélek, mert ws és szerver oldalon azért erősen dolgoztatják a gpu-kat jó ideje. Vagy tévedek?De egyébként ha az egészben nem is értünk egyet, akkor is hülyeségeket beszélsz.
Nem tudod elfogadni, hogy ezeket nem cpu-ként tervezték.
Le van írva fehéren-feketén, hogy ezek MÁS célra készültek te meg folyamatosan azzal példálózol, hogy nincs ilyen cél, ill. azt firtatod mennyire rosszak arra amire nem készültek.Ez olyan mintha egy repülőgépet fikáznál, hogy autózni se lehet vele normálisan, repülni meg ugyan ki fog vele és mikor?!?
Akkor is arra készült, nem autózni. Azt csak te akarsz vele.
A többiek majd megveszik repülni... vagy ha nem lesz repülés akkor nem veszik. -
válasz
#16939776 #64 üzenetére
Itt nem is igazán az IGP-ről van szó, hanem több szálra optimalizált egyedi architektúrákról van szó, melyek folyamatosan változnak, hogy a teljesítménybeli fejlődés tartható legyen. S pont ezért kell a HSA, mert hardverspecifikus (fix ISA-ra) kódot írva cseszheted kompatibilitást. Persze a gyártónak attól még kell hozzá "drivert" írnia, de ez még mindig sokkal jobb, mint minden programot portolni új architektúrára.
-
Interceptor
addikt
Lehet végül a skylake utódja lesz a tuti vétel meg az akkor megjelenő AMD? 2016 végére tippelem ezen új technológia értelmét, ahol már lesz néhány alkalmazás ami ki is használja, ha már játékok.
-
#16939776
törölt tag
Pedig az IGP felé fognak menekülni, mert nem tudják tovább növelni a hatásfokot. Nő a szivárgóáram, egyre alacsonyabb magfeszültség szint az ami fölött drasztikusan nő a hőtermelés, így csak alacsony órajellel tudják hozni a kis fogyasztást és nem fognak 20-30nm-re vissza térni, csak azért hogy jó hatásfokú, magas órajelre képes 4 magos cpu-kat gyártsanak, olcsón.
-
7time
senior tag
Egyelőre az látszik hogy a CPU fejlődése szinte megállt így az IGP őrület nemhogy megbukjon de most fog felerősödni, már az Intel is látja hogy a CPU-val nem sokat lehet kezdeni egy halom pénzt fektettek a 14nm és szinte semmi eredménye ha csak a CPU növekedést nézzük, a Sandyval simán el lehet lenni akinek az van.
-
mepet
addikt
Kíváncsi vagyok, mikor bukik meg véglegesen ez az IGP-őrület az asztali termékek esetében.
IGP jelentése számomra: Konkrétan semmire sem jó valami, amit muszáj kifizetni, hiába van dVGA-d...
APU jelentése számomra: Ideiglenes állapot, amíg rájössz, hogy mégiscsak kéne egy dVGA... -
derive
senior tag
Az x86 CPUk fejlodese kb leallt, 4 ev alatt 15%ot gyorsultak, milyen 5-10xes gyorsulasrol beszelsz? Ja hogy mar az Intel is rafekudt az IGPre! Es milyen consumer progi hasznalja ki? Kb 7 eve tart a GPU "forradalom"...
Ez a ket proci meg meg kulonosen melypont, ha nem latnad a CPUk majdnem 25%al alacsonyabb orajelen mennek mint az elodok. Es ez lenne a "desktop performance" kategoria...
-
sb
veterán
Most vagy nem érted vagy ennyire terelsz?
Szerinted egy gpu-val gyorsított cucc +15%-ot fog jelenteni?
Vagy csak a cpu-ról beszélsz miközben nagyon nem arról van szó? Két hsz-szel ezelőtt mondjuk még te is tudtad, mert gpu programnyelvről beszéltél.Hogy ki veszi meg... erről is írtam a véleményem. Abban igazad van, hogy facebookra nem veszik meg. Meg super mario helyett se. Sőt, tablet helyett se meg a traktorosnak is ekére lesz szüksége továbbra is.
Mi lenne ha abból indulnál ki, hogy az veszi akinek szüksége van rá és/vagy megteheti.
Játékért - semmitmondó fejlesztésekért is - vesznek az emberek hw-t? Mióta világ a világ...
Akinek meg munkára egyéb használatra kell, nem szórakozásra az meg 1-1 programért is gondolkodás nélkül megveszi, ha nem +15%-ot kap vele hanem mondjuk 5-10x gyorsulást.
Erről írtam - és ebben kb. egyet is értünk - csak el kellett volna olvasni.De a másik oldalt is figyelmen kívül hagytad... a gyártó is tud keresletet indukálni. Vagy ha ennyire nem lesz rá fejlesztés és ennyire nincs szüksége rá a felhasználóknak akkor abbahagyják a cpu gyártást? Lesz majd helyette Intel sós mogyoró?
-
hugo chávez
aktív tag
válasz
Jim Tonic #54 üzenetére
Jahh, hát az Intel nem arról híres, hogy túlzottan törődne a support-tal, meg a vásárolt termékek "jövőtállóságával"...
Egyébként, mivel ennyire egymásra csúszott a tick és a tock, ezért szerintem mindenkinek érdemes megvárnia inkább a Skylake-et, aztán meglátja, hogy érdemes-e azt választania alaplapcserével, vagy Broadwell-ből a kettő közül valamelyik, vagy akár maradhat a (meglévő) Sandy/Ivy/Haswell-nél. Egyébként ez utóbbiak (tisztán CPU) teljesítményével sincs gond és szerintem nem is lesz pár évig (a Dennard-scaling vége miatt), szóval csak az új feature-ök miatt lehet érdemes váltani.
-
farkas1
tag
Az én G1840-emet lesz értelme lecserélni egy i7-re.
(#54) Gondolom, ha az AMD versenyre kényszerítette volna őket, már 1 éve kiadták volna. Így nem erőltették.
-
Így van. Nekem az a gondom ezzel, hogy elintézték két (várhatóan drága) processzorral.
#53: csak annyi a bajom a sztorival, hogy magam is a Broadwellre vártam, késett, összecsúszott a Skylake-kel. Így most elintézték két processzorral, hogy kuss legyen. Azaz igazából az alaplap két generációt sem bírt ki, mert valószínűleg szinte senki nem fogja megvenni őket. Persze, nem kötelező megvenni, de a PC nekem is mindig az építésről, a fejlesztésről szólt, de azért nem így.
-
hugo chávez
aktív tag
Hogy mi? Mostanáig a hozzászólásaid egyértelműek voltak, amennyire láttam, de ezt most nem értem... Talán irónia/szarkazmus akar lenni?
(Így zárójelben, ha esetleg mégis szó szerint kell érteni, akkor, egyrészt sokan pont azért sírnak, hogy nincs változás PC-n, ami miatt érdemes lenne váltani, másrészt meg, a PC régen (sőt, akkor meg pláne) is erről szólt, hogy egy-két évente be kellett újítani a CPU-t, na meg ezzel együtt az alaplapot, stb. is, mert enélkül egyszerűen nem lehetett futtatni az újabb szoftvereket.) -
derive
senior tag
Most oszinten, mire csereljen az ember egy Sandy i5ot? Kemeny +15%ert?
Majd evente jon par AAAs jatek ami tessek-lassek modon fut-fat-hajat szimulal IGPvel, te meg veheted a vasat. Azon kivul lesznek a szintetikus benchmarkok jo nagy szamokkal meg par komoly munkaprogram amit vagy maganak ir a ceg vagy van penz portolni (PS CAD...). Emellett flash es java gyorsitas yutubhoz meg farmvilhez. Alapjaba veve a legtobb user az Office-Skype-Expoler haromszogben mozog, erre most a miniPC a meno (mobil hardver, desktop ar), de mar a lathataron van a VR mint az uj buzzword. Majd cserelsz, ha 2 ev utan nem kapsz DX12 meg VR drivert.
-
MK VII
veterán
Azért most már annyira nem nehéz a váltás csak nem Magyarországon kell venni alaplapot.
A Gigabyte-nál jelenleg is van olyan lehetőség,hogy ha pl vettél egy Z97-es lapot és majd Skylakre váltanál akkor csak visszaküldöd neki a Z97-et teljes csomagolásában minden kiegészítőjével és ők küldenek egy ugyan olyan értékű skylake alá való lapot ingyen. Vagy,ha drágábbra váltanál akkor csak a különbözetet kell fizetned. Szóval nem annyira nehézkes és megterhelő anyagilag új konfigra váltani.. Természetesen kis hazánkban nem él ez az akció
Egyébként nekem ez a Broadwell tökéletesen meg fog felelni a G3258 után. Alig játszom már és a dVGA-m tuti el fogom adni viszont,ha kedvem támadna valami nem őrült nagy igényű játékkal játszani akkor ezzel is megtehetem.
Részemről örülök ezeknek a prociknak. Én biztos váltok ahogy a pénztárcám majd engedi -
derive
senior tag
válasz
Jim Tonic #44 üzenetére
Az enyem annak szolt, hogy az osszes H97 ez Z97 lap kezikonyveben benne van, hogy "supports Intel's 5th generation Core i3/i5/i7 CPUs". Ha nem hoznak ki ilyet akkor az EUs torvenyek szerint megteveszto marketing miatt barki visszavihetne a lapot a boltba eredeti aron es vehetne belole ujat a Skylake ala ( alighanem joparan sporolnanak 25-50kt + negativ reklam + komoly logisztikai koltseg ). Az NV meg olcson meguszta a dolgot, mert nincs mire valtani a 970rol, de meg ott is joparan kisajtoltak a kereskedokbol nemi jovairast, ingyen jatekot, gamer egeret stb...
@sb: Amig nincs emberi programnyelv GPUra, addig felejtos az altalanos terjedese. Meg a MIC is hamarabb terjed az uj OpenMPvel: 1 sor kod es megy az offload.
-
sb
veterán
Sikerült elolvasni a cikket, miszerint az igp a lényege és a cpu egyébként gyengébb...
Ez mondjuk mindenkinek szól aki a cpu rész erejét keresi. Nem erről szól.A többi téma:
1. Upgrade
Nálam szintén i5-2500 megy 4 éve, kis OC-vel 3.8-on elég korrekt mindenhez. Valóban nem kellett hozzányúlni, de még 4 évet már nem fog kibírni, addig tuti jönnek igp-re támaszkodó programok. Itt vannak ezek a procik, jön a Skylake még gyengébb cpu résszel és erősebb igp-vel... egyértelmű, hogy lesz előrelépés. Mert ha nem akkor visszalépés lenne.
1-2 év. Persze addig nem lesz 100% támogatás, de akinek kell/érdekli/megteheti (itteni közönség jó része) annak elég lesz mondjuk 10-20%-os elterjedés is a váltáshoz.
Persze a Skylake-et érdemes megvárni mindenképp.2. A Skylake mellett ez a Broadwell proci inkább arra jó, hogy ne kelljen platformot váltani és mégis legyen egységes memória támogatás ha valaki meglévő 1150 lapba akar előrelépni majd. Plussz cpu-ban addig is erősebb lesz a Skylake-nél. Túl sok értelme valóban nincs, átmeneti megoldás lehet.
-
-
aswmaster
tag
én nagyon azt olvasgatom mindenhol, h aki dVGA-t használ annak nem szabad válatni 4790k-ról, mert CPU erőben el fog maradni a Broadwell rőle (kisebb cache, alacsonyabb frekvencia), annyit meg nem hoz az a 14 nm csíkszélesség. de persze majd a tesztek megmutatják, ezek inkább ilyen találgatások/számolgatások...
-
dredbiro
senior tag
lassan eljutunk oda hogy fél évente lehet alaplapot+procit cserélni,rosszabb esetben még memóriát is.
-
kecsawi
senior tag
Na úgy tűnik erre vártam, és akkor dVga nélkül lehet a diablo 3-at teljes grafikával játszani, ez lesz a proci upgrade a következő pár évre...
-
mcload21
tag
Nekem Core2 duo E8400 van. Régebben nagyon vártam a Kaverit, de nekem csalódás volt, így nem is vettem. A Carrizo nem is igazán érdekel. Broadwell-ből nem úgy volt, hogy nem nagyon lesz asztali változat? (Mondjuk úgy látszik, ez igaz is ...).
Most a Skylake-en gondolkodom ... ez játékra megfelelő lesz? -
Pete55555
addikt
válasz
flashpointer #27 üzenetére
Mindjárt nézek pár tesztet, mert még az 5200-nak sem olvastam utána, de ez egyelőre biztatóan hangzik.
Úgy tervezem, ha eladom a mostani procit, meg a VGA-t is, akkor annyival kevesebb ugye az új proci. -
Pete55555
addikt
Nos, ha
jó árban lesznem lesz 70-80k, akkor erre fogom cserélni a mostani G3420-at. Kb ez volt a tervem egyébként is, hogy broadwellre fejlesztek már, nem haswell i5-re.
Ha meg elég jó lesz az IGP, akkor lehet dVGA sem lesz mellette. Legalább is egy darabig.(#24) Abu85
Most az Intel erre gyúr.
Ez helyesen: Mostmár az Intel is erre gyúr.
-
aswmaster
tag
Gondolom jön majd belőle i7 is. Az erősebb vagy gyengébb lesz, mint a 4790k? Most nem IGP-t nézve, szimplán a CPU erejét?
-
#16939776
törölt tag
Mennyi ideig lesz ezekre muszáj support?
-
7time
senior tag
Kíváncsi vagyok mennyiért fogják vesztegetni.
-
Dosi
tag
i5 no HT amúgysem váltanék 4690K-ról na de mégsincs HT
-
shteer
titán
a 4770S-em korrekt utódja lenne az az i7 - amennyiben c2c is számíthatunk gyorsulásra
-
beci43
senior tag
Akinek most Haswell,Devil's Canyon van,nem hinném hogy érdemes upgradelni.Én biztos hogy kihagyom a köv. generációt,igaz,ez csak az én véleményem.
-
sayinpety
tag
A Broadwell Havokhoz kell. Az Intel nem tudja kiadni a Havok console modulet PCre. Minimum igenye Fine-Grain SVM tamogatas.
Kaveri, Broadwell, Carrizo, Skylake, etc. tamogatja a Havok console modulet. Lassan megeri kihasznalni. -
Popes
őstag
Hát egyelőre nem hiszem hogy váltok Haswellről, pedig direkt vártam a Z97-es lapra hogy majd cserélhetek Broadwellre.
De ezek még csak az első fecskék, talán jön még valami combosabb is.
-
Hm, plusz pár centi epenisnek lehet érdemes beújítani egybe. Mondjuk az egységes virtuális memóriának tényleg van értelme, csak mire az Abu-prófécia beteljesül, már rég itt lesz a Skylake.
-
Duck663
őstag
Én Core2-ről váltottam Haswell... azt gondoltam nagyobb különbséget fog jelenteni... ha az alaplap nem járta volna a végét, még a skylake is bevárható lett volna...
(#4) satz18: Nem a Broadwell-t nem tervezték magas órajelre, hanem a 14nm-t...
-
satz18
őstag
Ilyen órajelek mellett most ennek van értelme? Ha a broadwell-t nem magas órajelre tervezték, akkor a tuningnak mégis miféle teljesítménynövekedése lesz? Ha csak pár százalékkal erősebb azonos órajelen, akkor a haswellek nem sokkal gyorsabbak, azok ugyanis 4 GHz felé húzhatók bőven? Aki szorzózár mentes procit vesz az IGP-re támaszkodik dGPU helyett?
-
Milgram1
aktív tag
Évek óta mindig 6 meg 8MB az L3. Most hogy-hogy 4 meg 6?
-
edari
őstag
65w eleg baráti. Igp-t ki kell kapcsolni (ilyen cpu melle ugyis mindenki dvga-t vesz), igy az egesz tdp mehet a cpu-nak, + tuning.
Jim Tonic: Manapsag meg egy sandy is eleg. Minek kelljen folyton ujat venni?
-
Ezzel az állandó változtatással elérhető, hogy az embereknek tényleg elmegy a kedve a PC-ktől. 2-3 évente kuka az egész.
Új hozzászólás Aktív témák
Hirdetés
ph Az Intel megegyezett az alaplapgyártókkal és két csúcsmodell erejéig támogatják az LGA1150-es tokozást.
- Milyen okostelefont vegyek?
- Anglia - élmények, tapasztalatok
- Milyen autót vegyek?
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Építő/felújító topik
- iPhone topik
- Milyen RAM-ot vegyek?
- Videós, mozgóképes topik
- Nvidia GPU-k jövője - amit tudni vélünk
- Kettő együtt: Radeon RX 9070 és 9070 XT tesztje
- További aktív témák...
- BESZÁMÍTÁS! ASUS ROG B450 R7 5700X 16GB DDR4 512GB SSD RX 6700XT 12GB DeepCool CC560 Seasonic 650W
- Telefon felvásárlás!! iPhone X/iPhone Xs/iPhone XR/iPhone Xs Max
- AKCIÓ! Dell Alienware M17 R3 Gamer notebook - i7 10750H 16GB DDR4 1TB SSD RTX 2070 8GB WIN10
- ÁRGARANCIA! Épített KomPhone i5 13400F 32/64GB RAM RX 7700 XT 12GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! Gigabyte H610M i5 12600K 16GB DDR4 512GB SSD RTX 3060Ti 8GB Rampage SHIVA Seasonic 650W
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest