-
PROHARDVER!
OLVASD VÉGIG ALAPOSAN MIELŐTT ÚJ HOZZÁSZÓLÁST ÍRNÁL!!!
Új hozzászólás Aktív témák
-
atti_2010
nagyúr
válasz stratova #14098 üzenetére
Lehet hogy AMD a Radeonnak tartogatja a TSMC 20 nm gyártókapacitást (ha már lefoglalták a részüket).
Nem hiszem, az APU-ból nagyobb bevételeik vannak és így a mobil vonalon is elkaszálnák magukat, Intelnél is gyártathat.
1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.
-
atti_2010
nagyúr
-
marcell991
tag
Valaki tud esetleg valamit a mobil Kaveri érkezéséről?
Developers, developers, developers, developers! http://youtu.be/KMU0tzLwhbE
-
leviske
veterán
Nem akarom feleslegesen fokozni a kedélyeket, szóval linkelni nem linkelek semmit, de mennyi esély van arra, hogy esetleg egy, kicsit továbbcsiszolt GCN egység képes legyen az Excavatorban az FPU helyét átvenni?
Csak mert ezzel kapcsolatban találtam pár hajmeresztő grafikont kínai fórumokon, aminek ha a fele igaz volna, már az is elég biztató lenne.
-
Fiery
veterán
válasz leviske #14105 üzenetére
A GCN nem x86-os architektura, tehat egy x86/x87 FPU helyét nem fogja tudni atvenni. Mas kerdes lenne, ha mar a kutya nem hasznalna x87, SSE es AVX utasitasokat, de ugye ez nem egeszen igy van
Persze a Transmeta megoldasahoz hasonloan elmeletileg elkepzelheto lenne egy szoftveres reteg, ami atforditja az x87/SSE/AVX utasitasokat a GCN nativ utasitasaira, de ez nagyon hajmereszto elkepzeles, es szerintem az AMD egesz mas dolgokkal van most elfoglalva (pl. HSA).
[ Szerkesztve ]
-
Fiery
veterán
válasz leviske #14107 üzenetére
Ha az ISA (utasitaskeszlet) problemat fel tudja oldani valahogy az AMD, akkor semmi sem elkepzelhetetlen. Csupan az a kerdes, hogyan lehetne ezt megoldani, es mennyire lenne ertelme. Mert ha mondjuk azt vesszuk, hogy egy 1 szalas AVX vagy AVX2 kodot az x87 FPU vagy a GCN tudna-e gyorsabban vegrehajtani, akkor mar csak az orajelbeli nem csekely kulonbseg miatt is a GCN joval lassabban vegezne. Az egesz GCN-nek akkor lenne csak ertelme, ha sok szalrol, massziv parhuzamositasrol lenne szo, de ott meg a HSA jon be a kepbe, nem a nativ x87/SSE/AVX.
-
Abu85
HÁZIGAZDA
válasz leviske #14105 üzenetére
Semennyi. Az x87/MMX/SSE/AVX nem teljesen külön ISA, hanem egy utasításkészlet, ami az x86/AMD64-re építkezik. Ennek vannak követelményei a memóriamodellre vonatkozóan. Például az x86 memóriamodellje, ezen belül is az, hogy az egyik szál által kiírt adatokat a másik szálnak látnia kell a következő ciklusban hihetetlenül fos egy data parallel architektúrához. A több tízezer szálat kezelő GPU-knál nagyon kritikus, hogy a memóriaműveletek és a koherencia kezelése ne legyen ennyire merev, különben az egész rendszer nem fog működni. Minél több szál van annál nagyobb lesz az igény a trükkös megoldásokra, amelyeket egyébként minden GPU alkalmaz. Elsősorban azért is cserélik az ISA-t a GPU-knál 4-6 évente, mert minden ISA-nak van egy szálkorlátja, ami után már nem skálázódik a teljesítmény.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Vitamincsiga
tag
válasz leviske #14105 üzenetére
Az Excavator utáni időben - ha igaz a szél szárnyán kelt hír - a CU betelepedne a modulba.
Egy modul tartalmazna min 2 ALU-t, 1 FPU-t és min 1 CU-t. Egy modult pedig min 2 szálat jelentene.
Az Exvavator már a közös vmem-el is elboldogul, a többin pedig biztos reszelnek addig. Az utáni időkben a cache kezelés a jó kérdés, de egyéb probléma biztos akadna a koncepcióban szép számmal.
A HSA szemszögéből pedig ez egy dögös OC-nak felelne meg, mert már nem csak a mem tér lenne közös, hanem a cache tér is! Rém pongyola vagyokTudom - a fanok kivételével - mindenki ki van akadva a Bull gen gyengélkedésére. De a fenti elgondolásban, viszont a legjövőbelátóbb koncepció! Ráadásul mindez illik a MS - Win9 - sok, kicsi mag koncepciójába.
Engem még mindig az aggaszt, hogy miért nem vállalja fel az AMD a power júzereket?!
~300W TDP osztályú foglalat, 8-16 mag, 4 csat mem... Lenne valakinek is ellenvetése, ha jövő ilyenkorra lenne 4 TFlops-os APUJó lenne egy varázsgömb ;-)
-
MiklosSaS
nagyúr
válasz Vitamincsiga #14117 üzenetére
En pont azert valtottam 4930K-ra mert a 8350-nel nincs erosebb CPU/APU ..engem nem zavart volna a 300W TDP.
~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
stratova
veterán
Ha még nem lett volna.
AMD A10-7300 mobile "Kaveri" CPU spotted in HP laptop
A10-7300 - 2/4, 2.0@3.2 GHz, 19 W TDP
vö.
A10-5745M - 2/4, 2.1@2.9 GHz, 25 W TDP
A8-5545M - 2/4, 1.7@2.7 GHz, 19 W TDP[ Szerkesztve ]
-
MiklosSaS
nagyúr
válasz stratova #14119 üzenetére
Az igen....szepen hangzik. Kar hogy HP......
Szerintetek megeri lecserelni egy i3-2100-at egy Athlon SoC-ra ? HTPC-ben mini ITX alaplappal ? A gepet csak filmezes, bongeszesre es torrentre hasznalom.
Lehetne passzivan huteni azt a processzort?
~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
leviske
veterán
válasz stratova #14121 üzenetére
Szerintem ezek elférnek a Kaveri topikban is. Ezt a topikot érdemes meghagyni az Excavator/Carrizo duónak, meg az utódaiknak.
(#14123): Ezért sajnálom, hogy át lett nevezne. Jobb volt gyűjtőnek.
(#14117) Vitamincsiga: A 4TFlops elérésében sokat nem segítene, ha a CPU rész 16 szálasra hízna. Amíg pedig a HSA nem fut be, nincs értelme erőltetni a 300W-os TDP-t megengedő kategóriát (van ilyen?), hiszen nem lenne aki venné, se olyan, aki kiszolgálná alaplappal.
Persze a 8 modul bevezetése 14nm-en nem egy elképzelhetetlen dolog, de ehhez ~tartani kéne a 2014-es GCN/X86 arányaikat (Kaveri). Szóval hihetőbb volna, ha jönne 14nm-en egy 4modulos APU aminek ~65%-át a GCN utód tenné ki. És lehet, hogy ezzel még óvatos voltam.
[ Szerkesztve ]
-
Vitamincsiga
tag
válasz leviske #14122 üzenetére
Mivel még nincs még meg az A8-7600-asom , így a korában, az egyik hozzászólásomban feltett kérdésre nem tudom a választ. Mi lenne az optimális aránya a CPU/IGP-nek, illetve az FPU/CU-nak, az ezt kihasználni tudó programok java részében? /Bár valószínűleg, a tudományom tükrében ehhez a kérdéshez, kevés vagyok /
Amit Tőletek sikerült leszűrni - cikkek és hozzászólások formájában - az az, hogy van grafikus motor gyártó, aki már most 32 szálig skálázhatóra fejleszti a következő generációs termékét. A PS4 majd' 2 TFlops-ot tud, de 4k-tnem. A HSA mindenkit érdekel! Az Radeon R9 280X 250W-ból hoz ki 4TFlops-ot. A Win9 sok kicsi magot, mélyen integrált DX12-öt hoz majd. Stb...
A másik része, pedig az igények! Enyém, tiétek, bárkié. Ha 1.000$ alatt lesz egy ~50"-os, jó minőségű, 4k-s monitor(+TV), megveszed? Én tuti!
Ehhez - ha már ott van - viszont kakaó kell, ami jelenleg nem áll rendelkezésre, de a kielégítésén a gyártók és a fejlesztők gőzerővel dolgoznak. /A tegnapi HW-t, holnap nem lehet még egyszer eladni.../A 8-16 szál a - HSA! - magasabb fokú APU kihasználtságoz szerintem jól jöhet. /Az Intel készül valami 8c/16t-es erőművel!/
A 300W-os TDP osztály - AMD 5 GHz-es szörnye ~200W - még nincs, de ez is egy út. /Nekem kéne /
A 4 csatornás memóriakezelés is. Mert ez is egy szűk keresztmetszet.
/Igen ez drága lesz... A Radeon R9 280X listaára 299$, a Radeon R9 295X2 pedig 1.499$ 3x-os teljesítmény 5x-ös ár./Abban egyetértünk, hogy 14 nm-ig az AMD nem fog tudni nagyot dobni! De az, mi lesz?
[ Szerkesztve ]
Jó lenne egy varázsgömb ;-)
-
dezz
nagyúr
válasz Vitamincsiga #14125 üzenetére
Túl kevés efféle program van még az optimális arány megállapításához, vagy van egyátalán optimális arány és nem pedig minden programnál más.
Az OpenCL 2.0 megjelenésével szerintem kap majd egy kis lendületet a dolog (ez már nagyjából kihasználja, amit a HSA kínál és platformfüggetlen). Bár az Intel csak 1-2 év múlva fogja supportálni.
-
leviske
veterán
válasz Vitamincsiga #14125 üzenetére
Az Abu-tól hallottak alapján az AMD által megcélzott szoftverfejlesztő stúdiók inkább a RISC (szólíthatóm így?) egység növelésére tartanak igényt és elvileg az sem lenne gond, ha a X86 erő maradna a Kaveri-ben látott szinten. A gond az, hogy azért egy általános piaclefedéshez a legacy támogatást nem lehet eldobni, hiszen akkor akár a X86-ot is dobhatnák a kukába és annyival kevesebb pénz megy ki a zsebükből. Én speciel remélem, hogy hosszabb távon a nyers X86 teljesítményt nem akarják a FX8-asok szintje alatt tartani, pláne, hogy a Carrizo után mindenből volna lehetőségük nagyot ugrani emellett a lapkaméret mellett is.
A Tahiti+Visherax2 APU fantáziánál figyelembe kell venni azt is, hogy a Tahiti önmagában most olyan 300mm2 körül van, emellé a Vishera is azt hiszem olyan 340mm2. Éppen elég a Kaveri 250mm2-ét is legyártani a GloFo-nál, nem is tudom, hogy egyáltalán egy 1000mm2-es lapka legyártható volna-e náluk. A cucc ~400W-os fogyasztása még a kisebb gond volna, hiszen legrosszabb esetben nem lehetne alá kapni 100k-nál olcsóbban alaplapot.
14nm-es gyártástechnológián már azért kicsit más lesz a helyzet, de azért még kérdés, hogy arányaiban mennyit fog csökkenni a fogyasztás és milyen tranyósűrűséget engedhetnek meg maguknak. Az órajelekről nem is beszélve.A négy csatornás memóriavezérlő megint egy kérdés. Egyértelműen drágítana az alaplapon és igazából kérdés, hogy a HSA alapú programok mennyire függnek extrém módon a memóriasávszélességtől. Az egy dolog, hogy az IGP profitálna belőle, ha standalone kell játékot futtatni a cuccon, de (önismétlés on egy APU hosszabb távon nem erről szólna szerintem. Amennyiben a kétcsatornás DDR4 nyújtotta sávszélesség nem lesz képes kiszolgálni HSA programok alatt az APU-t, ott már más gondot is lehet várni.
Összegezve én a továbbiakban is azt mondom, hogy nagy fogyasztású szörnyetegek helyett inkább kalapálja a vállalat a HSA-t, toborozzák az azt használó fejlesztőket és érjék be szoftveres úton az Intelt azonos lapkaméret mellett. Mert most jobb esetben is még másfél-két évig nem lesznek egy szinten gyártástechnológia tekintetében. (Ha csak a Carrizo-nak nincs egy 14nm-XM variánsa is talonban, amit be lehetne vetni próbának jövőre a 28nm-es cucc helyett.)
(#14127) Fiery: Az 1-2 év múlva ha jól értem, tényleg túlzás, de a Broadwell-re azt írni, hogy "most" is az... Vagy keverem valamivel?
-
Fiery
veterán
válasz leviske #14128 üzenetére
Tahiti: 365 mm2 + Vishera: 315 mm2. Ezt nehez lenne legyartani integralva, plane ertelmes TDP mellett. Nyilvan 14 nanora lehozva valamival kisebb die lenne (bar nem eleg kicsi), de az AMD akkor sem ebbe az iranyba megy jelenleg.
A Broadwell azert "most", mert mar elkezdtek a partnereknek szallitani az ES peldanyokat. Ergo mukodik a cucc, mar most tamogatja az OpenCL 2.0-t. Mas kerdes persze, hogy mikor kerul az egyszeru foldi halandok gepebe ez a proci, de az Intel igerete szerint iden me'g mindenkepp. Ergo semmikepp sem 1-2 ev, mire megerkezik, hanem max. 7,5 honap.
-
Fiery
veterán
válasz letepem #14129 üzenetére
Semmikepp sem lepi tul, azt legfeljebb a Skylake tudja majd megtenni (ha egyaltalan). A Broadwell feature szinten tamogatja az OpenCL 2.0-t es az SVM-et (megosztott memoria), de arrol nincs infom, hogy ez pontosan mikepp van megoldva hardveresen. Nem gondolnam, hogy olyan mely es jol mukodo az integracio, mint a Kaverinal, de kizarni sem tudom annak a lehetoseget. Az Intelnek volt ideje boven arra, hogy a Kaveri-fele SVM megoldast ugymond lemasolja, sz'al elvileg be lehet epiteni a Broadwellbe is, csak kerdes, hogy mennyire van ennek ertelme egy ilyen inkrementalis fejlesztesnel (Haswell --> Broadwell). Szamomra logikusabbnak tunik az, hogy csak a Skylake lesz "valodi" SVM, a Broadwellnel meg valamifele takolassal oldjak meg.
-
Abu85
HÁZIGAZDA
A die méretét nem igazán határozza már meg az alkalmazott gyártástechnológia. Elsődlegesen a "Thin Library" képességeitől függ, hogy mekkora helyre mennyi tranyó préselhető be. Ha most átportolnák a Tahitit az Intel 14 nm-es node-jára, akkor az nem lenne kisebb, mint most 28 nm-es TSMC-n HDL-lel. Ergó előbb a HDL-t kell portolni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Fiery
veterán
Altalanossagban 14 nanos node-rol beszeltem, nemtom miert kell az Intel sajat 14 nanojat idekeverni Amugy is csak elmeleti lehetosegek ezek, hiszen kapasbol a Tahitit mar nem érné meg 14 nanora lehozni, inkabb akkor mar a Hawaii egyfajta butitott valtozatat. De annak meg joval nagyobb memoria savszelesseg is kellene, sz'al egy Itanium-szeru rettenet lenne belole a Vishera magokkal megfejelve...
-
Abu85
HÁZIGAZDA
válasz letepem #14129 üzenetére
A Broadwell nem támogatja az OpenCL 2.0 C11 Atomics és Pipes funkcióját. A Kaveri ezeket is tudja.
Alapvetően az OpenCL 2.0 arról szól, hogy az IGP és a CPU ugyanazt a memóriát használja. Az SVM funkció teszi ezt lehetővé technikailag, így a két részegység egységes virtuális memóriát támogat. Ez egy alap, és minden adatmásolástól megkíméli a rendszert. Erre jön rá a C11 Atomics (szokás Platform Atomics néven is emlegetni), ami arra szolgál, hogy a programokban jellemzően használt adatstruktúrákat hatékonyabban lehessen kezelni.
Például a bináris fa adatszerkezet nagyon jellemző a mai világban. A hagyományos modellel a CPU-nak és a GPU-nak úgy kellett dolgoznia, hogy a bináris fát a két különálló memóriaterület között folyamatosan másolgatni kell. Az SVM ezt a másolgatást kiüti, de C11 Atomic nélkül a CPU és a GPU továbbra sem érheti el a fát párhuzamosan, mert nincs ami szinkronizálja a hozzáférést. Lényegében a C11 Atomic bináris fa adatszerkezet esetén annyit tesz, hogy engedi a két részegységnek az adatokhoz való párhuzamos hozzáférést, amellett, hogy az SVM-nek hála már adatmásolás sincs.
Végül a Pipes az egy olyan memóriaobjektum, ami az adatokat FIFO elv szerint raktározza. Ezzel próbálja a Khronos megszüntetni a jelenlegi OpenCL modell legnagyobb rákfenéjét, hiszen új programozási paradigmát tesz lehetővé. Ezzel a programozó képes lesz az esetleg szükséges expansion kernel mellett bármilyen más kernelt futtatni, vagyis az expand kernelnek nem kötelező előbb lefutnia. Ez ma probléma, mert az expansion kernel alacsony GPU kihasználtságot eredményez és magas a sávszélesség igénye is, tehát rontja a hardver kihasználhatóságát.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
leviske
veterán
Önmagában 1 Vishera és 1 Tahiti még kb az a mérettartomány lenne, mint egy nem tudom hanyadik generációs Larrabee. De egyébként én is arról írtam a kollégának, hogy nem lenne egy logikus lépés legyártani ezen a csíkszélességen, hiszen az utóbbi években egyedül az nVidia esetében volt példa arra, hogy majd' tenyérnyi lapka sorozatgyártásba került és otthoni felhasználóknak is elérhető volt.
Amúgy a 28>14nm váltást követően, ha képesek arányaiban az adott tranzisztorsűrűséget tartani, akkor azért egy 8modulos X86 és 32CU-s RISC (még mindig csak kérdezem, hogy ezt a szót használhatom-e rá ) rész nem lenne elképzelhetetlen egy Kaveri méretű lapkán, nem? És, ha óvatoskodnak, akkor is elő tudnak jönni egy 4modult + 16CU-t tartalmazó lapkával ebben a mérettartományban. Vagy tévedek?
Vagy eleve a Samsung féle 14nm nem XM alapú, mint amit a GloFo (meg még korábban az AMD) tervezett eredetileg?
(#14133): A Tahiti-t Vitamincsiga kolléga a teljesítménye miatt hozta fel és én erre reagáltam azt, hogy annak mérete is van. Nyilván elméleti síkon sem vár senki 14nm-en, vagy akár korábban egy Tahiti-t APU-ba, mikor már a Kaveri IGP-je is ahhoz képes finomhangolva lett tudomásom szerint. Feltételezem, hogy már a Carrizo is ennek megfelelően egy jócskán finomhangolt GCN generációt fog kapni, a 2016-os cuccról nem is beszélve.
Amúgy HSA alatt is nagyobb a memóriaigény, vagy ez most annak az analogiájára lett felhozva, hogy standalone használjuk az APU-t konzolnak?
(#14132) Abu85: Tőled is megkérdezem: Logikusan gondolkodva a Samsung-féle 14nm-en mekkora tranzisztor/mm2 aránynövekedésre lehet számítani? Azt értem, hogy a 4x az az elméleti maximum és erre nem igazán érdemes számolni.
[ Szerkesztve ]
-
dezz
nagyúr
Úgy emlékeztem, a Broadwell csak jövőre jön (ami még most sem kizárt, legfeljebb nem egy egész év múlva). Bár ahogy látom, ez is csak hellyel-közzel támogatja az OpenCL 2.0-t, az igazi a Skylake lesz, amire már áll az intervallummegjelölés.
Tudtommal egyelőre senki sem jelentette be, hogy tevőlegesen, driverekkel (az AMD így hívja, de nevezzük, aminek akarjuk) támogatná az OpenCL 2.0-t, még az AMD sem.
-
Abu85
HÁZIGAZDA
válasz leviske #14135 üzenetére
Írtam, hogy a tranzisztor/mm2 arányt ma nagyrészt az alkalmazott "thin library" határozza meg. Nem sok köze van a nm előtti számhoz. De amúgy hiába lesznek itt tizenx nm-et az Lgate érték nem csökken majd drasztikusan. 20 nm alá egyik készülő node sem megy.
(#14136) dezz: De az AMD már bejelentette. A HSA-hoz a fejlesztők rendelhetnek egy teljes platformot. Az a Kaveri APU-t és egy ASUS alaplapot takar olyan BIOS-szal, amit ma még nem érhetsz el. Ennek a csomagnak a része egy OpenCL 2.0-s driver is az összes funkció támogatásával. Ezzel együtt jelentették be, hogy a Q4-re lesz publikus OpenCL 2.0-s driver Kaveri APU-ra és Hawaii GPU-kra. A többire még nem volt bejelentés.
Az Intel valóban nem jelentette be, de a fejlesztők rendelhetnek egy platformot hozzá. A Pipes és a C11 Atomicsen kívül mindent támogat. Illetve az aktuális driverekkel még nincs nested parallelism (ez csak le van tiltva), de SVM van.
Nagyon fontos, hogy az Intel is kínáljon valamit ma, mert ők is ugyanúgy ragaszkodnak ahhoz, hogy PC-re is legyenek portolva az új konzolos játékmenetek. Emellett nekik is marha kellemetlen, hogy a Havok tartalmaz egy rakás izgalmas, új funkciót a konzolokhoz, amit PC-n nem érhetnek el a fejlesztők. Erre lesz elsődlegesen OpenCL 2.0 támogatásuk, hogy végre ezeket a funkciókat PC-be is portolhassák.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Fiery
veterán
válasz leviske #14135 üzenetére
A Larrabee-t nemtom, miert kell idekeverni. Ennyi erovel a Hawaii XT-t is felhozhatod peldanak, de egy CPU/APU kerdesnel a dGPU- es a HPC acceleratorok nem igazan relevansak. Egy hagyomanyos CPU foglalatba bajosan raksz bele egy 300W TDP-ju monstrumot. Vagy ha bele is rakod, otthoni desktop kornyezetben nem fogod tudni epeszu modon lehuteni. Ertelmetlen me'g elmeleti szinten is ilyenekrol beszelni egy olyan vilagban, ahol epp ellenkezo iranyba mennek a dolgok; azaz generacionkent folyamatosan csokken az alaplap+CPU+chipset osszesitett TDP-je (AMD-nel es Intelnel is).
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Az OpenCL 2.0 támogatása meglesz, de elsődlegesen a fejlesztők a HSA OpenCL 1.2-es kiterjesztései felé mozdultak. Innen viszont majdnem mindenki jelezte, hogy tudnak csinálni OpenCL 2.0-s portot. Akik nem jelezték azok is csinálnak majd. Az Intel az OpenCL 2.0-ra 100 alkalmazást vár 2015-re. Az AMD ennél pozitívabb, mert ők 400-ról tudnak jelenleg. Ebből persze 150-160 az aktuális OpenCL alkalmazások 2.0-ra portolása. Azt jó lenne tudni, hogy mekkora az átfedés. Valszeg olyan jó 500 alkalmazásunk azért lesz 2015-ben. De szerintem több is, mert az OpenCL 2.0 pont ott könnyíti meg a használatot, ahol a fejlesztőknek a legtöbb gondjuk volt.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
leviske
veterán
Azt már összeraktam korábban az egyik "Intel bérgyártónak áll" hír alatt is, hogy önmagában a csíkszélesség nem számít semmit, de engem az érdekelne, hogy a Samsung-féle 14nm esetében mi a helyzet, mit lehet várni. A GloFo terve ugye egy egységes 14nm-XM volt, ami emlékeim szerint olyan sajátságokkal rendelkezett, ami az AMD-nek is kedvezett volna. A Samsung verziója ezzel milyen viszonyban van?
(#14139) Fiery: A Larrabee-t a mérete miatt hoztam ide, a többire meg annyit tudok mondani, hogy olvass vissza. Feleslegesnek tartom még azzal pluszban szemetelni a topikot, hogy plusz hozzászólásokon keresztül magyarázom meg. Felmerült egy ötlet, arról én elmondtam a saját véleményemet. Ennyi.
Ezen túlmenően már csak azzal a gondolattal játszottam el, hogy mi lenne, ha a következő gyártástechnológia váltás tudna 4x tranzisztor/mm2 arányt hozni az AMD-nek, de Abu most így lehűtött, hogy ilyesmit egy darabig nem kell várni.
Innentől maradok annál az eredeti véleményemnél, hogy az AMD-nek most az elsődleges feladata a felsőkategóriás, óriás méretű lapkák erőltetése helyett a HSA erősítése és a Kaveri/Carrizo kihasználtságának fokozása, ezzel talán idővel egálba kerülve az Intellel.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz leviske #14141 üzenetére
Nem különösen lényeges már a gyártástechnológiai különbség. Egyszerűen, ahogy haladunk lejjebb annál kevesebb lesz az előrelépés. Szimplán a fizika törvényei megakadályozzák, hogy bizonyos határok alá menjünk, és nagyjából a 30-10 nm közötti szinten ezeket a határokat elértük/elérjük. A CMOS nagyjából 32 nm-nél kifújt. Innentől már csak apró fejlődés tapasztalható. A legtöbb teljesítmény és fogyasztáselőny abból jön, hogy miképp tervezik meg a fizikai dizájnt a sematikusból. Itt lehet sokat nyerni nem a nanométereken.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
stratova
veterán
Jim Keller visszatérése kapcsán olvasgattam kicsit egy két nyilatkozatában érdekes részleteket hintett el.
1. AMD következő x86-os megoldásáról:
They will be closer in frequency to the 4 GHz of AMD's latest Kaveri x86 SoC than today's 2 GHz ARM chips, he said. For Skybridge, AMD tweaked its new Puma x86 cores to look more like an ARM V8 core.AMD upgraded its current on-chip fabric, I/O and memory-management units so they could accommodate either the Puma+ or standard ARM cores in Skybridge. The fabric gets an upgrade for the custom ARM cores coming in 2016, probably made in a 16/14nm FinFET process.
"We got the IP, SoC and fabric right, then worked on how to plug the cores into them," he said. Skybridge provided an opportunity to "get the [SoC] plumbing right," he added.
Keller suggested AMD will consolidate its work on separate Bulldozer and Jaguar x86 cores into one processor line in the future. Meanwhile, the team had to bring up new verification and design flows for ARM SoCs.
Much of the architectural work on the upcoming AMD chips is done and the company is well along in implementing them, Keller suggested. AMD is apparently already well along in the custom designs that will use a 16/14nm FinFET process that he said "looks pretty good, we're happy with it."
2. Gyártástechnológia kapcsán:
Keller considers largely solved the issues dealing with multiple-patterning lithography required for the 14/16nm processes in which his team is designing the first K12 chips. Just adding on more metal layers is no longer an option, but "we have other proprietary tricks," he said.For the 14/16nm process, his team had to scale challenges with the vertical FinFET transistors it uses. He notes of all the parts of his team, the design for manufacturing and test groups have grown the most over the years.
Itt netán már az utolsó (D) árbára célzott?
A. PD-SOI pl. AMD Phenom II/Llano
B. FD-SOI pl. ST mintachipje
C. FinFET Bulk pl. Intel Ivy/Haswell (bár a 3D Tri-Gate így néz ki náluk)
D. Vertical FET BulkEsetleg ha így jobban tetszik:
Vagy ne rohanjunk annyira előre és "csak" az Inteléhez hasonló finFET kialakításnál a silicon fin okozott némi gondot?
[ Szerkesztve ]
-
dezz
nagyúr
válasz stratova #14143 üzenetére
"They will be closer in frequency to the 4 GHz of AMD's latest Kaveri x86 SoC than today's 2 GHz ARM chips"
Nem tudom, ez nyelvbotlás volt-e, mert mondhatott volna today's 2 GHz Puma chipset is és az jobban ide illett volna. Amúgy érdekes, két dolog miatt is: 1. Vajon hogy sikerült 4 GHz közelébe tornászni a Pumát? 2. Lehet, mégse lesz külön egyéb high(er) performance platform, mégis le tud fedni mindent a Skybridge?
2. Valószínűleg a finre gondolt, különben Vertical FET-et mondott volna, nem FinFET-et. Kicsit korai lenne még az.
[ Szerkesztve ]
-
Fiery
veterán
En ugy ertelmezem, hogy 2 kulon temarol van szo. A 4 GHz a Family 20h-ra vonatkozik, ami -- adott esetben -- egyszerre valthatja le a Pumat es a Bulldozert is. A Skybridge pedig egy atmeneti megoldas lesz a Family 20h erkezese _elotti_ idokre, azaz az elkovetkezo 2-3 evre.
-
Abu85
HÁZIGAZDA
válasz stratova #14143 üzenetére
Nem tudom, hogy a Samsung és a TSMC melyik FinFET opciót kívánja bevezetni.
(#14144) dezz: A két processzormag tervezése mindenhol átcsoportosul. A nagyon high performance oldal megszűnik, mert teljesen lekorlátozza a skálázhatóságot a Dennard scaling vége. Nagyjából 2-3 év és az low power magok utolérik teljesítményben a high performance magokat. Lényege ennek, hogy az előbbi skálázható, mert van hova tologatni a pJ/FLOP mutatót, míg az utóbbi kategória már évek óta ugyanazt a falat fejeli le minden generációban egy jó erős nekifutásból.
A teljesítménynövelés egyetlen lehetséges módja a pJ/FLOP mutatót csökkentése. Erre két opció van vagy le kell cserélni az ISA-t, vagy GPU-kat kell integrálni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
stratova
veterán
-
stratova
veterán
Igaz, már több mint másfél éve. Szintén 2012-ben láttak napvilágot AMD ARM-mal kapcsolatos tervei (és Jim Kellert éppen az Apple-től szerezték meg/vissza, ahol mit ad Isten éppen ilyen területen tevékenykedett).
Csak eddig Trinity/Richland/Kaveri volt a középpontban.
Bár Kaverit is kicsit ráncba szedhették. Azok után, hogy A10-7850K alacsonyabb órajelen üzemelt CPU és GPU (bár ez utóbbi azonos CU-szám mellett is hatékonyabb és 6 helyett már 8 CU) tekintetben, mint A10-6800K; most úgy tűnik érdemes volt finomítani a mobil verzión (vagy egyszerűen ebben az alacsonyabb órajeltartományban nagyobb a gyártástechnológia előnye?)
A10-5757M 35 W 2.5/3.5 GHz + HD 8650G 384:24:8 600/720 MHz max. DDR3-1866
FX-7600P 35 W 2.7/3.6 GHz + R7 512:32:16 600/686 MHz max. DDR3-2133
Ha ezt tényleg tudják tartani, már "csak" az OEM-ek kínálata lesz a fogós kérdés.[ Szerkesztve ]
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Az ide nem illő hozzászólások topikja:[link]
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva.
Állásajánlatok
Cég: HC Pointer Kft.
Város: Pécs
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest