Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Fiery

    veterán

    válasz lezso6 #14183 üzenetére

    Szerintem idoben fognak talalni megoldast a gyartastechnologia tovabbi fejlesztesere. Parhuzamosan persze mehet a hatekonysag novelese is, de annak is van egy hatara. 2020-ig nincs gond, addig elvileg kitart a szilicium (cca. 5 nm).

  • dezz

    nagyúr

    válasz lezso6 #14183 üzenetére

    Nem kizárt, de CPU-knál egy kicsit nehezebb ügy, mert nagyobb különbségek vannak a mikroarchitektúrák és CPU-családok között. Másrészt ez leginkább esetleges új belépőknek lenne érdeke, a meglévőknek kevésbé.

    (#14184) Fiery: Igen, arra gondoltam, és egy példa volt arra, hogy bár nem mindenkinek tetszett az sem, elkerülhetetlen volt.

    A Samsung azért eléggé az élvonalban van chipgyártásban, azt sem lehet mondani, hogy kis összegeket fektetnek be, most már a GloFo is tőlük licencel gyártástechnológiát. Az Apple nem tudom, mit gyárt házon belül.

    Az AES pont rossz példa, hiszen céláramkör végzi el a feladatot, amit GPU-kba is simán beépíthetnek.

  • Abu85

    HÁZIGAZDA

    válasz lezso6 #14183 üzenetére

    A nanométer csak egy szám. Sokszor teljesen lényegtelen az adott gyártástechnológia jellemzésénél. Sokkal komplexebb ez az egész, hogy egy számmal leírható legyen a lényeg. Nagyon sokat számít manapság a gyártáshoz használt thin library, ami főleg szoftver, és nagymértékben befolyásolja a végeredményt. Sokkal nagyobb mértékben, mint a szám a nanométer előtt.

    Példaként említve a Kabini->Mullins esetét. Nem történt előrelépés a nanométerben, de új thin libraryt használtak. Az eredmény, hogy a Mullins harmad akkora fogyasztáson hozza a Kabini teljesítményét. Mindenképp ölnek pénzt a fejlesztésbe, de manapság kezd irányadóvá válni, hogy azt a pénzt nem biztos, hogy a kisebb csíkra érdemes költeni, ha az automatikus dizájnkialakításért felelős szoftver cseréjével ennyit tudsz javulni.

    Szerk.: A 20 nm alatt már leginkább feltételezzük, hogy mit lehetne tenni, hogy jobb legyen. Ma sokkal többet költenek a bérgyártók/gyártók arra, hogy megértsék a kvantumfizikát, mint régen. A legnagyobb ellenség a Heisenberg-féle határozatlansági reláció. Ez nagyjából a 2000-es évek eleje óta létező probléma és minden generációváltásnál egyre jobban felerősödik. Jelen pillanatban nem találjuk a jelenség megkerülésére a megoldást, ezért az történik, hogy megpróbálunk elhatárolódni tőle (úgymond tudjuk hol a fal és a fal előtt maradunk, hogy ne ütközzünk bele ... a beleütközés egyébként drámai fogyasztásnövekedést okoz, ezért kerüljük). Szerencsére ez lehetséges, viszont így jöttek a többmagos processzorok, jött az integrált grafikus vezérlő, és ma már világos, hogy ennek a koncepciónak is meg lesz a saját fala, tehát fel kell készülni arra, amikor a gyakran használt feladatokat teljesen célirányos processzorok látják el. Ezért is nem csak az IGP-kre terjed ki a HSA, hanem akármire, mert ha nem találunk megoldást a problémára, akkor vagy elkezdünk rendkívül specializált DSP-ket és akár FPGA-kat rakni a lapkákba, vagy elfogadjuk a jelenség létezését, és a teljesítményt szimplán a fogyasztás drasztikus növelése mellett emeljük. A probléma az, hogy nagyon mobil irányba tartunk, így azt a piac nem fogja benyelni, hogy a teljesítmény növeléséhez a fogyasztást mindenképp növelni kell. Ma az a norma, hogy nőjön a teljesítmény és csökkenjen a fogyasztás.

    Vannak még nagyon érdekes tanulmányai az NVIDIA-nak, hogy a GPU-k sokkal szabadabban tervezhetők, mint ahogy azt eddig sejtettük. Ezzel a mostani GPU-k jellemző pJ/FLOP értékét a tizedére is le lehet vinni, tehát az is egy reális alternatíva, hogy a GPU-k falát odébb toljuk, hogy később ütközzünk bele. Ugyanez megtehető a CPU-kra is, de a bonyolultságuk miatt a pJ/FLOP maximum a felére csökkenthető, amihez viszont radikálisan új ISA is kell. Ez egy régebbi MIPS tanulmány. Sajnos ezt úgy értékelik, hogy nem éri meg a fejlesztést.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Vitamincsiga

    tag

    válasz lezso6 #14183 üzenetére

    Kellett kicsit rágódni a felvetéseden!

    Kell ilyenfajta fejlesztés is mindenképpen! A kompatibilitáshoz mindig csak addig ragaszkodnak, ameddig a fejlődés üteme vagy töretlen, vagy szinte zéró és szükség sincs rá.

    A CPU-ra a második felvetés jó ideig - ami a szükséget érinti - nem lesz igaz. Szeretnék egy olcsó, 8K-s, +200"-os monitoron, 16-bit csatornánkénti színmélység mellett, 120Hz-en a kedvenc játékom valamelyik jövőbeni részét játszani! De ki nem?

    Az első viszont megint válságban van.
    A magasabb IPC és a hosszabb futószalag volt az egyik irányzat. P4 volt a másodiknál a megálló, illetve az AVX512 se tetszik mindenkinek.
    A 10 GHz bukása volt a másik törés a fejlődésben. Ha egy mag kevés legyen több! De ez is olyan mint a macska: 2 felett tömeg; kezelhetetlen.
    De volt aki máshogy gondolta, mert hitt benne, hogy az gyorsabb lesz. A GPU felemelkedése és integrációja a CPU-ba ez a folyamat, ami jelenleg is tart.

    És itt jön képbe a HSA virtuális ISA-ja! Még ha szoftveresen is, de nagyon hatékony választ ad a fokozódó teljesítményigényre. Hogy HW-be is meg merné-e lépni valaki? Ha kevés más út lesz és ebből is lehet többletteljesítményt nyerni, akkor biztos lesz, aki ezt is megpróbálja!

    Amit a többen is felvetettek, az a gyártástechnológia finomítása. Az AMD a Beema és a Mullins fejlesztésébe szinte mindent beleadott. Ahogy egy korai teszt írja: "nincs benne hiba". Gondolom a Carrizo sem lesz rosszabb!

    De, lehet, hogy a fentiekből semmi sem lesz!!
    Valaki rájön, hogyan lehet a grafént "félvezetésre bírni" ;)
    Vagy a szilicén is könnyebben gyárthatóvá válik :K
    Vagy az optikai áramköröknél történik valami használható fejlesztés:U
    QSZG :N
    :F
    De egy tény, a fenti hibákat akkor is el fogják megint követni újra :D

    [ Szerkesztve ]

    Jó lenne egy varázsgömb ;-)

Új hozzászólás Aktív témák