Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Fiery #6 üzenetére

    Ahhoz, hogy abból tabletplatform legyen felére kell csökkenteni az alaplap méretét, és a fogyasztást. Belerakhatják egy tabletbe, de egy ventilátor kell bele, vagy kettő, ha hangot sem akarnak, illetve az alaplap elveszi a helyet az akkumulátortól. Ehhez társul még a magasabb terhelés melletti fogyasztás.
    Volt passzív hűtéses demó az IDF-en, de terhelés mellett már nem lehetett megfogni a tabletet. Ezzel nyilván komfortproblémák vannak.

    (#8) satz18: Nem muszáj az aktív hűtés. A throttling megoldja a gondot, hiszen eléri a 100°C-ot a proci és leszabályoz. Csak ez fáj a kéznek, főleg vékony tabletnél.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #10 üzenetére

    Inkább 12-nél nagyobb talbeteknél van értelme, mert akkor lesz az akkumulátor számára annyi hely, hogy az elfogadható üzemidőt adjon.
    A gyártók komfortmérései szerint 8 colhoz 4 watt TDP mehet, 10 colhoz 6-8 watt, 12 colhoz 10-12 watt. De ajánlott ezt inkább 6 watton tartani, mert az a baj, hogy a tablet vékony marad, és a passzív hűtés miatt egy efölötti fogyasztással dolgozó proci gyorsan eléri a 100°C-ot és nem lesz komfortos a termékkel a munka, mert a borítást 50-60°C-ra is felmelegíti.
    A Broadwellnek sem lesz kisebb alaplapja, mint a Haswell ULT-nek, és a TDP fogyasztása sem csökken 10 watt alá. Jó dolog a 14 nm, csak már nem működik a dennard scaling. Tehát attól, hogy 22 nm-ről 14 nm-re léptél semmivel sem lesz kisebb a lapka fogyasztása. A csökkentést bele kell tervezni a dizájnba.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #13 üzenetére

    Persze, hogy nem. Miért állna be abba a táborba, hogy a dennard scalingnak vége. Nekik fent kell tartani, hogy megéri milliárdokat gyártástechnológiába ölni, még akkor is, ha ennek önmagában nincs előnye már. Ezek iparáig vélemények. De az Intel eleve teljesen más utat jár, mint a többi cég. Hisznek abban, hogy az IGP-t ki tudják váltani kis IA magokkal, amik széles vektormotorral dolgoznak. Ezt más nem követi, mert nagy hátránnyal jár, ha az ISA-ba nincs beletervezve a sokezer szál kezelése. Amíg az Intel minden maghoz fél mega cache-t pakol, addig a többiek összesen raknak ennyit az IGP-kbe. Szóval kell a hely, mert az Intel ugyanazt a teljesítményt 3-4x annyi tranyóból hozza majd ki, legalábbis, ha maradnak a MIC koncepciónál.

    (#15) Fiery: A tokozás mérete nem egyenlő az alaplapmérettel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #17 üzenetére

    Ez nem a HSA-ról szól. Az csak egy virtuális ISA arra vonatkozóan, hogy a cégek driverei ne saját virtuális ISA-t használjanak, hanem egységeset, így alacsonyabb szinten lesz egy közös pont a hardverek között. Ennek a dark siliconhoz és a dennard scaling végéhez nincs köze.
    A dennard scaling problémája a fizika törvényeiben leledzik. Lemehetsz 10-20 nm alá is, de annyira kevés elektronmennyiségről van szó, hogy azokat nem lehet statisztikailag nagy tömegként kezelni. Egyszerűen azért, mert erre már nem a fizika, hanem a kvantummechanika törvényei vonatkoznak. Tehát viheted 5 nm-ig is a gyártástechnológiát, de kb. ugyanannyi elektronra van szükséges egy tranzisztor bekapcsolásához, mint 20 nm-es osztályon.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Fiery #17 üzenetére

    Még annyi, hogy az Intelnek nyilván lesz haszna a kisebb csíkszélből. Ha a MIC-et gondolják jövőképnek, akkor ott nem csak processzorokat kell beépíteni a rendszerbe, hanem 1024-2048-4096 bites gyűrűs buszra fűzött gyorsítótárazást. Ez zabálja a tranzisztorokat. Eközben másnak erre nem lesz szüksége, mert azt, amit az Intel erőből old meg, azt beletervezik az úgynevezett parallel ISA-ba. Egy x86-tal nem fogsz egy magon ~1000 szálat futtatni, mert nem készítették fel erre az ISA-t 40 éve.
    Tényleg nem viccből röhög az iparág a MIC/Larrabee-n. Meg most már azok is, akik elmondták, hogy ez nem fog működni. John Gustafson, Andrew Richards, Michael Abrash ... ők mind dolgoztak rajta, és az iparág legnagyobb nevei. Andrew konkrétan leírta egyszer a gondokat, amit az Intel leszedetett a BSN-ről.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #23 üzenetére

    Az Esmaeilzadeh-jelentés szerint 10 nm alatt a lapkák fele dark lesz, ha raksz is beléjük 16 magot, akkor is egyszerre 8 működhet csak. Ez a jelenség már 20 nm alatt érezteti majd a hatását, tehát az órajelet nagyon alacsonyra kell venni. 20 nm az a szint, ami még marginális fogyasztáscsökkenést hoz. Alatta bármelyik csíkon elkészítheted ugyanazt a lapkát, de architekturális, vagy az energiamenedzsment optimalizálása nélkül nem csökken a fogyasztása, pusztán a kisebb csík miatt.
    A dark silicon felerősödése az oka annak, hogy ma egymagos helyett többmagos procik vannak, és ez az oka, hogy IGP-re akarjuk bízni a jól párhuzamosítható számításokat. Az Intel ezt a MIC-re akarja bízni, csak van egy olyan probléma, hogy azt a teljesítményt, amit a Kepler/GCN felmutat 4x annyi tranyóból hozza.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bunevo #24 üzenetére

    Pusztán az Android támogatásával nincs gond. Az x86-ra át van portolva a rendszer. A Play-en lévő appok többsége is vISA-n keresztül fut, tehát mindegy neki, hogy ARM vagy MIPS vagy x86. A lefordított játékoknál van az x86-nak gondja. A kiadók figyelnek erre, de az ingyenes appokat biztosító garázsfejlesztők nem fordítanak csak ARM-ra. Viszont ezeket az alkalmazásokat fel sem kínálja a Google Play letöltésre egy x86-os rendszeren. Tehát mint user te ebből nem érzel semmit. Max annyit, hogy ARM-ot más a toplista az ingyenes játékoknál, míg x86-on ez ki van szűrve.
    Arról nincs adat, hogy a HD Graphics hardvere és drivere mennyire életképes az Android játékok alatt. Elvileg nem kellene problémának lennie.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Geri Bátyó #28 üzenetére

    A dark silicon már ma létezik, csak nem terjed ki a chip felére.
    20 nm-es osztályon jelent előnyt a FD-SOI. 10 nm-es osztályon pedig óriási előny. A Common Platform ezért nem kínál majd 10 nm-es osztályú node-ot SOI nélkül.
    Az Intelt a SOI azért nem érdekli, mert speciális wafereket igényel. Ez egyrészt drága, másrészt ezekkel a gyártócég nem tudná kiszolgálni az Intel igényeit. Bármekkora előny is a SOI, akkor is maradniuk kell a bulknál, mert sokkal kevesebb chipet tudnának gyártani SOI-n. A többek számára ez lényegtelen, őket ki lehet szolgálni.
    A dark silicon csak erősödni fog. Azt gyártástechnológiai szempontból nem lehet elkerülni. Az FD-SOI sem megoldás. Semmi sem az. Egyedüli opció, ha a hardvert a jelenség tudatában tervezik a mérnökök. De ezzel is csak időt nyernek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Geri Bátyó #30 üzenetére

    Nem. A letiltás szegmentáció és hibás részegységek miatt történik. A dark silicont ma az órajelek csökkentésével mérséklik. Látod, hogy a sokmagos lapkák alacsony órajelen üzemelnek a "kevésmagos" társaikhoz képest.

    SOI-ra azért nem olyan egyszerű átállni. Az Intel nem rendelkezik gyakorlati tapasztalattal erre vonatkozóan, és amíg nincs garantálva a megfelelő mennyiségű wafer, addig értelmetlen is erre a jövőképre gondolniuk.
    A szerverek piaca 2015-2016 után a gyorsításról fog szólni. Az nem olyan kellemetlen a dark silicon szempontjából, mert pár nagy mag mellé, úgyis sok kis mag kerül. A többmagosítás az egyik módja a jelentés csökkentésének. A következő lépcső pedig a heterogén többmagosítás. Ezt csinálja az Intel is a MIC-kel.

    A wafer gyártása sem egyszerű.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Geri Bátyó #32 üzenetére

    Magyar igazából nincs, de van ez: [link]

    [link] - én az ARM kapcsán írtam róla.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Geri Bátyó #35 üzenetére

    El tud viselni az anyag durva fogyasztást, csak a manapság kialakult dizájnokban nem tudnád hűteni. De a lényeg valóban az, amit értelmeztél.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #36 üzenetére

    A Knights Corner tranzisztorszáma 5 milliárd felett van valahol. Az Intel pontosan nem mondja meg, csak azt, hogy 5 milliárd feletti. Az NV a GK110-ben dedikált egységeket használ DP-re, tehát mellette még SP-t is tud számolni, míg a Knights Corner nem, tehát más irányból van megközelítve a kérdés.
    Az első dizájn, ami a Knights Corner DP:SP arányát követi az az AMD Hawaii lesz pár hét múlva. Na az 5 milliárd tranyóból ~2,5 TFLOPS-ot fog tudni DP-ben.
    De ez elmélet. A gyakorlati teljesítmény más dimenzióban mozog. [link]

    Még az Intel is máshogy tekint a Xeon Phi-re, mert tudják, hogy közelében nincsenek annak, amit az AMD/NV kínál. A hangsúly nem a teljesítményen, hanem a közel 0 bekerülési költségen van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #40 üzenetére

    Az IGP-ben másképp skálázódnak a hardverek, illetve azt grafikára használják. A Skylake-ben a MIC lesz mint IGP. Ez csak a textúrázásra és a tesszellálásra használ FF egységet. A többit emulálja még ROP blokkokok sem lesznek benne. Ahhoz, hogy elérjék a konkurens IGP-k teljesítményét messze túl kell tervezni az emulálást. Tehát a kétszeres extra tranyószám négyszeresre nő legalább. Telán több is lesz, hiszen 8 MIC mag minimum kell, ami 4 MB L2 gyorsítótárat is jelent.

    A 0 bekerülési költség annyit tesz, hogy kis módosítással futtathatod a már létező programokat. Ez a MIC célja, mert teljesítményben nem versenyképes a GPGPU-kkal. Nem véletlenül nem látsz az Inteltől összemérést a FirePróval és a Teslával. Egyedül ez a CLBenchmark összevetés létezik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Enszuke #43 üzenetére

    A fogyasztási előnyök a tervezésnek tudhatók be. A Broadwell azért nem jön LGA1150-ben asztalon, mert a Haswell továbbfejlesztésével többet lehet nyerni, mint a 14 nm-re váltással.
    A dark silicon független a tranzisztorok számától. A jelenség csökkentésére kisebb és egyszerűbb magok kellenek, alacsonyabb órajelen, de többet kell rakni a lapkába. Tulajdonképpen, amiért ma létezik többmagos processzor, az a dark silicon jelenségnek köszönhető, ami a dennard scaling falnak futásából ered. Ez egy 10 éve létező dolog, csak mára annyira felerősödött, hogy a többmagos processzorokra is nagyon kihat már.

    Arról volt hír, hogy a linpacket kell fejleszteni, mert nem úgy használják a HPC-ket, ahogy a linpack mér. Ez teljesen jogos, mindenki támogatja.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Geri Bátyó #42 üzenetére

    Mivel a Skylake IGP-jének Ofri Wechsler a főtervezője, így csak a MIC jöhet számításba, mert ő csak ezzel a rendszerrel foglalkozik az Intelnél.

    Nyilván egy FF egység sokkal gyorsabb, de az Intel ROP blokkjai eleve nagyon gyatrák, szóval sokat nem vesztenek az emulációval.

    Tekintve, hogy mindenki erre halad, így sok más választása a piacnak nincs. De a játék szempontjából ez már biztosított. Az új konzolok kinevelik azt a generációt, amely megtanulja ezt kezelni, mert a CPU teljesítményben mindkét gép nagyjából 20%-kal több, mint amit az Xbox 360 kínált. Szóval vagy megtanulja használni az IGP-t a programozó, vagy 6 éves szinten ragad.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák