Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Balala2007 #101 üzenetére

    Két eshetőség van. Az Intel hazudik a gyártóknak 9,5 wattos TDP-vel, vagy a világ felé akarják kozmetikázni a számokat.
    Nem kell ebbe nagy dolgot látni. A helyzet az, hogy az Intel borzalmasan messze van az ARM-tól ebben a tekintetben, így változtatják a mérési metodikájukat, hogy közelebb kerüljenek. Persze semmit sem ér, mert az ARM így is uralja az ultramobil szegmenst, de nyilván bele kell kapaszkodni minden fűszálba. Viszont a gyártóknak minden adatot meg kell adni, mert a marketingfogyasztásra nem lehet hűtést tervezni. Persze így sem ideális a Core M hűtése a gépekben. Számos termék rendkívül szenved a rossz méretezéstől, és pár perc után levágja a proci órajelét alapra, amitől belassul a cucc és még forró is lesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • qisqaqas

    senior tag

    válasz vicze #97 üzenetére

    30-40%? Na! Még az MSnél is 60% körüli a linux szerverek aránya.

    CMstorm QF TK eladó || Nem jó a keyboardod? Építs -> http://prohardver.hu/tema/igy_epitsd_a_billentyuzeted/ || Jolla!

  • vicze

    félisten

    válasz qisqaqas #103 üzenetére

    Csak Linuxot néztem egyéb Unix-ot nem, az még 20% nyilván. Nem csak két rendszer van.
    Amúgy szívesen fogadok rendes forrást, elég sok zagyva van, nagyon értelmeset nem találtam, ez is elég régi.

  • v_peter2012

    csendes tag

    válasz Abu85 #102 üzenetére

    És az amd ebben a kategóriában milyen messze van az arm-tól? Lévén hogy kb fele a teljesítményük mint a core m-nek. Kérdem mert erről nincs szó, és ha már az intel borzasztó messze van... :F

    Az amd procikra épülő termékek nem szenvednek a rossz méretezéstől? Ja várj, nincs olyan. ;]

    A GCN processzor, mégsem professzor? Várja a kisegítő iskola padja, a Maxwell pedig röhög rajta.

  • Abu85

    HÁZIGAZDA

    válasz v_peter2012 #105 üzenetére

    Az ARM-tól mindenki nagyon messze van, aki x86/AMD64 magokat használ. Ez van. De ezt az AMD is elmondta pár hónapja, hogy áttérnek az ARM magokra, mert az Androidos tabletek piacán az x86 ma nem tud labdába rúgni, és jelen állás szerint soha nem is fog. Már csak azért sem, mert a tabletgyártók nem akarnak x86-os tableteket építeni úgy, ha a lapkákért fizetni kell. Na most egy ilyen helyzet nem jó, mert ingyen meg úgy sem fognak lapkát osztogatni nekik. Az Intel is szerintem még eléget úgy 10 milliárd dollárt és utána leállnak, mert nincs értelme a pénzt kihajítani az ablakon. Már most is van olyan befektető, aki lelőné ezt az üzletágat, mert annak ellenére sem látják az áttörés lehetőségét, hogy negyedévente 1-1,5 milliárd dollárt vesztenek rajta.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Dr. Akula

    nagyúr

    válasz Abu85 #106 üzenetére

    Nemrég még arról cikkeztetek (mármint a PH úgy en bloc) hogy mekkora király ez a Core-M, most meg nem jó? Az meg hogy valaki bejelent valami szenzációsat, még nem jelenti azt hogy tudni is fogja produkálni, lásd Kaveri. Ebből az ugyanannyi teljesítmény negyedannyi fogyasztásból mi marad mire lejön a cucc a papírról? Meg x86 kompatibilitás hiányában mire lesz jó, Angry Birdsre?

  • Abu85

    HÁZIGAZDA

    válasz Dr. Akula #107 üzenetére

    A Core M problémái inkább implementációban keresendők. De való igaz, hogy szinten mindenki elrontja, illetve egyszerűen lemásolják az Intel referenciákat, ami alultervezett hűtést specifikál. Nem is kap minden Core M noti jó értékelést, mert durván esik az órajel és forrósodnak. De nem ezzel van igazából a probléma, mert ez a termék drága és csak papíron 4,5 wattos. Valójában jóval több. Az Android piaca a gond, ahova ma az x86 úgy férkőzik be, hogy ingyenes a lapka. A gyártópartnerek ARM-ot szeretnének, és csak azt hajlandók kifizetni. x86-ra úgy néznek, hogy ingyen nagyon szívesen adnak ki rá terméket, de ha pénzt kell adni érte, akkor nem. Így elég nehéz mit kezdeni a piaccal. Emiatt a felfogás miatt az ARM nagyon kényelmes helyzetben van.

    Azt is figyelembe kell venni, hogy mi történik a két x86-os gyártónál. Az Intel próbálkozik, mert nem tehetnek mást, a SOFIA egy nagy remény, de azok olyan lapkák, amelyeket nem az Intel gyárt. Az AMD már feladta, és engedve a gyártóknak ARM-os lapkákat hoznak majd ide. Ha azt veszik meg, akkor azt veszik meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Auratech

    őstag

    Tulajdonképpen miért van ez a nagy ragaszkodás az x86-hoz?
    Szerintem, mert abban az időben, mikor például a motorola 2.5-ön zakatoló G4-es procijai már komplett vízhűtést igényeltek a dual G4-es MAC-Proban, az Intel a core procikkal előre lépett a többmagos felépítés felé, aminek köszönhetően képesek voltak felfelé skálázni a teljesítményt, javítani az energia menedzsmentet.. A lendület nem tört meg, mindig javulnak az inteles megoldások generációi 20-30%-ot de közben megjelentek a mobileszközökbe optimalizált arm procik és az irtózatos piaci hajtóerő felhúzta őket arra a teljesítményszintre, amin egy-két évvel korábban a jól optimalizált, 25-40W-os TDP-jű laptop x86-os procik muzsikáltak.
    Eltűnt az eszköztípusok(mobil-desktop) közti nagyságrendi teljesítmény különbség.
    Ma egy csúcs táblagép procija 4-5W fűtőérték mellett hozza mondjuk az alap 2010 környéki 2.4-es i3 notiprocik erejét. Szóval szakadék helyett átfedés van és ez nagy kavarást, némi zavart okoz.
    Miután látszik, hogy a mobilprocik a feladatok szempontjából nem rosszabbak, csupán a platformokra fejlesztett appok adnak különbséget. Néhol már a feladatok sem válnak kétfelé. Például hangszoftverek egyenértékűen futnak ios és osx, win, linux platformon. Ebben elég jó átlátásom van.
    Ha később mondjuk a Win10-es telót monitorra téve képesek leszünk mondjuk Indesignt használni a telóról, elmosódik a korábban jogos megkülönböztetés. Két három generáció múlva a pár wattos mobilprocik hozzák a mostani 10000 pont feletti geekbench pontokat, ami bőven desktop szint. 3Ghz-es i5-körüli.
    Persze addigra jócskán fentebb lesznek a csúcsok és a fogyasztás is kisebb lesz de a napi feladatok, tartalmak nem változnak nagyságrendileg a teljesítményigény oldaláról.
    4K videó gyakran jobban megy palacsinta mobil eszközön, mint böszme notin...

    [ Szerkesztve ]

    Auratech Field Recording

  • azbest

    félisten

    válasz Auratech #109 üzenetére

    A már meglévő programok kompatibilitása miatt. Ha az ms-nek bejött volna, hogy modern felület vegye át a vezető szerepet desktopon, akkor cserélgethető lett volna a hardver. Csak a felhasználók manapság még nem elégszenek meg egy tablet funkcionalitással dekstopon. Korábban meg a .net-re épülő oprendszer és programok volt hasonló probálkozás, de az meg teljesítményprobléma miatt ment a levesbe és jött helyette a Vista.
    Az elterjedt desktop progikat pedig nem fordítják le egyik pillanatról a másikra, ezért nem sokan vennék meg azt a gépet, amin nem tudnak futni a megszokott programjaik (pl WinRt-s gépek, de ott az is közrejátszott, hogy csak ms office érhette el a dekstop módot, más programot nem futtathattak úgy, mégha le is lett volna rá fordítva).

    A Mac-ek esetében azért tudtak hw platformot váltani kétszer is viszonylag simán, mert a hw és az oprendszer egy kézben van. A motorola 68k -> powerpc és powerpc -> intel váltáskor is bekerült az aktuális mac oprendszerbe egy kompatibilitási réteg, ami újrafordítás nélkül tudta futtatni a programok többségét.

    Win eseténen az Ms aktív közreműködése lehetne segítség, ha az új platform képes lenne egy kompatibilitási réteggel futtatni a régit is. De ezzel van más probléma is: windows vonalon nem cél lecserélni minden x86-ot másra, szóval maradna x86 hw is és teljesítményben az még mindig jobb lenne, mint a kompatibilis réteggel menő már hw változat. Apple esetén ugye konkréten platformcsere volt a cél, ami minden új gépet érintett.

    Szóval a win piac elég komplex, ahol sok tényező közrejátszik.

    Az inteles androidokon is egy kompatibilitási réteget tettek be (arm tranzition), hogy jobb legyen a kompatibilitása az arm eszközökkel. Csak persze az meg a fordított irány.

  • Ixion77

    őstag

    válasz Auratech #109 üzenetére

    "mindig javulnak az inteles megoldások generációi 20-30%-ot"

    Az egész gondolatmenetnek szerintem ebben a mondatban keresendő a buktatója. Ez ugyanis már nem igaz. Az idei Intel architektúrális lépés is más csak max. 10% fejlődést hoz, és a generációnkénti egyre kisebb arányú teljesítményjavulás már sok éve megfigyelhető. A csíkszélesség csökkentése elérte azt a határt, amelynél a további lépések már nem tudnak automatikusan jelentős teljesítmény növekedést hozni, mert hiába nő a tranzisztorsűrűség, a hőeloszlás már nem oldható meg. Így ugyan talán valamivel kisebb fogyasztás mellett hozható az adott teljesítmény, de a csúcsteljesítmény már nem nő.
    Az ARM procik a >20 évvel később kialakított utasításkészletük miatt ma jobban állnak, jobban fekszenek nekik a mai elvárások. Ezért még jobban tudnak fejlődni egy ideig, de ez sem tart már sokáig szerintem.
    Jelenleg úgy tűnik, hogy hosszú távon az lesz a döntő, hogy milyen architektúra tud a legjobban skálázódni, azaz fejlődni párhuzamosítás ügyben. A sok kis mag filozófiája fekszik ugyanis a jövő nagy kihívásainak, amik a főleg a mesterséges intelligenciához kötődnek: hangfelismerés, beszéd, környezetfeldolgozás (megfigyelő, irányító rendszerek), folyamatos információ-feldolgozás (orvosi diagnosztika), stb. Nem véletlen hogy az Intel/Amd és ebbe az irányba próbál fejleszteni (GPU a CPU-ba), illetve az ARM is szaporítja a magokat (pedig pár éve még senki sem értette minek egy mobilba 4-8 mag). Mindazonáltal kicsit sem lennék meglepve, ha hamarosan egy harmadik utasításkészlet is feltűnne a színen, masszív párhuzamosításra (pl. 16-1024 mag) optimalizálva. Architektúra-design forradalmat is el tudnék képzelni (pl. 3D rétegezés, mint újabban a memóriáknál).
    A tárgyhoz kapcsolódó érdekesség, hogy a szervereknek többségének valójában szintén a sok kicsi mag filozófia felel meg, ezért nyomul az ARM arra. Főleg, hogy szervereknél nem olyan fontos a magok szoros együttműködése, mint az AI-nál.

    [ Szerkesztve ]

    "Seems like humanity needs war and famine to correct itself."

  • Auratech

    őstag

    válasz Ixion77 #111 üzenetére

    A javulást mondjuk a számolási/leadotthő-teljesítmény viszonylatában gondoltam. A 95-88-77-65 W -ra mérséklődő tipikus kategória TDP mellett is növekszik a számítási kapacitás.
    A sok kis mag az fekszik az armnak de van javuló megoldás intel oldalon is a Larrabee-től a Phi-n keresztül..
    Az áttörést és a valódi erőt a HMB memória architelktúra hozhatja el. A sokmagos design egyik féke a magonként rendelkezésre álló(szinte csökkenő) memória sávszélesség, sebesség. Ezt a gyorsítótárakkal ellensúlyozzák, de abból nem nagyon fér fel intel oldalon ma több, mint 37.5 MB. SPARC procikon 48MB.
    Miközben a 3. rendű gyorsítótár lehetne épp a ram.
    A ram sebessége felszabadítja a lehetőségét, hogy processzoron belül a mainframe fürtök komplexitása valósulhasson meg, akár emeletes cpu design és később akár optikai tranzisztorok(felületi plazmon elven) kialakításával, ami szinte már az asimov féle "pozitronagy".

    A memória sávszél ugrásszerű növekedése elhozza az igazság pillanatát az arm procik számára is. Azonos teljesítményszint közelében meg fog mutatkozni az arcitektúrák skálázhatósága. Szerintem itt kijön még előny az intel megoldásai javára de majd meglátjuk.

    Auratech Field Recording

  • GhanBuri Ghan

    őstag

    válasz Ixion77 #111 üzenetére

    Ugye a sok kis mag ugyanakkora összteljesítménnyel energiahatékonyabb, mint egyetlen mag ugyanekkora teljesítménnyel, viszont nem minden feladat párhuzamosítható

    Kíváncsi vagyok, lesz-e olyan heterogén architektúra, ahol egyetlen nagyon gyors processzormag mellett lesz sok kicsi, és esetleg amellé harmadik rétegnek IGP.

  • Cathulhu

    addikt

    válasz azbest #110 üzenetére

    Az egesz leginkabb politikai dontes volt az MS reszerol szvsz mintsem szakmai, ahogy #11-ben is probaltam fejtegetni. Mint a te peldad is mutatja, az egesz windows, a konyvtarak es a programok is lefordithatok ARMra (kiveve az a par specialis, ami x86 kiterjeszteseket hasznalna), szoval ha a WinRT teljes funkcionalitast engedett volna plussz az uj Visual studiokhoz mellekeltek volna ARM forditokat (esetleg ugy beallitva, hogy alapesetben fordit ARM .exe-t is) akkor nagyon gyorsan (par patch vagy uj programverzio utan) a legtobb programnak megjelent volna az ARM kompatibilis verzioja, es ma nem itt tartanank. Ez az en velemenyem.

    [ Szerkesztve ]

    Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell

  • LordX

    veterán

    válasz Cathulhu #114 üzenetére

    A VS2012/2013-hoz mind mellékelték az ARM fordítót.. De talán még a 2010-hez is.

  • Cathulhu

    addikt

    válasz LordX #115 üzenetére

    Akkor meg plane minimalis erofeszites lett volna.

    Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell

Új hozzászólás Aktív témák