Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz adamssss #2 üzenetére

    A 300 wattot fogyasztó PC-khez képest ez is gyenge lesz. Csak figyelembe kell venni, hogy a töredékét fogyasztja.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamssss #5 üzenetére

    Olyan fájlt játszottál le, amire nem volt hardveres gyorsítása. A többi rendszer sem tudja megcsinálni gyorsabban, mert ugyanúgy fixfunkciós a hardver. Amire nincs gyorsítás azt a proci dekódolja. Itt jön elő, hogy 200-300 watt vs 18 watt. De nyilván a kategóriájában a Brazos befoghatatlan. Legalábbis másfél év alatt senkinek sem sikerült megtenni. A VIA közel ért hozzá, de nem érdekli sajnos a gyártókat, ami amúgy tényleg sajnálatos, mert nem rossz az a VX11H. Az Atom pedig visszafele fejlődik a PowerVR bevetése óta.

    (#8) Patice: Gyengébb lesz és kevesebbet fogyaszt majd. Ez a low-power platformok célja. Olyan méretszintbe rakják bele, amibe a mainstream platformok fizikailag nem férnek be.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz adamssss #12 üzenetére

    Nem az árral van baj a Core i3-nál, hanem a platformdizájnnal. Sokkal nagyobb alaplap kell neki, mint a Brazosnak. Ezért csinál továbbra is az AMD a 17 wattos Trinity mellé Brazost, mert a fogyasztás az nem minden. Mérethatárokba is be kell férni. Van az a szint amibe a Brazos még bőven befér, de egy mainstream dizájn, mint a Trinity vagy az Ivy Bridge nem. Például Nano-ITX (ebbe talán nehezen bezsúfolható az Ivy és a Trinity, de nem kényelmesen) és Pico-ITX (ez csak low-power dizájnnal támadható).

    [link] - ebben a videóban látható a különbség. A legnagyobb gép az mainstream dizájn, míg a két kicsi az Brazos. Nagyságrendi a méreteltérés.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sir Ny #23 üzenetére

    A mi tesztjeink alapján a Brazos van ajánlva az Atom ellen. Ne állíts valótlanságokat. A legutolsó Atomot nem is ajánlottuk, eléggé lehúzta Rudi. Egyszerűen nincs hozzá terméktámogatás. Az asztali verziót le sem teszteltük, mert nem kaptunk. Az Xbitlabs az egyetlen média, aki csinált asztali Cedar Trail tesztet, mert megvették az alaplapot a boltban. [link] - konkrétan kijelentették, hogy nem biztosak benne, hogy jobb, mint a Pine Trail. Elsősorban ezek miatt: [link] - nincs elég teljesítménye az IGP-nek az Aeróhoz , [link] - hibás a VC-1 lejátszás

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sir Ny #26 üzenetére

    Hol fogták be? Ne trollkodjál, hanem nézzél rá az eredményekre. Ott a linkelt teszt. Olyan dolgot bizonygatsz, amire nem tudsz tesztet vagy tényeket felhozni, csak kevered ide azokat a cégeket, akik nem is indítottak a Brazos ellen semmilyen platformot.
    Ezen a szinten a Brazos 2.0, a Cedar Trail és a VIA VX11 trió versenyzik. Tök felesleges ide keverni az ARM-os bagázst, mert nem ide készültek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sir Ny #28 üzenetére

    És akkor nézd meg a többi teszteredményt is és rögtön megtudod, hogy miért lett mégis a Brazos ajánlva. Ha nem szelektálnád ki az eredményeket, akkor talán látnád is, hogy miért nem tudják a cégek a Brazost elkapni lassan másfél éve. IGP erőben hatodannyit sem teljesítenek, és mivel ez egy multimédiás platform, így az emberek multimédiára veszik.
    De ott az Xbitlabs tesztje. Az a legújabb platformokat hasonlítja össze, így van benne Cedar Trail. Az Aero megfogja az IGP-jét. És ez nem vicc, nem véletlen, hogy az Xbitlabs nem tekinti jobbnak a Cedar Trailt mint az elődjét.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sir Ny #31 üzenetére

    Akkor mutasd, hogyan teljesítenek ezek az ARM-ok a Windows 7 alatt. Várom a teszteket. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sir Ny #33 üzenetére

    Először tanuld meg, hogy mi hogyan működik, és utána meg tudod állapítani, hogy mi mennyivel erősebb. Amíg ezt nem teszed meg, addig teljesen el leszel tévedve.

    Azt hogyan érted, hogy a multimédiában a GPU nem játszik? Hogyne játszana. Szerinted a DeNoise és hasonló dolgokat a program csak úgy felvarázsolja a videóra? Szerintem hanyagold ezt a részét.

    Az Apple iPad 4-ben nagyjából olyan gyors IGP van, mint az Atom N2600-ban. [link] - Ez a különbség, ha így nézzük. Viszont az Apple annyiban előrébb van, hogy az Intelnek egy olyan operációs rendszeren kell helytállni, amire DX alkalmazások vannak, és a DX API futószalagja messze nem ideális a PowerVR low-level futószalagjához (lassú lesz vagy szétesik a program megjelenítése). Az Apple OpenGL ES 2.0-t használ, amiben megvannak a megfelelő kiterjesztések a jó sebességhez.
    Főleg ezek azok a dolgok, amiért nem egy piacra nevez az ARM-os társaság, és a Brazos/Atom/VIA trió. Egyszerűen az Android és a Win olyan különbségeket teremt a működében, hogy a legtöbb ARM lapkában található ultramobil IGP teljesen alkalmatlan a Windows által használt grafikus API-hoz, míg a PC-s GPU-k nem ideálisak Android által használt OpenGL ES 2.0-hoz.

    Az AMD kategorizálását érted. A többiekét nem érted.

    (#35) Sir Ny: Komolyan nem érted meg, hogy az ARM-os kategória Android és iOS mellett életképes, míg az x86-os réteg Windowson, vagyis két külön szegmensről van szó? Hiába akarod egybevonni, akkor sem lesz csettintésre ultramobil IGP-hez optimalizált DX futószalag Windowson.
    Szívesen elmagyarázzuk, hogy működik, csak nem akarom, hogy raboljuk egymás idejét egyértelmű dolgokkal.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz .mf #37 üzenetére

    C2C 10-15% plusz várható a Bobcathoz képest egy szálon. Ezt nehéz javítani a mobil vonalon, mert akkor a fogyasztás nagyon magas lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sir Ny #41 üzenetére

    ... "egy egy órás videót mindketten egy óra alatt játszanak le" ...

    OMG. :C

    Jól sejtettem, hogy nem a hozzáértéseddel van baj.

    Asszem itt le is zárhatjuk. :) De ettől még zseniális volt. Majdnem bevettem. :R

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szabi__memo #52 üzenetére

    H.264-et támogat az enkódoló. A VCE maga működhet bedrótozott és programozható módban. Mivel ez mobil termék, egy előbbi ajánlott.
    Tekintve, hogy a GCN mennyire jó compute képességekkel rendelkezik, így lehet rá írni kodekeket, ahogy a processzorra is lehet. Hasonlóan hatékony lesz a GCN CU-val, mint a központi processzoron. De az energiafelhasználás szempontjából a fixfunkciós hardver fontosabb.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #58 üzenetére

    Nem hivatalos a driver, hanem open, de amúgy nyilván ahhoz képest, hogy hol kezdték nagyot léptek előre. De a Linux annyira nem elterjedt, hogy a terméktámogatás szempontjából minősítsük a terméket. Amikor erről beszélünk, akkor a Windowsra gondolunk, vagy a hivatalosan megcélzott OS-re. A Linuxot az Intel hivatalosan nem támogatja, szóval ebből a szempontból nem lehet leminősíteni a terméktámogatást, mert nincs mit minősíteni. Azt lehet értékelni, hogy miért nincs hivatalos támogatás, de ez inkább a döntést bírálja, mint a terméket. A Cedar Trailhez a Windows 8-ra kellene driver, mert az Intel fórumán már lincseléshez közeli állapot van.

    (#59) Sir Ny: Az Android az nem Linux. Nem lehet csak úgy hordozni az ImgTec bináris driverét a két rendszer között.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #62 üzenetére

    A hardverrel nincs túl nagy gond, amit fel lehet hozni az az IGP energiagazdálkodásának teljes hiánya, de így is jó a fogyasztás. A szoftveren bukik el. Ez inkább a terméktámogatás problémája. Persze lehet ezt a platformhoz venni.
    Szerintem direkten ilyen nincs. Legalábbis az Xbitlabs tesztje, az D2500-at használt, ami 10 wattos. Az AMD a saját összehasonlító videójában is a legkevesebbet fogyasztó Brazoshoz (Z-60) hasonlította az N2600-at.
    Persze meglenne ennek a Cedar Trailnek a helye, de a szoftveren elbukik. Az Atom majd 2013 végén fog visszatalálni a helyes útra, mivel az Intel már nem PowerVR IGP-t használ a következő frissítéshez. A gond, hogy már nem a Brazost kell ütni, hanem a GCN architektúrára épülő Kabinit. Nem lesz egyszerűbb feladat.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szabi__memo #68 üzenetére

    A funkcionalitásban előrébb vagy, de a fixfunkciós hardver fogyasztása sokkal jobb, és itt alapvetően a fogyasztás csökkentése a cél. De nyilván technikailag kivitelezhető.

    (#70) julius666: Fogalmam sincs. Gondolom a VP8, de nem tudom. Az a baj, hogy ilyenkor még nincs dokumentáció. A gyártók azt látják, amit fizikailag tesztelnek.

    A plusz procierőt mindenki támogatná, de ahhoz előbb rá kellene jönni, hogy hogyan lehetne elérni azt, hogy egy mai gyártástechnológiai váltásnál a tranyó bekapcsolásához szükséges energia ne csak alig, hanem legalább értékelhető mértékben csökkenjen. Amíg erre nincs megoldás, addig olyan irányba kell haladni, amivel a teljesítmény skálázhatósága biztosítható, vagyis ezt bele kell tervezni a lapkába a párhuzamos illetve heterogén feldolgozással.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #78 üzenetére

    A hatékonyság a GCN mellett van. Ez azért kell. Minél hatékonyabb a compute rész, annál kevesebb energiafelhasználás mellett lehet egy-egy feladatot elvégezni. A mobil irány miatt muszáj a GPU kihasználása felé menni, mert nem tudják a cégek legyőzni a fizika törvényeit.
    Hiába akarnak a programozók erős procirészt mobilba. Nem lehet. A fizika törvényei nem engedik meg a szilíciumalapú gyártástechnológiákon. A heterogén éra az egy olyan kényszerű döntés, amit a Dennard Scaling megszűnése szült meg. Jelenleg úgy gondolják a cégek, hogy nagyjából nyerünk az egész iránnyal úgy 8-10 évet, aztán hátha jön valami gyártástechnológiai áttörés. Ha nem jön, akkor még van az FPGA ütőkártya, de ezt azért már nem biztos, hogy ki szeretnék használni, de ha nincs más megoldás, akkor FPGA-val skálázzuk majd a teljesítményt.

    Persze. Az Atomnak nem az a legnagyobb baja, hogy gyenge a hardver, hanem, hogy a terméktámogatása gyakorlatilag semmilyen. Nem véletlen, hogy a következő generáció már nem épít PowerVR-re. Ezzel a lépéssel már akkor is alternatívává válik, ha marad a gyengébb hardver, amire nyilván elég nagy esélye van a rendszernek, hiszen négy darab EU-val dolgozó Gen 7 IGP-ről pletykálnak. Annak a teljesítményt értelmes órajelen a Brazos IGP-jének a felére lőném be. Nagyságrendi változás persze, ahhoz képest, hogy most mit tud az Atom.

    (#115) julius666: A HSA 1.0 draft speckói megvannak. A véglegesítésre váró formát az alapítvány tagjai már megkapták, hogy arra építsék a hardvereket. A legtöbb fejlesztés 2013-ban lesz a partnereknél. Speckó hardver nem kell hozzá. A Trinity is képes HSA alkalmazást futtatni. A Kaveri lesz az első hardver, ami az új kiterjesztéseket is támogatja, vagyis ez lesz az első normális funkcionalitású hardver. Az egész rendszer a kiterjesztésekkel fejlődik majd, amiket majd újabb hardverek támogatnak.

    (#111) julius666: Nem azért nem növelik a processzor teljesítményét az ultramobil termékeknél, mert most a fejükbe vették, hogy a GPU irány a nyerő. Az a baj, hogy a 90 nm óta technológiai korlátokban élünk. 20 éve is lehetett sejteni, hogy a fizika törvényeire épített összefüggések bizonyos méret alatt nem fognak jól működni. Nagyjából 90 nm volt az a szint, ahol ez az egész előjött a gyakorlatban. Ez volt a Pendium 4 veszte, mert az Intelnek az elmélete jó volt, csak nem számoltak azzal, hogy 90 nm alatt azok az összefüggések, amik életben tartották a fejlődést problémázni fognak. Innen jött a magas fogyasztása a rendszernek. Ekkor ugye elindultunk a homogén többmagos irányba. Itt ez egy kikényszerített irány volt. Azzal, hogy a fizika közbeszült nem tudtuk olyan mértékben csökkenteni a tranzisztorok bekapcsolásához szükséges energiát, mint korábban. Ez a hőskorban nagyjából másfél évente megfeleződött, vagyis szinkronban volt Moore törvényével. A 90 nm utáni gyártástechnológiákkal Moore törvényét tartottuk, de minden egyes váltás során egyre kevesebb volt az az érték, amivel csökkenteni lehetett egy tranyó bekapcsolásához szükséges energiaigényt. Most nagyjából ott tartunk, hogy egy mai váltás mindössze 5-7%-os előnyt hoz ebből a szempontból, vagyis a hőskor paraméterének töredékét. Ezért integráljuk a GPU-t, mert már a többmagos modell sem elég jó, túl gyorsan ütközünk bele az új korlátokba. ~15 nm alatt elérjük azt, hogy gyakorlatilag megszűnik a Dennard Scaling, mert annyira pici lesz a tranyó, hogy főleg a kvantum mechanika szabályai lesznek érvényben, amire pedig a régi összefüggések nem alkalmazhatók. Szimplán túl kicsi 50-60 elektron összesített tömege, hogy kezelhető legyen. Ez az a pont, amikor gyakorlatilag válthatunk gyártástechnológiát, de a tranyók bekapcsolásához szükséges energia semmit sem fog csökkenni, vagyis egy 22 nm-es lapka 16 nm-re való átültetése semmit sem változtat a fogyasztási paraméterein. Ha több tranyót pakolunk be, akkor világos, hogy nemhogy csökken, hanem egyenesen nő a fogyasztás. Ez a 90 nm-es gyártástechnológia óta jellemző, de próbáljuk szinten tartani. A lapkák tervezése innentől teljesen olyan irányra vált, ahogy az már látszik, vagyis amit nem tudsz megnyerni a gyártástechnológián, azt meg kell nyerni a tervezésben. Ergo vezető szerepet tölt majd be, hogy minden egyes generáció során a felére csökkentsék a mérnökök az adott lapka pJ/FLOP arányát. Ergo, amit a fizika nem ad meg, azt be kell tervezni. Ennek két módja van. Az egyik, hogy egyre egyszerűbb processzormagokat tervezel. Azok picik lesznek, keveset fognak fogyasztani. Kiveszed belőle a bonyolult OOO logikát, stb. Ezzel több magot tudsz majd elhelyezni a lapkába, vagyis nő a throughput teljesítmény, és csökken az egy szálon elérhető sebesség. A másik megoldás, hogy a processzorokat érintetlenül hagyod, mert az egy szálon elérhető tempó azért relatíve fontos, és a throughput teljesítményt GPU-ból nyered meg. Ez a két opció van. Egyik sem kellemes, de úgy gondolom, hogy a cégek GPGPU-s iránnyal a jobbikat választják, mert az egy szálon elérhető tempót azért próbálják megőrizni. Ehhez az irányhoz viszont a programozóknak is újszerűen kell gondolkodni. A régi programozási modellek nem fognak működni. Lehet most mosolyogni azon, hogy OpenCL-re megírjuk és jó lesz, de valójában ez a helyzet halálosan komoly. Ebben az univerzumban az, amit a programozók szeretnének nem tartható. Lehet, hogy egy másik univerzumban más fizikai törvényekkel az, de itt nem.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz VaniliásRönk #117 üzenetére

    Hát ... nem teljesen van így. Az OpenCL az elméletben platformfüggetlen, de a gyakorlatban nem. Funkcionálisan lehet, hogy működik ugyanaz az algoritmus a különböző hardvereken, de a teljesítmény már nem portolható jó hatásfokkal. Ergo egy kód lehet, hogy x hardveren nagyon gyors, de y hardveren már lassú.
    A HSA igazából egy OpenCL kiegészítés is. Nem egymás ellenfelei. Egyébként nyilván a HSA legfontosabb eleme, hogy a teljesítmény protolható legyen, ami ma tényleg nem egészen igaz az OpenCL kódokra, de a DirectCompute kódokra is igaz ez. Utóbbit is kiegészíti a HSA.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #122 üzenetére

    Ha a Gen7.x architektúra EU egységeit nézzük, akkor azonos órajelen, ideális körülmények között, vagyis amikor használható a co-issue, akkor 8 EU adja azt a nyers számítási teljesítményt, amit egy GCN CU. Co-issue lehetősége nélkül 16 EU kell. Innen lehet az órajelek eltérésével számolni. Erre még nem tudjuk a pontos választ, de koncepcionális eltérés, hogy az Intel más órajeltartományokat céloz meg, tehát ezt majd figyelembe kell venni.
    A compute hatékonyság oldalán pedig a GCN jelentősen előrébb tart. Az Intel Gen7.x nagyjából a TeraScale 2 és a Fermi szintjét hozza ebből a szempontból. A Keplert ne számoljuk szvsz, mert az egy Tegra miatti szándékos visszalépés, azt így nem nehéz verni a compute hatékonyság szempontjából.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #124 üzenetére

    Az Brazoson már most futnak a programok. Értem, hogy az Intelnek a következő lépcső, hogy a PowerVR-es kitérő után végre jó legyen az alkalmazástámogatás, de az AMD számára a teljesítmény hajszolása maradt a következő fejlődési lépcső. Nem is lehetne más. Az Intel is hajszolni fogja a teljesítményt az új Atommal. Muszáj nekik. 4 EU viszont arra elég, hogy a Brazos IGP-jét beérjék. Mondjuk ahhoz képest, hogy most hol tartanak ez a cél már egyértelmű előrelépést jelent számukra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák