Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz julius666 #35 üzenetére

    Pontosa ezt emelték ki az előadáson, hogy a GPU és a CPU heterogén módon történő kihasználásával ez lehetségessé válik. Most ezt hiába tudod megcsinálni elméletben, a gyakorlatban nem fog működni, mert nincs meg a teljesítmény.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz julius666 #47 üzenetére

    WebCL. Erről is beszélt az ARM. Az okostelefonok proci része erősödik ugyan, de nagyon messze van a PC-s szinttől. A WebCL-lel ez a probléma is megoldódik. Úgy gondolják, hogy 2013-tól már elterjednek azok a webes szabványos, amelyek főleg a GPU-t terhelik. A CPU csak kismértékben határozza azután meg az internetes megjelenítés sebességét. Mint "Javascript leváltó" a WebCL ebben komolyan benne lesz. Legalábbis az ARM szerint.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz julius666 #50 üzenetére

    A hang- és gesztusfelismerést át lehet ültetni a weboldalakra is. Ezen dolgozik az ARM. Az új generációs fórummotorok esetében ez komoly lehetőségeken nyitna meg. Természetesen ennek részesei leszünk PC-n is, hiszen szabványszinten ez az egész átkarolja az összes terméket. A CPU tehermentesítését pedig a mobil piacon egyértelműen sürgetni kell. Az IGP energiatakarékosabban dolgozza fel a webes tartalmakat. Ez már most kimutatható, később a szabványok finomodásával jobb lesz. Mobil terméknék az üzemidő szempontjából nem mindegy, hogy a CPU, vagy az IGP lesz túráztatva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz julius666 #52 üzenetére

    Dehogynem alkalmas rá. A Youtubeon a videót ki nézi teljesen procival? Sokkal többet fogyasztana, mint a GPU-k erre felkészített feldolgozómotorjával. :) GPU-val még post-processre is van lehetőség, ha szeretnéd. Ezt már ma is ki tudod használni, nem a jövő webtartalma, és az akkuidőben durván meg fog látszani a különbség.

    A WebCL másra kell, például a javascript helyébe léphet, az ARM szerint erre nagy esély van (az akkuidő miatt a javascript nem kellemes jelenség az netes tartalomban, de jelenleg nincs alternatíva). Képzelj el például egy webes, fejlett fényképszerkesztőt. :)
    A Nokia már kísérletezik a WebCL-lel. [link] - Az FF6-hoz tölthető egy kiterjesztés, amivel már bárki dolgozgathat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz julius666 #55 üzenetére

    Pont erről beszél az ARM is. A számításigényes feladatok minek terheljék a CPU-t, amikor a GPU kisebb erőforrásigényből megoldja, és ezzel még akkuidőt is nyertél.

    Éppenséggel a Direct2D és a DirectDraw gyorsítás pont, hogy általánosan előnyös a fogyasztásban. Ez is kihasználható már pár oldalon. Minél több HTML5-ös oldal lesz, annál kevesebb fogyasztást fog igényelni azok megjelenítése, ha azokat GPU-val gyorsítod.

    Az ARM víziója szerint az eszközöd állandóan a netre csatlakozik, vagyis azok a programok, amiket jelenleg még külön böngésző nélkül futtatsz átkerülnek a webre. A webalapú programok jelentik a vállalat víziójában a jövőt. Minél jobban el kell osztani a terhelést a SoC-on belül, egy APU jó kihasználásával üzemidőt nyersz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz julius666 #59 üzenetére

    Már hogyne lenne köze. A PH-t hogyan tudod gyorsítani GPU-val? Nem sok ilyen tartalom van rajta. A HTML5-ön belül viszont számos olyan tartalmat használhatsz, ami GPU-val gyorsítható.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz oO7 #74 üzenetére

    Van már unified shader modell pár IP-ben. A legújabb Mali, Adreno és PowerVR termékek ilyenek. A Tegra például pont nem ilyen, még a Tegra 3 sem. Amúgy ennek sok jelentősége nincs. Az API nem követeli meg ezt, így bármivel lehet versenyezni. Talán mobil szintre még előnyösebb is a hagyományos pipeline. A Tegrának biztos, mert az a rendszer klasszikus immediate render, míg a többi, elterjedtebb IP már tile-based rendert használ. A Mali és az Adreno hagyományosat, míg a PowerVR deferred megoldást.

    Ha az új generációs IP-ket hasonlítjuk össze, akkor a Mali-T604 nagyon okos, egyértelműen az egyik legokosabb. Bár a nextgen Adreno és PowerVR Rouge rendszerekről még kevés az Infó, de maximum olyan okosak lesznek, mint a Mali-T604 (a PowerVR biztosnak tűnik, míg az Adreno esetében a DX támogatásra kompromisszumokat kötött a Qualcomm, de erről majd a bemutatókon többet tudunk). A sebesség/tranyóköltség mellett viszont még a különböző API-k támogatásának hiányában is értékelhetőbb megoldást lehet a Tegra 3 IGP-je. Az NVIDIA erősen játszik a Windows 8-ra, de amíg nincs itt az a rendszer, addig nem érdemes túllépni az OpenGL ES 2.0 támogatásán, mert sok extra tranyót jelent. A Mali-T604 például már túllépet, és támogatja az OpenCL 1.1-et, illetve a DX11-et is. Az NVIDIA inkább biztonságra játszik, és legyen egy rendszer még a 40 nm-re. A Windows 8-ig úgyis kész lesz a 28 nm-es Tegra 4.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #76 üzenetére

    Arcfelismerést már láttam a gyártóktól. Az AMD és a Viewdle közös OpenCL-es megoldása nagyon jól működik már most. Az Intel egyik bemutatóján is mutatott egy algoritmust, ami állításuk szerint szintén jól működi, de valós idejű videóknál kell hozzá a komoly számítási teljesítmény, így a mai procikon egyelőre esélytelen. A lebutított algoritmus sokszor hibázott, de csak a részletességet vissza kellett venni, hogy fusson négymagos procin.
    Elméletben jók az eredmények, de kell alá a vas. Az ARM koncepciója 2013-ról szól, addig még két év van. Minden szinten fejlődhet a dolog. Ráadásul az ARM eleve OpenCL-ben gondolkodik, és ez az a terület, ahol a GPU-k igazán kivehetik a részüket a munkából.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák