Keresés

Hirdetés

Új hozzászólás Aktív témák

  • julius666

    addikt

    Tetszik hogy kb. 2009 óta (ha nem régebben) jósoljátok folyamatosan hogy 1-2 éven belül eljön a heterogén számítás kora és kb. hetente lehozzátok lényegében ugyan azt a cikket. :DDD

    Közben a jövőre kijövő HSA-s cuccok is még butítottak lesznek, arról nem is beszélve hogy amíg csak az AMD tolja nem sokat ér (tudom hogy vannak érdeklődők de konkrét tervek még nem nagyon). Kicsit olyan szaga van nekem mint a tesszellációnak volt, amikor az AMD elsőként beépített valami gyengus próbamegoldást és akkor is ment a nagy csinnadratta meg a tuti techdemók, de végül nem használták semmire. Arról nem is beszélve hogy az egész tesszelláció témát eddig értelmes alkalmazásban még nem láttam, mert macerás dolgozni vele illetve így hogy a gépek egy töredéke tudta(/tudja) csak, nem érte meg. Ebből a szempontból is stimmel a párhuzam, ez nagyjából illik a heterogén számításra is, csak ez nagyobb piac így itt elvétve már azért vannak szárnybontogatások.

    Szvsz amíg nem lesznek értelmes chipek (a jelenlegik nem ilyenek) eléggé elterjedtek a piacon addig nem lesz itt lószar sem, az pedig alsó hangon 3-4 év.

  • julius666

    addikt

    válasz dezz #126 üzenetére

    Igazából nem a GPGPU létjogosultságát tagadtam, csupán hogy ez a "heterogén számítás kora" még mindig piszok messze van.

    Az hogy pár kirakatalkalmazást aminél a célfeladatok éppen jól feküdtek a GPU-k architektúrájának és ezért megérte vesződni vele nem nevezném még annak. Jelenlegi formájában nagyon szutyok a dolog, az idétlen modell és a korlátok miatt pár speciális erre a fajta számítási problémára kihegyezett területen kívül vagy nem is implementálható rendesen a célalgoritmus, vagy nem lesz gyorsulás, de cserébe bekapsz egy rakat lehetséges bug- és sérülékenységi forrást a programodba. Na meg amennyire hallottam a CSUDÁ-ban meg OpenCL-ben sem velejéig tejfel az élet amint valami trükkösebbet akarsz (tehát nem tankönyvi példaprogramról van szó). A sokezer-csilliárd teraflopsos értékek a marketinganyagokban marha jól mutatnak de ha nem lebegőpontos műveletek ezreit akarom daráltatni a GPU-n, szart sem érnek.

    Majd ezt a HSA-t meglátjuk mit fog tudni, az mindenesetre látszik az AMD nyilatkozataiból hogy 2014 előtt nem kapunk teljes támogatást bíró lapkát. És akkor még mindig ott vagy hogy alig lesz ilyen a piacon.

    Elnézést hogy csak most válaszoltam, remélem még elolvasod. :B

    [ Szerkesztve ]

  • julius666

    addikt

    válasz dezz #170 üzenetére

    Figyelembe kellene venni, hogy az GPGPU-s téma nem tegnap indult, az eleinte elég kezdetleges CUDA-val, az OpenCL-lel és az első, már valamilyen szinten GPGPU-képes GPU-kkal együtt.

    Olyannyira nem hogy már a shader nyelvek idején is voltak próbálkozások. :)

    Egyébként a linkelt demóid meg amiket említettél is jellemzően fizikai/pénzügyi/képalkotásos számítások. Ezekről beszéltem én is, hogy ezekre valóban jó már most is a téma.

    Azok az algoritmusok, amik párhuzamosíthatók és SIMD-esíthetők, többnyire "GPU-síthatók" is.

    Igen, elméletben. Gyakorlatban ha nem elég nagy az a számítási igény amire szükséged van, nem éri meg. Egyrészt a késleltetés miatt (a CPU-s SIMD egységek ugye ott vannak kéznél rögtön, míg a GPU-hoz kinyúlni így tippre még a mostani APU-knál is legalább a memóriaelérés ideje). Ez az említett fizikai/stb. számításoknál meg van, egyéb területeken már nem feltétlenül.

    Nem jól párhuzamosítható esetben meg hát ugye bikmakk. :)

    Itt inkább a programozók hajlandóságáról van szó, hogy nekiálljanak átírni a teljesítményigényesebb programokat OpenCL-re.

    Ó, azok a fránya programozók. :U
    Nem tudom mennyi dolgod volt szoftverfejlesztéssel meg mennyi GPGPU fejlesztővel beszéltél, mert ez így nem kicsit meredek.

    [ Szerkesztve ]

Új hozzászólás Aktív témák