Hirdetés

Új hozzászólás Aktív témák

  • ukornel

    aktív tag

    válasz smkb #26 üzenetére

    Más topikban korábban már sokféle jól párhuzamosítható feladatot összegyűjtöttek nálam okosabb emberek.

    Ehelyett én megfordítanám az egész nézőpontot:
    Vannak a nem párhuzamosítható feladatok, egy szálon futnak - ezek gyorsítása mostanában az Intelnek is csak tyúklépésben megy. A jó hír az, hogy a mai processzorok teljesítménye már bőven elég az ilyen feladatok jó részének. A fennmaradó kisebb résszel, ahol mondjuk az egyszálas teljesítmény nagyságrendi (kétszeres, tízszeres, vagy nagyobb) növekedése hozna elfogadható szintet, meg egyszerűen nincs mit kezdeni a jelenlegi technológiával. Generációnkénti 7-10%-os fejlődéssel (ez az utóbbi Intel generációk üteme) a nagyságrendi előrelépés évtized(ek)ig tartana. Más szavakkal a technológia napjainkban ennyire korlátoz. Majd ha lesz grafén, meg kvantumszámítógép, meg Isten tudja, mi, akkor változik a kép.
    A másik jó hír, hogy az igazán erőforrásra éhes feladatok nagy része (végeselem-szimuláció, mindenféle videobasztatás, Monte-Carlo, nagy adatsorok elemzése, hanganalízis, időjárás-modellezés, ilyesmi) párhuzamosítható. Itt annyival jobb a helyzet, hogy a nagyságrendi előrelépés sok esetben már itt és most lehetséges. Az általános számítások felé orientálódó GPUk számítási kapacitása az aktuális technológia szintjén utcahosszal vezet a CPU előtt. (Nem véletlen, hogy a szuperszámítógépek toplistáján egyre jobban teret nyernek a heterogén rendszerek.) Persze, ahhoz, hogy átlagjános is kihasználhassa ezt, a programfejlesztőknek is meg kell kicsit erőltetni magukat.

    Amúgy a batch szerű munkák és a párhuzamosíthatóság között sem föltétlenül látok ellentétet, csak le kell kezelni a függőségeket.

    [ Szerkesztve ]

Új hozzászólás Aktív témák