Keresés

Hirdetés

Új hozzászólás Aktív témák

  • chey

    csendes tag

    válasz Legyes #4 üzenetére

    Olyan optikai képalkotó- és feldolgozó rendszereink vannak, amikben egy kép elkészülte a trigger kiadásától a feldolgozott hamisszínes térkép megjelenítéséig körülbelül 1 másodpercig tart. A rendszer sebességét alapvetően a processzor és a memóriasín sebessége korlátozza. Egy ilyen géppel (128-256 szál) orbitálisan fel lehetne gyorsítani a feldolgozás sebességét, mivel a kamerák natív sebességén (10-20 fps) képenként egyszerre több hamisszínes térképet is ki lehetne számítani. Csorog a nyálam :D

    [ Szerkesztve ]

  • chey

    csendes tag

    válasz KAMI911 #7 üzenetére

    Jó a GPU, mi is gondolkodunk rajta. A baj csak az, hogy az általunk vizsgált problémakör esetén gyakran nagy mennyiségű adatot kellene mozgatni a VRAM és a rendszermemória között, ami erősen korlátozná a teljesítményt. GPU-ban gondolkodva optimális megoldás úgy adható, ha megfelelően szegmentáljuk a számítási feladatokat a CPU, az IGP és a DGPU között, de ez meg nem egyszerű.

    Ezzel szemben a számolási feladatok könnyen szegmentálhatóak sok, egyenként nem túl nagy teljesítményű processzormag között. Minél több szálat tud kezelni a processzor, annál jobb :D Pl. egy 64 magot tartalmazó, 128 szálat kezelő Atom alapú rendszer egészen jól teljesítene.

    A Clavium előnye az lenne számunkra, hogy a párhuzamos számítási teljesítménye vetekszik egy erős X86-oséval, de egyszerre több szálat tud kezelni. További előnye lenne, hogy a memória alrendszere nincs több részre darabolva, mint az AMD Epyc esetén (ami esetünkben a DGPU-hoz hasonló adatmozgatást igényelne a két memória alrendszer között).

  • chey

    csendes tag

    válasz #25954560 #9 üzenetére

    Ez így van. Az (AMD) IGP és a DGPU között az alapvető különbség az, hogy az IGP korlátozott számítási kapacitással rendelkezik, de közös címteret használ a CPU-val, míg a (egy combos fajta) DGPU nagy számítási kapacitással rendelkezik, de állandóan adatot kell mozgatni a RAM és a VRAM között. Egy ilyen rendszerben úgy lehet a problémát szegmentálni, hogy
    - egy beágyazott rendszer vezérli a mérőhardvert
    - a CPU vezérli a szoftvert, a számítógéphez kapcsolt beágyazott rendszert, és hozza meg a nagy súlyú döntéseket, továbbá egyszerű általános számításokat végez
    - az IGP kis számítási igényű, de jól párhuzamosítható számításokat végez
    - a DGPU olyan számításokat végez, amik nagy számítási igényűek és sok szempontból vizsgálnak egy adott adathalmazt.

    Jelenleg úgy látom, hogy elég nehéz megoldani a felmerülő számítások ilyetén szegmentálását úgy, hogy az kellően generikus legyen, ugyanakkor különböző CPU+IGP+DGPU kombinációk mellett is közel optimálisan működjön. Ugyanakkor osztatlan memória alrendszer esetén kifejezetten könnyen tudom úgy szegmentálni a műveleteket, hogy 8-256 hardveresen kezelt szál esetén is közel optimálisan működjenek (értsd: 256 szál esetén másodpercenként kb. 25-ször több képet tud feldolgozni másodpercenként,mint 8 szál esetén, azonos szál/mag arány mellett).

    [ Szerkesztve ]

Új hozzászólás Aktív témák