Hirdetés

Keresés

Új hozzászólás Aktív témák

  • lionhearted

    őstag

    válasz Geri Bátyó #17 üzenetére

    Átgondoltam. Te a HPC spéci területről beszélsz, oda még csak nem is 32bit kell, hanem inkább 64. Ez nincs Maxwellben, mert nem is erre készült.
    Egyébként szó nincs arról, hogy eldobták volna. Csak arról, hogy a 32bites (egyszeres) lebegőpontos feldolgozó órajelenként 2 16biteset (félszeres?) tud majd feldolgozni. Ez ARM vonalon egyébként régi dolog. A 64-esről szó sincs, de nagyon nem hagyhatják el, mert 2017-ben szuperszámítógépet kell szállítaniuk.

    Kicsit szerintem katyvasz a cikk. Sehol nem találok rá utalást, hogy a fixpontos feldolgozó lebegőpontosan tudna számolni, csak arról, hogy a fix és az FP egyszerre lesz feldolgozható. A többi cikk meglátása szerint legalább is, ezek a pontosságok elegendőek a cikkben is szereplő deep learning felhasználáshoz, itt lesz majd előny, hogy többet és egyszerre mindkettőből is tud számolni.
    (Itt: "Pascal architektúra az aktuális információink szerint még ennél is továbblép, így a CUDA magon belüli fixpontos skalárfeldolgozó is képes lesz két 16 bites lebegőpontos operációt futtatni, így az új CUDA mag egy órajel alatt összesen négy darab, egymástól nem függő 16 bites lebegőpontos operációra képes.")

  • #06658560

    törölt tag

    válasz Geri Bátyó #17 üzenetére

    Amennyiben minden, te tényleg minden problémára igaz lenne, hogy csak egy típus létezik, egy megoldási úttal, igazad lenne. A valóság az, hogy vannak olyan területek, ahol hogy hagyományosabb értelemben maradjak, semmit nem ad plusz tíz helyiérték pontosság a végeredményhez, ellenben sokszorosára növeli a számítási igényt, lassítva a projektet, ami pénzvesztést is jelent.

Új hozzászólás Aktív témák