Hirdetés

Új hozzászólás Aktív témák

  • E.Kaufmann

    addikt

    válasz sajti_pajti #2 üzenetére

    Vannak olyan algoritmusok, pl kép és hangfelismerés, de már képtömörítés és képjavító algoritmusok is használják, amiket tanítással hoznak létre (pl sok hangminta és jelentésük páros), mely során keletkezik egy mátrix (egy táblázat) amit egy úgynevezett neurális háló (idegrendszer mintájára) dolgoz fel
    A neurális hálóban több kis feldolgozó egység, neuron egymással szorosan van összekötve, amelyek működését a mátrix befolyásolja, és GPU-val jól szimulálható, mert a GPU -ban is több kis számítási egység, egyszerűbb utasításkésletű mag van és egy neuron működése egy GPU-n belül számolóegységen szimulálható. Sok kis magon meg egyszerre sok kis neuron futtatható.
    Eddig is volt amúgy lehetőség GPU-t használni, de próbálják szabványosítani ezen neurális hálók szimulációját és a Google féle programozási felülethez készített a Microsoft egy fordítót, hogy ne kelljen külön a Microsoft saját API-jára is átírni egy ilyen mesterséges inteligenciát használó programot.

    Le az elipszilonos jével, éljen a "j" !!!

Új hozzászólás Aktív témák