Hirdetés

Hirdetés

Új hozzászólás Aktív témák

  • S_x96x_S

    őstag

    válasz b. #41325 üzenetére

    > érdekes megközelítés, de azt gondolom
    > hogy ezt szerintem szerver platform szinten simán
    > le tudja fedni akár Amd akár Nvidia, ha nagyon akarja

    Egyszerűbben fogalmazva: le vannak maradva.

    A 192 GB unifikált memóriájuk még az nVidia szerver platformjával is versenyképes.
    - A100: 80 GB
    - H100: 188 GB HBM3 memória
    Persze ez jelentős leegyszerűsítés, mert az nVidia chipjei kiemelkedően hálózatba köthetők;

    Mindenesetre a 192 GB unifikált memória lehetővé teszi nagy nyilvános AI modellek (GPT, LLM) otthoni futtatását, módosítását, tuningolását kedvező áron.
    Ez egy réspiac, amit jelenleg csak az Apple szolgál ki - elérhető áron.
    És emiatt a szoftveres támogatás is nagyon hamar meglesz mögé.

    Az Apple stratégiája eltérő, és az év végén érkezik az M3 - TSM 3nm technológiával. Meglehet, hogy azon dolgoznak, hogy tovább duplázzák a teljesítményt, és nem csak 4, hanem 8 vagy 16 chipet kapcsolnak össze.
    8 chip esetén akár 1600 GB/s és 400 GB,
    16 chip esetén akár 3200 GB/s és 800 GB lehet.
    Persze a skálázás nem ilyen egyszerű, de a lehetőség adott.

    A zárt hardver-ökoszisztémának vannak hátrányai és előnyei is.
    Az Apple alulról felfelé ( bottom-up) történő megközelítésében még sok minden rejlik és ha ezen az úton következetesen haladnak tovább, akár saját cloud szolgáltatás is kialakulhat belőle.
    A PC-s és a szerveres platformot meg kötik a szabványok ..
    ott lassabb az innováció.

    [ Szerkesztve ]

    Mottó: "A verseny jó!"

Új hozzászólás Aktív témák