Új hozzászólás Aktív témák

  • S_x96x_S

    addikt

    válasz Petykemano #9681 üzenetére

    > Tudom, hogy 10-15 éve 5-10%-os gyorsulás is nagymértékűnek számított.
    > De mai az öldöklő Intel, Apple, Arm által diktált versenyben ez a 16% tisztességes,

    Az én elméletem, hogy a Zen5 elsődlegesen a szerverpiacot célozta.
    ( főleg az AVX-512 -es fejlesztések miatt gondolom. )

    Hogyha egyes cloud partnerek az MI300X-hez
    is Intel Xeon Sapphire Rapids procit tesznek,
    mert annak erősebb az AVX-512 -je ( a zen4-hez képest )
    vagy van benne AMX támogatás ( ami még a zen5-ben sincs) ,
    akkor ott van még teendő. :R

    "The ND MI300X v5 series VM starts with eight AMD Instinct MI300 GPUs and two fourth Gen Intel Xeon Scalable processors for a total 96 physical cores. Each GPU within the VM is then connected to one another via 4th-Gen AMD Infinity Fabric links with 128 GB/s bandwidth per GPU and 896 GB/s aggregate bandwidth." ( Microsoft Azure Cloud )

    És az AMX - pont az AI terén nagy durranás, amire nem tudom milyen választ ad az AMD.

    "The AMX benchmarks show the huge potential of Advanced Matrix Extensions for better performance in the areas of AI software. There were cases of 2~4x better performance while the Xeon Platinum 8490H processors were consuming less power than when just engaging AVX-512. With Intel's Sapphire Rapids launch slides they had 8x and 10x references for AMX performance in their slide deck, but that was comparing as well comparing FP32 against BF16 rather than maintaining the same data types as done for my benchmarking with just changing the ISA level and keeping everything else the same. In any event, these numbers showcase the significant potential for Sapphire Rapids with AI / machine learning workloads." https://www.phoronix.com/review/intel-xeon-amx/6

Új hozzászólás Aktív témák