Hirdetés

Keresés

Hirdetés

Új hozzászólás Aktív témák

  • sb

    veterán

    válasz arn #4 üzenetére

    Fordítsuk meg a kérdést. Mivel lehet kihasználni?
    A real-world, tehát nem szintetikus tesztekben is azt látjuk évek óta, hogy alig van különbség. Még a SATA-kra vonatkozóan is.

    Heavy storage tesztekben (amik ki tudja mit és mennyire jól modelleznek) vannak eltérések. Ott már kijön egy EVO-Pro különbség is.

    A kérdés, hogy ezek a szimulált, kemény és főleg hosszú idejű terhelések hol jönnek ki valós felhasználásban. Videóvágás lehet pl. az egyik de ott is inkább csak a cache+szekvenciális átvitelt érinti. Random és 4k-ra szinte semmi érdemi nincs ami eszembe jutna... szutyok DB szerveren kívül. (Azért az ott is, mert ha normális a ram mennyiség, cache-elés, vannak fizikailag indexek szerint rendezett adatok akkor ott is kevésbé releváns a random elérés. Ott is átalakul az IO jó része szekvenciálissá.)

    A mindennapi használat, ahol pedig ráeresztesz win10-et 200 processzel és összehányt IO-val... azon meg nem segít, hiába ez oldaná meg brute force.
    Ott sw limit van... Régóta mondom és most a konzolok rá is fognak erősíteni, hogy sw (vagy inkább azt írom adatszervezés és -kezelés, mert konzolon ennek egy része hw-s lesz) oldalról lehet csodát csinálni. Önmagában ezekkel az átviteli tempókkal valós használatban nem nagyon. :(

Új hozzászólás Aktív témák