Hirdetés

Keresés

Hirdetés

Új hozzászólás Aktív témák

  • sb

    veterán

    válasz arn #4 üzenetére

    Fordítsuk meg a kérdést. Mivel lehet kihasználni?
    A real-world, tehát nem szintetikus tesztekben is azt látjuk évek óta, hogy alig van különbség. Még a SATA-kra vonatkozóan is.

    Heavy storage tesztekben (amik ki tudja mit és mennyire jól modelleznek) vannak eltérések. Ott már kijön egy EVO-Pro különbség is.

    A kérdés, hogy ezek a szimulált, kemény és főleg hosszú idejű terhelések hol jönnek ki valós felhasználásban. Videóvágás lehet pl. az egyik de ott is inkább csak a cache+szekvenciális átvitelt érinti. Random és 4k-ra szinte semmi érdemi nincs ami eszembe jutna... szutyok DB szerveren kívül. (Azért az ott is, mert ha normális a ram mennyiség, cache-elés, vannak fizikailag indexek szerint rendezett adatok akkor ott is kevésbé releváns a random elérés. Ott is átalakul az IO jó része szekvenciálissá.)

    A mindennapi használat, ahol pedig ráeresztesz win10-et 200 processzel és összehányt IO-val... azon meg nem segít, hiába ez oldaná meg brute force.
    Ott sw limit van... Régóta mondom és most a konzolok rá is fognak erősíteni, hogy sw (vagy inkább azt írom adatszervezés és -kezelés, mert konzolon ennek egy része hw-s lesz) oldalról lehet csodát csinálni. Önmagában ezekkel az átviteli tempókkal valós használatban nem nagyon. :(

  • TeeJay

    félisten

    válasz arn #3 üzenetére

    Mit tud az az új vezérlő?

    Mixgyűjteményem ---> https://www.mixcloud.com/teejayhouse/

  • TeeJay

    félisten

    válasz arn #20 üzenetére

    De a Samsung meg a Crucial sajátot használ nemde?
    Csak hogy melyik márkánál számíthatunk a Phison vezérlőre

    Mixgyűjteményem ---> https://www.mixcloud.com/teejayhouse/

  • sb

    veterán

    válasz arn #19 üzenetére

    Komolyan kérdeztem mert én alig látok olyan szituációt amikor kijön a különbség.
    Azt is inkább másolgatós esetben, de az meg önmagában nem egy konkrét feladat. Öncélúan senki nem másolgat ide-oda. Főleg nem nagy adatmennyiséget és hosszan, ahol elfogy a cache és Pro-k meg a brutál szekvenciális átvitel előnyei kijönnek.

    Ha valami feldolgozás is van akkor meg már nem csak a szimpla IO számít és elvérzik.
    Szóval ami érdekel, hogy felhasználói programokban van-e ahol kijön. Bármi, az már lehet Pro program is... erre céloztam, hogy ilyeneket sem ismerek, a tesztek alapján ott sem jön ki különbség.
    Ami azért gáz, mert lehetne... de valahogy ezt sw oldalról is meg kéne támogatni.
    Értsd:
    - Pl. load idők alig csökkennek hiába 2-3x az átviteli tempó.
    - Tegyük fel, hogy nem az IO a szűk keresztmetszet. Sok párhuzamos feladatnál viszont már elérhető, hogy számítson az IO. De ott sem látszik egy nagyságrendnyi random 4k sebességkülönbség sem a tesztekben.

    Én pl. compile-t néztem. Sata vs PCIe 3.0 4x. Kb. 20%-ot gyorsult. 6-8000 kis file és 4k-ban nagyságrendi a különbség a két SSD között.

    Gyk nem tudjuk kihasználni hiába fejlődnek. :(

Új hozzászólás Aktív témák