Hirdetés

Új hozzászólás Aktív témák

  • sb

    veterán

    válasz SP4C3 #36 üzenetére

    Itt most szerintem két dolog keveredik.
    Decode és encode két külön dolog.
    1. Dekódolás
    - Itt nemigen van más kimenet adott forrásból. Különben sz*rra sem lenne jó az egész szabvány, ha mindenki más eredményt kapna.
    - Utána már lehet utómunkával javítani a képen, de ez már utófeldolgozás ahogy írták. Van egy része amit mindenki tud: a scaling minden dekóderbe kell, itt már lehetnek gpu-függő eltérések is és a képminőségre kihat. mondjuk mint minden itt is eléggé függ a forrástól. Ha eleve nem lenne szükség skálázásra akkor ez a lépés is kiesne.
    - És erre jöhet az extra hókuszpókusz - amit viszont általában ki szoktak kapcsolni az összes vga-n: élkiemelés, kontrasztosítás, denoise, sharpen, stb...

    2. Kódolás
    Itt viszont lehet és van is minőségkülönbség a paraméterezhetőségből, a számítási pontosságból adódóan, de még akár többkörös kódolás is lehet ami miatt eltér a minőség. Mindez tök azonos bitráta mellett.
    A hw encode eddig ezt nem tudta jó minőséggel, ha jól rémlik, akkor a kvantálás meg 1-2 hasonló lépés az ami kevésbé pontos mint a cpu-n futó algoritmusok. De erre már nem emlékszem pontosan.

    A lényeg, hogy jóval gyengébb videó jön ki a gpu-val kódolva ugyanolyan bitrátán mint cpu-val. Utóbbi viszont nyilván sokkal lassabb... főleg ha több pass van (ami ugye online streamnél amúgy sem járható út).
    Dekódolásnál viszont nincs különbség. A scaling után már lehet, olyan amit 10-ből 9 ember észre sem vesz még szar forrásnál sem. Az utómunka meg feltűnő... mert jó eséllyel inkább ront az egészen. :)

Új hozzászólás Aktív témák