Hirdetés

Keresés

Új hozzászólás Aktív témák

  • janos666

    nagyúr

    válasz Teasüti #5246 üzenetére

    Tömörre fogva a kérdést: Van bármi egzakt bizonyítékod arra, hogy akár a consumer (Radedon/Geforce) és/vagy profession grade (Quadro/RadeonPro) VGA kártyákból nem bit-perfect kép jön ki (a megfelelő driver control panel beállítások mellett, ahol letiltasz mindenféle post-process effect-et, ami esetleg aktiválva van alapból)? Az esetleges ditherelést most hanyagoljuk el, mert azt nem hiba, csak "szükséges/kisebb rossz"

    Szabványos digitális kimenetek esetén (DVI, HDMI, DP, stb., de akár HD-SDI) elméletileg nem kéne, hogy bármi különbség legyen a kimenetet biztosító hardware-ek közt (legyen az két különböző generációs AMD, vagy nVidia, akár e kétféle gyártmány egymás mellett; vagy olyasmi, mint a BlackMagic DeckLink kártyák), ha mind "neutrális" kimenetre van konfigurálva (ami általában az alapbeállítás mindegyiknél).
    Sokan állítják, hogy az nV és AMD kártyákból sem referencia jel jön ki (legalább is nem Windows driverrel és Windows asztalkezelővel). Ugyanakkor én erről még sohasem láttam konkrét egzakt mérést, és nehéz elképzelnem a dolgot, mivel nagyon sok nyersanyag készül úgy, hogy ilyen (AMD/nV) VGA-k kimenetein nézik a készítők a félkész, majd végül publikált munkájukat (talán már a vágónál, de a fényelőnél valószínűleg van egy DeckLink szerű kártya [dedikált HDMI és/vagy HD-SDI port(ok) egy külön PCI-e kártyán, amikről külön garantálja a gyártó, hogy "bit-perfect" a kimenő jel - legalább is addig, míg a gyártó saját driverét/szoftverét használod], vagy hasonló, de aki még a nyers CGI részt készíti egy filmhez, az inkább DisplayPort-on [vagy HDMI-n] köt be egy sima PC monitort (nem ~10M HUF-os professional monitort, csak 'valami "már épp használható" ~0.2M HUF monitort -> ami kb. egy nagyságrenddel olcsóbb...). Innentől pedig már nem fog olyan sokat belenyúlni a későbbi művész abba, amit a korábbi munkatársa odapakolt (csak "beleilleszti a környezetbe", de nem építi újra...).

    Szó, mi szó... Szerintem minden kijelzőt egy elméletben referencia képkimenettel kéne kalibrálni (most mindegy, hogy mire bökünk rá, mi nekünk az igazi referencia - 'csak egyetlen igazán pontos óra van az egész Földön'), nem valamilyen véletlenszerűen kiválasztott valamihez. Tehát ha úgy gondolod, hogy a te VGA-d torzít az elméleti referenciához képest, akkor azzal nem is szabad kalibrálni (másik oldalról: 'Mi van, ha hamarabb cseréled le a VGA-d, mint a kijelződet, vagy fordítva?, Akkor úrjra-kaliblálod?'). A kijelzőt lehetőég szerint egy "etalonhoz" kéne beállítani: meg kell próbálni gondoskodni arról, hogy a monitor és a VGA is minél közelebb legyen egy etalonhoz (ami bit-perfect bemenetet és az abszolút referenciához legközelebb komparált mérőműszer legpontosabb alkalmazását jelenti).

    Tehát szó, mi szó, nekem fel áll a hátamon a szőr ettől, hogy XY megjelenítő eszközhöz kalibráljuk a ZW bemeneti/forrásseszközhöz". (Főleg akkor sem, ha egyik eszközről sincs okunk azt hinni, hogy az egy kvázi-etalon).

Új hozzászólás Aktív témák