Hirdetés
Csökkentik a késleltetést, de hogyan?
A technológiai alapok tekintetében az NVIDIA Low Latency Mode-jának Ultra beállítása egy kifejezetten egyszerű ötleten alapszik: egyszerűen nem engedik az új jelenetet a parancslistában pihenni, még egy kicsit sem, hanem azonnal ráerőltetik a GPU-ra. A legfőbb gondot az jelenti, hogy ebből egyáltalán előnyt lehessen kinyerni. Az NVIDIA elsődlegesen azért vette ki régebben a maximum pre-rendered frames opció 0-s beállítását, mert az 1-es paraméterhez képest nem volt ténylegesen érezhető pozitív hatása, miközben számos problémát eredményezhetett. A Microsoft 2012-től nem is írt alá olyan grafikus meghajtókat, amelyek kényszerítik az azonnali jelenetátadást. Ezt még nagyon régen azzal magyarázták, hogy a funkciónak semmi értelme nincs, és potenciálisan olyan feldolgozásbeli gondokat generál, amelyek akadásokhoz vezethetnek.
A GeForce driver Low Latency Mode-jának Ultra beállítása a technikai működés tekintetében nem különbözik attól, amit anno a 0-s maximum pre-rendered frames eredményezett, de van egy fontos tényező, amiben mégis több: az NVIDIA közvetlenül kezeli azokat a problémákat, amelyek működésbeli hibákat okoznának. A Microsoftnak így már nincs különösebb gondja ezzel, hiszen anno a tiltást azért vezették be, hogy a rossz felhasználói élményt elkerüljék, de ha a lehetséges gondok valamilyen más módon ki vannak szűrve, akkor a redmondiak részéről is rendben van a technika alkalmazása.
Az AMD egy alternatív megközelítést alkalmazott a problémára. Nagyon leegyszerűsítve a Radeon Anti-Lag egy módosított Radeon Chill. Utóbbi egy energiagazdálkodásra kifejlesztett funkció, vagyis a jelenetek átadásának ütemezését a felhasználótól származó bemeneti információkhoz köti. Ha például nincs bemeneti adat, azaz nem mozdul az egér, illetve nincs billentyűlenyomás sem, akkor a jelenetek átadása lelassul, ellenkező esetben pedig gyorsul, viszont az egyenletesség minden esetben megmarad. Nyilván az elvi minimális és elvi maximális képkockasebesség beállítható, tehát a rendszer ennek megfelelően szabályozza majd a kalkulációt.
A Radeon Anti-Lag az elvi módszert tekintve ugyanabból indul ki, amiből a Chill, vagyis akkor a legalacsonyabb a késleltetés, ha egyszerre csak egy jelenethez tartozó képkocka számítása történik. Az Anti-Lag ugyanakkor nem felhasználó által generált bemeneti adathoz mérten szabályozza a jelenetszámítást, hanem belső méréseket végez, és arra koncentrál, hogy mikor kell átadni a jelenetet a GPU-nak, hogy az abból számolt képkockára vonatkozó késleltetés a lehető legkisebb legyen.
A fentebb leírtak miatt van az is, amiért a Radeon Anti-Lag GPU-limites szituációban működik igazán, mert akkor van lehetőség a jelenetszámítást megfelelően szabályozni. CPU-limit esetén ugye eleve arról van szó, hogy a GPU vár az adatra, tehát nincs nagyon esély arra, hogy a rendszer megtalálja az optimális jelenetátadási pontokat.
A cikk még nem ért véget, kérlek, lapozz!