Keresés

Új hozzászólás Aktív témák

  • Robitrix

    senior tag

    válasz Robi BALBOA #22 üzenetére

    Ez tényleg így van. Azért alapvetően csoda nincsen. A hátrányok magából a technológiából származnak. Aminek a lényege, hogy az eredeti megjelenítésnél kisebb méretben állítják elő a képet, majd felskálázzák a képet a megjelenítési méretbe. Például kigenerálják a képet mondjuk 1600*900 pixelben majd felhúzzák a megjelenéshez 1920*1080-ra. Vagyis legenerálnak 1,44 millió pixelt. Amit 2,0736 millió pixelen ábrázolnak. Ami azt jelenti, hogy vagy 550 ezer pixelt oda kell álmodni a képre, ami nincsen benne az eredeti képen. Vagyis fikció. Ez persze minőség romlással jár. A dolog lényege, ha kevesebb képpontot kell kiszámolni egy képhez alapban akkor azonos idő alatt több képet lehet kiszámolni. Aztán az FSR, DLSS és hasonló eljárások megpróbálják különféle algoritmusokkal mérsékelni a képromlás hatását. Jól-rosszul. A legnagyobb különbség a kettő közt például, hogy DLSS az az RTX kártyákba bekerült hardver elemeket is igénybe veszi(raytracing) Ezért például nem működik már az Nvidia GTX kártyáin se. Szemben a AMD FSR változatai működnek a Nvidia régebbi kártyáin is. Legalább is a 3.0 előtti verziók, mert a legujabb, amit már nem is FSR-nek hívnak már csak bizonyos radeon RX kártyákon működik már csak. Így nekünk köznépnek akinek nincsen sok százezres RTX kártyája a gépben leginkább marad a FSR 1.0/2.0/2.1/2.2 verzió. illetve a valóságban létezik még az NVIDIA-nak is egy nem RTX hardveren müködő skálázó eljárása, ami használható régi hardveren. A Warzone 2.0-ban például az is kiválasztható. De azért bármilyen felskálázó módot használ az ember minden képen lesz tényleges romlás a megjelenő képen az eredeti nativ előállított képhez képest. Hiszen a nem létező semmiből kell megjelenő valamit csinálni a megjelenő képen. A DLSS szeb képet állíit elő a RTX kártyában levő célhardver miatt. az FSR viszont működik szinte minden ma használt grafikai kártyán gyengébb hardver mellett is.

Új hozzászólás Aktív témák