UT2003
Az Unreal Tournament 2003-mal szinte minden hardveroldal tesztel, nem csak videokártyákat, hanem processzort és alaplapokat is. Ezt a játékot nem szabad és nem is érdemes leírni, hiszen rengeteg játék alapjául szolgál az UT2003-as engine, ráadásul ez egy olyan engine, amelyik képes megizzasztani a kártyákat, csak kicsit jobban kell törődni a teszteléssel. A játék a DirectX 7 idejében készült, azonban elvétve már tartalmaz DirectX 8-as shadereket.
Az UT2003 egy olyan játék, amelyre minden valószínűséggel mindkét gyártó erőteljesen optimalizál. Hogyan lehet ezt megkerülni? Saját demók visszajátszásával és képminőség-elemzéssel.
A játékon belül a grafikus beállításokat a lehetséges maximumra állítottuk (beleértve a trilinear filteringet is), majd 1280x1024-ben szűrők nélkül és szűrők bekapcsolása mellett két kétperces, saját magunk által készített Capture The Flag meccsett játszottunk vissza a "demoplay demo?timedemo" paranccsal. Ezt minden esetben háromszor mértük le, és az átlagot jegyeztük fel, amit a FRAPS-szel is leellenőriztünk. A teljesség igénye végett két beépített flyby demót is lefuttattunk, a dm-phobost és a dm-infernót (méréseink alapján ez a két flyby demó erőlteti meg leginkább a videokártyákat). Így összesen nyolc UT2003-as eredményünk lett végül.
Első körben lássuk a szűrők bekapcsolása nélküli eredményeket a saját demóinkkal.
Mindkét tesztünk szerint az azonos kategóriájú kártyák kb. ugyanolyan eredményeket érnek el, az első demóban némileg jobban "elhúznak" az ATI kártyái, de ezek csak minimális, ~5%-os különbségek, míg a második demóban még ekkora sincs a különbség (~1%). Lássuk a beépített flyby benchmarkokat.
Érdekes esettel állunk szemben, hiszen a saját demóinkkal ellentétben a beépített benchmarkok esetén a GeForce FX5950 Ultra már közel 10%-kal nagyobb teljesítményre képes a Radeon 9800 XT-nél, míg érdekes módon a Radeon 9600 XT továbbra is FX 5700 Ultra-verő. Hogyan lehetséges ez? Elképzelhető, hogy az NVIDIA már az UT2003 beépített benchmarkjaira is optimalizál? A választ nem tudjuk, mindenesetre mi a két saját magunk által készített demót vesszük hitelesnek, hiszen azok a "való életből" lettek felvéve, valós játékkörülmények között. Most azonban lássuk: vannak-e a képminőség terén különbségek.
ATI nincs AA/AF – NVIDIA nincs AA/AF
A három képet végigbogarászva nagyon úgy tűnik, hogy nincs különbség a két gyártó kártyái által megjelenített képek között.
Akkor most lássuk, hogy hogyan teljesítenek a kártyák a bekapcsolt szűrőkkel, amikor a saját demóinkat használjuk!
Az eredmények ismét érdekesen alakultak. Az első teszt szerint a Radeon 9800 XT az FX 5950 Ultránál jóval nagyobb, közel 24%-kal gyorsabb, emellett a Radeon 9600 XT hacsak minimálisan is, de gyorsabb a GeForce FX 5700 Ultránál. A második demó esetében a 24%-os különbség 1 fps-re csökken, és az FX 5700 Ultra beelőzi a Radeon 9600 XT kártyát, kb. annyival, amennyivel az első tesztben az utóbbi kerekedett felül. Mindenesetre a két középkategóriás kártya ezekkel a beállításokkal már súrolja a játszhatóság határát (~30 fps).
Most következzenek a beépített benchmarkok eredményei.
A dm-phobos demóban a a csúcs-és a középkategória esetén is nagyon szoros eredmények születtek, azonban a dm-infernóban az ATI-kártyák egyeduralma egyérteműen megmutatkozik.
Lássuk a képminőséget!
ATI 4xAA/8xAF – NVIDIA 4xAA/8xAF
Az első kép esetén nem vettünk észre semmilyen különbséget a két kártya képe között. A második kép már érdekesebb, hiszen több különbséget is fel lehet fedezni. Először is, ami a legfeltűnőbb, az az NVIDIA esetében a kép bal oldalán látható szigetek pereménél megjelenő sötét sáv, amelyről nem tudjuk, hogy bug-e vagy sem. A második különbség a füst: az ATI képén a füst csóvája sokkal hosszabb, vagy úgy is mondhatnánk, hogy az NVIDIA nem jeleníti meg a füstöt teljes egészében. A harmadik különbség, amely jellemző a harmadik képre is, amit ha játék alatt nem is nagyon veszünk észre, az a vár éleinek elmosása: az NVIDIA ismét nem 4x FSAA-t, hanem 2x-t használ. Harmadik képünkön az FSAA-különbségen kívül mást nem lehet látni.
UT2003-as tesztjeink után nagyon úgy tűnik, hogy a szűrők nélküli használat során a kártyák által megjelenített képek között nincs különbség, ezen felül az fps tekintetében sincsenek óriási különbségek. Ennek szöges ellentéte a képminőség-javító effektek utáni eredmény, hiszen az ATI-kártyák egy kivételtől eltekintve mindenhol jóval nagyobb fps-t képesek felmutatni, mint az NVIDIA-kártyák, és a nagyobb sebességhez szebb lerenderelt kép is jár!
A cikk még nem ért véget, kérlek, lapozz!