Mit kínál a LucidLogix?
A LucidLogix számos technológiával gazdagította már a PC-s piacot, de egyelőre ezekből egyik sem vált széles körben alkalmazottá. A Hydra a több GPU-s rendszereket szerette volna forradalmasítani, de már a technológia mellett álló cégek is letettek az alkalmazásáról. Noha az alapötlet nagyon jó, a kivitelezéssel problémák vannak, mivel az objektumalapú feladatmegosztás sok finomhangolást igényel a VGA-k grafikus driverében is, így megfelelő sebesség mellett csak házon belül lehet kivitelezni. A Virtu névre keresztelt technológia már sikeresebb volt, de az asztali piacon a felhasználók nem szeretnek kompromisszumokat kötni, márpedig a rendszer működése lassította a VGA sebességét. Ettől függetlenül sokaknak számított, hogy a dedikált GPU lekapcsolt a terhelésmentes időszakokban, amivel energiát lehetett megspórolni, így ha nem is beszélhetünk kirobbanó sikerről, a technológiát úgymond elfogadta a piac.
A vállalat a Hydra fejlesztéséről alapvetően letett, a terméktámogatás ugyan megmaradt, de a jövőben valószínűleg nem lesz új hardver a technológiához. A Virtu esetében már más a helyzet, ugyanis a rendszert több extrával turbózta fel az elmúlt hónapokban a LucidLogix. Ezek közül a Virtual Vsync-et és a HyperFormance-t reklámozták. Előbbi működését egy korábbi hírben ecseteltük, míg utóbbiról túl sokat nem árult el a vállalat, de elméletben 30-70%-kal képes növelni az adott rendszer teljesítményét, mégpedig úgy, hogy csökkenti a grafikus magra ható terhelést. Ezzel kapcsolatban anno szkeptikusak voltunk, sőt konkrétan még mindig azok vagyunk, mivel nincs konkrét magyarázat, hogy ez miképp működik. Találgatások persze vannak, de azok kapcsán még rengeteg kérdés maradt megválaszolatlanul.
A CES alkalmával szerencsére rengeteg információ szivárog, így sok adatot gyűjtöttünk arról, hogy a HyperFormance miképp működik. A technológia a kötelezően aktív Virtual Vsync mellett kihasználja, hogy egy Virtu driverrel működő rendszeren belül a kijelző az integrált grafikus vezérlőre van csatlakoztatva. Az elméleti működést nehéz lenne szakzsargonnal elmagyarázni, így érdemes az egészet gyakorlati példákkal bemutatni.
Tegyük fel, hogy a csatlakoztatott megjelenítő 60 Hz-en működik, ilyenkor a panel másodpercenként 60 képkockát jelenít meg. A legjobb az, ha a grafikus kártya is szinkronban 60 képkockát számol másodpercenként, de ez kivitelezhetetlen, így ez az érték nagyon változó lesz. Ilyenkor szokott előjönni a képtörés, amit az alábbi ábra szemléltet.
Látható, hogy az első képkocka két helyen is el van törve, vagyis a kijelzőre összesen három képkocka egy-egy része van kirajzolva. Ez ellen lehet védekezni a vertikális szinkron alkalmazásával, ami addig nem küldi ki az adott képkockát a monitorra, amíg az be nem fejezte az előző kirajzolását. Tulajdonképpen így lehet elérni a szinkronizált működést, ám ilyenkor elő lehet hozni az input lag kérdését.
Ha az adott program 60 képkocka/másodperces tempóval fut, és a megjelenítő frissítése is 60 Hz-re van állítva, akkor a beviteli eszközön kiadott parancs és a megjelenített kép között 40 ms telik el, ami az adott szituációt tekintve megközelítőleg két és fél képkocka késés. Véleményünk szerint ez a legtöbb felhasználó számára több mint megfelelő érték, főleg abból kiindulva, hogy az extrém játékosok rétege rendszerint kétutas CrossFire, illetve SLI konfigurációkat épít, melyek AFR technológiát használnak, és a késés ugyanilyen szituációban öt képkockára nő. Nem is beszélve a négyutas kiépítésekről, ahol már 10 képkocka késéssel kell számolni. Utóbbi érték már tényleg sok, így maximum két, AFR módban működő GPU beépítését javasoljuk a felhasználóknak. Persze ebből a szempontból ne írjuk le idő előtt a HyperFormance módot, inkább vizsgáljuk tovább, hogy mit is talált ki a LucidLogix!
A fenti ábrán látható törések rendszerint akkor keletkeznek, ha a GPU gyorsabban számolja a tartalmat, mint ahogy azt a monitor meg tudja jeleníteni. A képen látható, hogy tulajdonképpen három képkocka részletéből lett egy, és alapvetően rögtön adódik a kérdés, hogy a legfelső részt minek is számolta ki a rendszer. Tulajdonképpen a teljes képkocka számítása elhagyható lett volna, hiszen a kép úgyis megtörik, így újra lehetett volna hasznosítani az előző képkocka felső részét. A HyperFormance mód lényegében így működik. Egyszerűen a rendszer még a rajzolási parancsok kiadása előtt eldönti, hogy szükség van-e arra a képkockára, aminek a számítása megkezdődne. Ezt a szoftver kiértékeli, és vagy eldobja a jelenetet, vagy engedélyezi annak továbbadását a GPU-nak, amiből természetesen egy új képkocka születik. Ez önmagában nem hangzik túl jól, hiszen csak a GPU-t mentettük meg némi munkától, de a monitoron megjelenő kép ettől még megtörik.
Az tehát látható, hogy hol lehet sebességet nyerni, de az egész nem ér semmit, ha a kép folyamatosan szétesik. A hagyományos vertikális szinkron alkalmazása lehetetlen, hiszen az már önmagában szinkronizálja a feldolgozást, ami a LucidLogix számára nem jó. Itt jön képbe a Virtual Vsync technológia.
A Virtu csak olyan konfiguráción működik, ahol a VGA mellett ott van a processzorban egy IGP. Az biztos, hogy erre lesz rácsatlakoztatva a kijelző, vagyis aktívan lehetne használni ezt az egységet. Itt szó sincs a számítások megosztásáról, csupán az történik, hogy a LucidLogix kontrollálja a monitorra kiküldött képkockákat. A lényeg annyi, hogy a dedikált GPU dolgozik a számításokon, majd a végső képkocka mindig átkerül az IGP által lefoglalt memóriaterületre. Itt dolgozik a Virtu drivere, és csak azokat a képkockákat küldi ki a monitorra, melyek úgymond teljesek, vagyis a képtörés lehetősége kizárt. Ez természetesen igényel némi kommunikációt az IGP és a GPU között, illetve a rendszermemóriából is használ fel területet, de utóbbiból úgyis hozzá van rendelve egy fix partíció az IGP-hez, így probléma nélkül lehet hasznosítani.
A cikk még nem ért véget, kérlek, lapozz!