A Microsoft még az év elején leplezte le a kooperatív vektor képességet, amely hamarosan érkezik az új DirectX 12-be, és teljesen szabványos formában teszi lehetővé a neurális leképezést. Ez a fejlesztés olyan sok dologra használható, hogy már most számos olyan kutatás létezik, amelyek bizonyos effektek, ma még szimulált módon való számítását váltanák ki pusztán neurális leképezésre építő technikával. Ezzel önmagában nincs gond, nyilván azért érkezik az új képesség, hogy a fejlesztők használják is ki, viszont amíg a Microsoft eredetileg azt vizionálta, hogy a kooperatív vektor elsődlegesen a textúratömörítésen fog segíteni, a játékfejlesztők saját kutatásait tekintve inkább a sugárkövetéses eljárások kiváltására fókuszálnak.
Hirdetés
Pusztán az elméletet tekintve ez is jó irány, a kooperatív vektor alkalmas rá, és nem ez lenne az első alkalom, hogy a Microsoft eredeti vízióját semmibe veszi a piac, elvégre például a geometry shadert sem arra használták, amire eredetileg készült. Sőt, tucatnyi példa van arra, hogy a Microsoft kitalált valamit, ami önmagában jó volt az aktuális DirectX API-ban, de végül a fejlesztők elkezdték kreatívan használni az adott képességet. Többek között megemlíthető a pixel shader és a részecskerendszerek vagy éppen a vertex shader és a skinning esete, esetleg az alfa csatorna extra adatok tárolására, illetve a T&L adatátalakításra való használata.
Márpedig végeredményben az számít, hogy az adott technikát a fejlesztők mire tartják reálisan használhatónak, és nem az, hogy a Microsoft elméletben mire szánta. A redmondiaknak ráadásul ezzel nincs is gondja, sőt, kifejezetten szeretik, ha kreatívan áll hozzá a piac a lehetőségekhez.
Egy mellékes probléma azért most lesz a helyzet alakulását látva, ugyanis a kooperatív vektor alkalmazását leginkább a memóriakapacitás fogja limitálni. A Microsoft nem véletlenül jelölte meg eredetileg a textúratömörítést, mert ehhez a lehetséges irányhoz nem szükséges nagyon méretes neuronháló, miközben a textúra által elfoglalt hely még csökken is. Ez nagyon fontos a mai VGA-kra jellemző limitált VRAM miatt, ugyanis nem kevés vásárló rendelkezik 8 GB-os grafikus kártyával. Ezekhez nagyon optimális a neurális textúratömörítés, mint irány, de ellenérvként felmerül, hogy a magának a tartalomnak a kikódolása nem kevés teljesítménybe kerül. Önmagában tehát jó, hogy a neuronháló relatíve kis helyet foglal, és az újfajta tömörítéssel a textúrák is, viszont ennek alkalmazása sebességcsökkentést okoz, és pont a számítási kapacitás az, amiből nagyon hiányzik manapság, mert a neurális textúratömörítés mellett még rengeteg, sok számítással járó dolgot kell csinálni.
Tehát hasznos, ha a textúrák kevesebb memóriát igényelnek összességében, de úgy már nem, ha ezek feldolgozása nagyobb sebességvesztést okoz, mintha a klasszikus formában történő textúratömörítés lenne alkalmazva. A végeredményt tekintve ugyanis majdnem mindegy, hogy egy gyengébb VGA a relatíve kevés memóriája vagy a relatíve kevés számítási kapacitása miatt nem tudja megoldani az adott feladatot. Emiatt lehet az, hogy a stúdiók a saját kutatásaikat olyan alternatív alkalmazási területek felé vitték, amelyek nem igazán fókuszálnak a memóriaigény csökkentésére, mert mire valóban alkalmazva lesz a kooperatív vektor, addigra teljesen általános lesz a 16 GB-nyi VRAM. Viszont ha ez a kapacitás megvan, akkor bizonyos, ma még elképesztően teljesítményigényes eljárásokat lehetne kiváltani pusztán neurális technikát alkalmazva, ami a neuronháló szükségessége miatt elvben nagyobb terhelést jelent majd a memóriát tekintve, viszont jóval kisebb számítási kapacitást igényel, azaz némileg több memóriát használna az eljárás azért, hogy végül jóval kisebb sebességvesztés mellett nagyjából meglegyen ugyanaz, vagy egy még jobb minőségű effekt.
A fejlesztők érdeklődése tehát a kooperatív vektor iránt specifikusabb, nem feltétlenül úgy akarják használni, hogy csökkenjen a memória terhelése, annak az árán, hogy többet kelljen számolni, hanem inkább legyen több memória használva azért, hogy kevesebb számítás is elég legyen. Ez önmagában szembe megy a Microsoft eredeti koncepciójával, viszont a maga az új technika tökéletesen alkalmas erre is. Hosszabb távon a programok akár fél tucat effektek is leképezhetnek neurális technikával, amihez a mátrixfeldolgozók megvannak a modern GPU-kban, de a szükséges neuronhálók elfoglalhatnak összességében 4-6 GB memóriát is, méghozzá úgy, hogy semmi más fontos adatot nem sikerült betölteni a VRAM-ba. Ez egyértelmű üzenet a VGA-gyártók felé, hogy érdemes elfelejteni a 8 GB-os VGA-kat, és minimum a 16 GB-ra kell fókuszálni.
Ezen túlmenően érdekes az az irány is, hogy már létező eljárásokat váltanának ki a fejlesztők a kooperatív vektorral. Friss információink szerint nagyon előrehaladott kutatások vannak a saját AI felskálázók területén, amivel elkerülhetnék a fejlesztőstúdiók azt, hogy három, különálló gyártói eljárást kelljen beépíteni ugyanarra a problémára. Bár ezek implementálása viszonylag egyszerű, a tesztelést tekintve már sok pénzt emészt fel, hogy ugyanarra a gondra három különböző megoldás lesz alkalmazva, így minden tesztet háromszor kell lefuttatni, miközben egyik eredménye sem áll elég közel a referenciához, ami elvileg a cél lenne. A kooperatív vektor lehetővé teszi az egyedi neuronhálók alkalmazását, így elég csak egyféle felskálázást beépíteni, miközben ennek az eredménye a lehető legközelebb lesz a referenciához a képminőséget tekintve, elvégre specifikusan olyan adatokból lehet tréningelni, ami megfelelő hátteret ad ehhez. Ráadásul ez nem is fogja még a mai VGA-kat sem megterhelni, hiszen ezek most is alkalmaznak felskálázást.