Hirdetés
Új hozzászólás Aktív témák
-
Sir Ny
senior tag
,,amelyek minden szempontból forradalmasíthatják a világot."
már várom, hogy minden szempontból forradalmas legyen a világ.
-
Abu85
HÁZIGAZDA
Nem lesz szebb, de nem a technológiával van a baj, hanem az alkalmazott tartalommal. Ezt lecserélve a technológia működik.
Nem hiszem, hogy ha itt lesz az ASTC, akkor kódolni fogják a textúrákat. Be kell építeni a hardverbe az ASTC formátum kezelését, és kész. Onnantól kezdve nincs szükség a textúrák kikódolására, mert megeszik az új hardverek. A JPEG-ből azért kell már formátumot kódolni, mert a JPEG-et nem eszik meg a GPU-k.
Alábecsülöd Carmacket. Ő már azt is látja, hogy milyen problémák lesznek 2015 után, és aszerint egyeztet a hardvergyártókkal a megoldásról. Csak Carmack víziójáért nem éri meg beépíteni a PRT-t. Azért rakta be az AMD, mert nem csak Carmack aggódik a tartalomkreálás egyre magasabb költségein. Ez jelenleg egy vezető probléma a játékiparban. Ugyanis, ha megszakadnak se lesz több pénz a játékok elkészítésére, mint ma, így olyan megoldást kell találni, amivel a mai költségek és erőforrás befektetés mellett szebb grafikát lehet csinálni.
Mivel Carmack nem a PRT működéséhez tervezte a Rage-ben. Ahhoz, hogy implementálni lehessen a PRT-t át kell szabni a teljes megatextúrát, ami nem kevés munkát, és végül egy 12 GB-os patch-et eredményezne. Az AMD persze már három éve tudja, hogy milyen lesz a Rage megatextúrázása, de a vállalat nem ezt a játékot akarta kiszolgálni egy megoldással, hanem egy általánosan hatékony eljárást akart. Erről volt is már előadás a GDC-n és az AFDS-en. A szoftveres megatextúrázás, amit Carmack használ jól össze van rakva a tile méreteket tekintve, de ugyanezeket a tile méreteket implementálta volna az AMD a PRT-hez, akkor az a hardveres megoldás esetében hátrányos lett volna. Nyilván a PRT-hez igazodva a program, majd a szoftveres oldalon szenved némi hátrányt, ha az adott GPU nem támogatja hardveresen a PRT-t.
Nyilván a több hardvergyártó is hasonló következtetésre fog jutni, főleg úgy, hogy Carmack már elmondta, hogy a PRT-re szabja az ID Tech 5 új verzióját és ezzel az újonnan megjelenő játékokat is. Az lehet, hogy a gyártók kiterjesztései mások lesznek egy-két ponton, de ha a hardveres oldalon a feldolgozás hasonló, akkor a kreált tartalom kompatibilis. Végül a PRT-ről lehet készíteni szoftveres implementációt, ahol a régi termékek is működnek. A Leo demóban látható, hogy ez változást nem eredményez a minőségben, de a hardveres PRT-vel a sebesség sokkal jobb. Az egyetlen eltérés, hogy szoftveres PRT-vel nincs hardveres anizotropikus szűrés, ahhoz mindenképpen GCN architektúra kell. Szoftveres szűrést persze lehet írni, amik majd lefutnak a shadereken, így az eredmény megint ugyanaz, csak szoftveresen lassabb.ASTC formátumot alkalmazni hiba lenne, mert azt jelenleg egyetlen hardver sem támogatja. Jövőre jelenhet meg az első. Márpedig, ha ebbe kódolja a játék textúráit, akkor semmin sem futna ma a program, de legalábbis, ha jövőre megjelenik, akkor csak azokon a hardvereken adna képet, amelyek támogatják az ASTC textúratömörítést. Szóval ezzel felesleges lett volna várni.
Igazából nem feltétlenül kell DX11-es Radeon a megatextúrázáshoz. A Leo demó azért nem fut DX11-es kártya nélkül, mert a Forward+ lighting modell DirectCompute alapon van implementálva. Ezt egyébként át lehet írni DX10-re is, hiszen a geometry shader alkalmas a feladatra, csak 10-szer lassabb lesz a kód, amellett, hogy a régi hardverek sebessége sem acélos. Szóval DX11 alatt teljesen értelmetlen már bármit is implementálni, ami erős compute terhelést fejt ki.
Az AMD jól írja a PRT-t csak a GCN architektúra támogatja hardveresen. A többi termék szoftveresen képes támogatni ugyanazt a működést, de hardveresen semmiképp.Az élsimítás eléggé tág fogalom. Ma minimum több tucat megoldás létezik rá. Ezekbe beletartoznak a különböző post-process AA-k is, mint az FXAA például. Szóval konkrét algoritmust kell megjelölni, mert élsimítás alatt érthetünk SSAA-t, MSAA-t, DLAA-t, FXAA-t, MLAA-t, SMAA-t, GPAA-t, GBAA-t, és ezeknek a különböző szűrőkkel és eljárásokkal kombinált változatait, most hagy ne soroljam fel azt a temérdek lehetőséget.
Azzal egyetértek, hogy egy játéknak támogatni kell a fentebb említett megoldások közül legalább egyet. Lehetőség szerint olyat, ami illik a motorhoz. A motorok viszont deferred rendert használnak, és egészen az elmúlt évig nem igazán erőltette meg magát a piac, hogy reagáljon arra, hogy az MSAA, mint megszokott forma nem működik DX9-es kódban. DX10-ben is csak a color subsample nyerhető ki, Z subsample csak DX10.1-től van. De még így is sok a probléma az MSAA-val deferred render mellett. Ha ezeket meg is oldják, akkor is mindegyik render targetre le kell futtatni, vagyis nem egy képkockát kell leszűrni, hanem minimum fél tucatot, ami természetesen a sebességben és a memória használatában komoly terhelést jelent.
A Forward+ lightingot be kell építeni a motorba. Természetesen a régi játékok patchelhetők, csak kizárt dolog, hogy bárki nekiül egy több hónapos melónak, hogy lecseréljék a régi rendert egy újra, csak azért, hogy legyen MSAA támogatás.
Egy dolog miatt rekedt meg a hagyományos forward render hegemóniája az elmúlt években. Egyszerűen túl erőforrás-igényes lenne ezer pontfényforrást 60 fps sebességgel leképezni. Ez hozta magával azt, hogy az elmúlt években a deferred render előnyét, mert ezzel viszont lazán lehet hozni ezer pontfényforrást. A Forward+ lighting algoritmus lényegében ugyanezt valósítja meg forward render mellett, csak nagyon gyorsan. A gyorsaság viszont komplex hardvert is igényel, melyet főleg a compute irány szerint gyúrtak össze. Gyakorlatilag az egész technika azt használja ki, hogy a GCN architektúra borzalmasan hatékony, ha számolásról van szó, míg a régi termékek ezt már nem tűrik olyan jól. Ettől függetlenül a Forward+ lighting megy ezek mellett is, de igazán a GCN-en fut jól az aktuális hardverek közül. Ezt majd a Dirt Showdown-on lehet látni, ami már alkalmazza. A GCN-ek pokolian gyorsak ebben a játékban. -
totyax
aktív tag
Természetesen össze lehet vetni a játékokat
Nem csak hogy lehet, kell is, hiszen mindent a világon csak hasonlítással lehet összemérni.
A Rage-ben a textúrák minősége főleg a JPEG kódolásból ered.
Értem, és most hogy tudom ettől szebb lesz a játék?
ASTC. Valószínű, hogy ez lesz a jövő textúratömörítési eljárása. Legalábbis, amit eddig lehet róla tudni az nagyon biztató. Szóval a minőség az meg lesz oldva, és a helyigény sem lesz jelentősen nagyobb.
Már megint csak a jövő...
Az eredeti felbontású textúrák nyilván megvannak, a jpeg rutin helyett ASTC kell, és már lehet is nyomni a HD patch-et a játékhoz. Persze ilyen nem lesz ugye?
Amikor Carmack elkezdte írni az ID Tech 5 motort az legalább 6 éve volt. Neki volt arról elképzelése, hogy mi lesz 2011-2012-ben. Igazából sokat nem tévedett, de nyilván a technológia megelőzte a korát. (...) Szóval én azért nem hibáztatnám, hogy hat évre előre nem látta meg, hogy nem 2011 szeptemberében, hanem 2012 januárjában érkezik az első hardveres megatextúrázást támogató hardver.
Fogalma sem lehetett róla, inkább fordítva lehetett, az AMD látva min dolgozik szerencsétlen már 6 éve, gondolta belenyom egy nem túl nagy újdonságot a következő kártyájába hogy jobban vegyék, legyen mivel eladni. Mindenki jól jár, a játékosokat kivéve, mert maga a játék még ezzel az új hardverrel sem tud együtt dolgozni még, te írtad, a játék szoftveresen is kell hogy támogassa, de még ez sem old meg mindent, ezt is írtad.
Itt a fő baj inkább az újdonságok varázsától való hasra esés van amit nálad látok, és ezért sem fogunk sosem közös nevezőre jutni, mondjuk neked az életed része hogy folyton nézed az új híreket és magyarázod, lefordítod, cikket írsz belőlük, de most mondok egy példát kitalál valaki egy kurva jó versenyautót ami más elven működik mint a többi, aztán a sofőr (aki profi, mint ahogy a játékos is profi ha sokat játszik) látja hogy jó ígéretes, csak arra nem jó amit kitaláltak, ocsmány, lassú, néha nem megy, néha el se indul stb. Neki aztán magyarázhatnak hogy jó ötlet ez, meg hogy hogy a JPEG motortöltő helyett ASTC lesz, és meg lesz oldva (valamikor...) a nyomaték/gyorsulás probléma... hát... egészen addig nem fogja érdekelni míg egy valóban működő, használható szerkezetet (autót) nem kap.
Tehát egész más az hogy imádom az újdonságokat, olvasom őket, oda vagyok érte, és megint más ha kapok egy félkész ocsmány valamit hogy ez a jövő tessék, egyed. Ja, és valamikor jobb lesz, meg ez a jövő, tehát egyed, szokjad.
Ez a 6 éve fejlesztő emberke inkább várt volna még 1 évet, vett volna ASTC licenszet (ha egyáltalán fizetni kell érte) és egy jóval jobb minőségű játékot tehetett volna le az asztalra, és mindenki boldog lenne.A PRT úgy van megoldva, hogy kompatibilis legyen a régi hardverekkel is. [link] - ez a demó a PRT-re és a Ptexes megatextúrázásra épít, de nem igényel feltétlenül új generációs VGA-t. Fut bármilyen DX11-es Radeonon.
Az én radeonom pont hogy nem tudja a DX11-et, de nem is sírok annyira mikor új játékok is simán kijönnek DX9-el. Mondjuk az AMD a weboldalán a 7x-es sorozat újdonságának írja a megatextúrázás támogatását, de nyilván nem baj, ha támogatják régebbi kártyákon is.
Te mondtad, hogy MSAA-t akarsz újra a játékokban. Az AMD pedig nemrég csinált egy Forward+ rendert, ami ezt lehetővé teszi. Konkrétan megoldották azt a gondot, ami te sérelmezel.
Élsimítást akarok mindegy hogy hívják de az ne utólagos semmi infók alapján összetákolt hókuszpókusz legyen jó kis mosással (FXAA), egy normális világban ki se jöhetne olyan 3D-s játék ami alapból nem tud élsimítást. Ez forward + gondolom megint olyan, hogy a régi játékokban semmit sem lehet vele profitálni, csak új játékokban és vélhetően új hardveren (saccolom ezt látatlanban), hogy vegyék csak az új AMD kártyákat
Kösz az infókat!
-
Abu85
HÁZIGAZDA
Természetesen össze lehet vetni a játékokat. A Rage előnye, hogy mindenhol egyedi textúrát használ, de hátránya, hogy maga a technológia nem illik a mai PC-k felépítéséhez. A Fallout 3 esetében ismétlődő textúrák vannak, amire már évek óta van megfelelő hardver.
A Rage-ben a textúrák minősége főleg a JPEG kódolásból ered. Nem konkrétan a megatextúrázás, mint technológia az oka. Manapság újra előkerült a textúratömörítés kérdése, mert amit ma kínál a DirectX az lassan nem lesz elég. Dolgoznak is a gyártók az új technikákon. Az ARM-nak van egy elég jó megoldása már, amit később be is mutatnak. Ez az ASTC. Valószínű, hogy ez lesz a jövő textúratömörítési eljárása. Legalábbis, amit eddig lehet róla tudni az nagyon biztató. Szóval a minőség az meg lesz oldva, és a helyigény sem lesz jelentősen nagyobb.
Amikor Carmack elkezdte írni az ID Tech 5 motort az legalább 6 éve volt. Neki volt arról elképzelése, hogy mi lesz 2011-2012-ben. Igazából sokat nem tévedett, de nyilván a technológia megelőzte a korát. Ellenben a megatextúrázásra az AMD 2012 elején kidobott egy hardvert, vagyis alapvetően jól jósolt Carmack. Azért 6 évvel korábban megmondani, hogy milyen hardverek lesznek, elég nehéz, de ehhez képest Carmack jól belőtte a fejlődés irányát. Szóval én azért nem hibáztatnám, hogy hat évre előre nem látta meg, hogy nem 2011 szeptemberében, hanem 2012 januárjában érkezik az első hardveres megatextúrázást támogató hardver.
Amit az a demó mutat semelyik játékban nem látod. Így bezoomolni, anélkül, hogy a textúra élessége nem romoljon nem lehet ma sehol. Ez a megatextúrázás érdeme.
A PRT úgy van megoldva, hogy kompatibilis legyen a régi hardverekkel is. [link] - ez a demó a PRT-re és a Ptexes megatextúrázásra épít, de nem igényel feltétlenül új generációs VGA-t. Fut bármilyen DX11-es Radeonon.
Ha szerinted az amit leírtam nem problémamegoldás, akkor semmi sem az. Te mondtad, hogy MSAA-t akarsz újra a játékokban. Az AMD pedig nemrég csinált egy Forward+ rendert, ami ezt lehetővé teszi. Konkrétan megoldották azt a gondot, ami te sérelmezel.
-
totyax
aktív tag
A Fallout 3 nem tartalmaz megatextúrázást
Nyilvánvaló, ezért írtam összehasonlításképp a két játékot összevetendő.
Amit te kifogásolsz az a megatextúra minősége, de ez azért van, mert a mai konfigurációkat még nem készítették fel arra, hogy megoldják a szoftveres megatextúrázással járó terhelést, ezért a minőséget vissza kell venni.
Egyrészt, másrészt ne hagyd ki amit részletesen leírtam, hogy ha nincs lebutítva a textúra minősége, a program mérete is jócskán nő, túl azon a határon amit az ember ésszerűen elfogad egy aktuális szintű játék helyigényeként.
Másrészt nem csak én kifogásolom, hanem nagyon sokan, és nem ritkán sokkal kevésbé visszafogottan.Ha a hardver nem lesz akadály, akkor valami hasonlót várhatsz: [link] - láthatod, hogy elképesztő a textúrázás minősége. Szóval a megatextúrázással nincs baj, csak a megfelelő hardver nincs meg hozzá.
Pedig baj van vele, hogy a jelen állapotában erőltetik ránk. Ha olyan szintet tud hozni grafikában amitől a játékos nem hányja el magát, nyilván nem lesz ellene kifogása a játékosoknak.
A demoban a virág szirmaira zoomolva, a fű marad valami fényképszerű egyentextúra.
Mint ahogy a talaj is körben sacc 2 méteres sugarú körön kívül csak egy zöld paca. Persze tudom (én tudom) hogy a videó tömörítés sok mindent elmos a 720p ellenére is.
A gyártóknak olyan mindegy, hogy megatextúráz-e a motor. Nem ettől lesz eladva a hardverük. Ha nem megatextúráz, akkor is venned kell hardvert. Ezt tehát nem a hardvergyártók nyomják le a torkodon, hanem a szoftverfejlesztők.
Játékokról szó lévén a gyártó alatt a szoftverfejlesztő/kiadó is értendő, vagy ha félreérthetően írtam akkor most írom hogy azok is, nem az AMD írja a játékokat, és attól hogy a 7xxx sorozatban megjelent egy megatextúrázást valamennyiben segítő eljárás, attól még arra nem írhat senki játékot, mert az csak a piac kis szegmensét fedné le.
Ez is bizonyítja, hogy a gyártók nem akarnak lenyomni a torkodon semmit. Keresik a megoldásokat a problémákra.
Szeretnék olyan világot ahol a gyártók az én problémáimra keresik a gyógyírt.
-
Abu85
HÁZIGAZDA
Logikus, hogy így kell, de alapvető probléma is. Ugyanis, ha vissza kell venni a terhelést, akkor az megmenti az adott frame-ek sebességét, de ugyanakkor a kikódolás jelentősen lelassul, vagyis van esély rá, hogy a következő későbbi frame-ek számítása közül pár ezzel együtt bukta lesz, amit már nem lehet megmenteni. Ez ebben a formában problémás, noha tényleg nem kérdés, hogy 15K-s proci mellett egy 100K-s VGA-val előnyösebb.
Ami értékes lenne az az IGP-k befogása transzkódolásra. Az sem mindig előny, de ez egy extra erőforrás, vagyis semmit sem ront le teljesítményben. Ugyanakkor kérdés a compute terhelés. Ma egyedül a GCN architektúrát tervezték komplex terhelésre. A többit egyszerűen nem. Éppen ezért van az, hogy nem mindig lesz/lenne ez sem előnyös.
[ Szerkesztve ]
-
Löncsi
őstag
vt_useCudaTranscode
This is the variable that is tied to the GPU Transcode option in the in-game menu. 0 is off, 1 is on, and 2 is forced, which cannot be set in-game. When the setting is 1, the game continuously monitors the time spent rendering on the GPU and the time spent transcoding textures. If it detects that the game is likely starting to render too slowly, it dramatically cuts back the amount of GPU transcoding to prevent the game frame rate from becoming sub-optimal
Azért ez egy okos dolog, figyeli a terhelést.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Akkor csak előnyös lehet, de nem mindig. A GPU transzkód elveszi a GPU erőforrását. Ha nincs négymagos procid, de van mondjuk egy GTX 580-ad, akkor azzal jobb lehet az eredmény, mint egy átlagos kétmagos procival. Ha csak GTX 560-ad van, akkor már kérdéses, hogy gyorsabb-e. Maga a transzkód gyorsabb lesz, de emellett a grafikát is számolni kell, amivel már lassabb lehet a végeredmény. Nem véletlenül nincs ez átrakva OpenCL-re. Csak olyan esetben van haszna, amikor nagyon gyenge a proci, de nagyon erős a GPU. Ez ugyan előfordulhat, de ha van pénz 100K-s VGA-ra, akkor kicsi az esélye, hogy 10-15K-s proci van az adott gépben.
-
Abu85
HÁZIGAZDA
A Fallout 3 nem tartalmaz megatextúrázást. A terület közel 70%-án ugyanaz az 5-6 textúra ismétlődik. A megatextúra mindenhol egyedi. Sosincs ismétlődő részlete. Amit te kifogásolsz az a megatextúra minősége, de ez azért van, mert a mai konfigurációkat még nem készítették fel arra, hogy megoldják a szoftveres megatextúrázással járó terhelést, ezért a minőséget vissza kell venni.
Az AMD PRT-je, vagy más hasonló hardveres megoldás, illetve az APU-k ebben jók lesznek. Különösen azok az APU-k, amelyeknél a CPU és az IGP koherens memóriát oszt meg. Ezt PRT-vel vegyítve megkapod az ultimate hardvert megatextúrázáshoz.
Ha a hardver nem lesz akadály, akkor valami hasonlót várhatsz: [link] - láthatod, hogy elképesztő a textúrázás minősége. Szóval a megatextúrázással nincs baj, csak a megfelelő hardver nincs meg hozzá.Pedig fontos a pénz, és ez nem profitmaximalizálás. Ma alig költenek rá pár milliót. Egyszerűen 10 milliónál tovább nem mennek, mert sosem hozza vissza a játék azt a pénzt, ami belefektettek. Ugyanezeket a problémákat élte át pár éve az animációs filmek piaca. Ott is egyre erősebb lett a hardver, egyre gyorsabban megoldották a komplex offline render számításokat, így több lehetett a grafikai elem is. A gond a művészi munka volt, ami anyagilag óriási teher. Amiket most látsz újítások mint a Ptex, mint alternatíva nem új. Egyszerűen ez megoldást jelentett anno az animációs filmeknél, teljesen nyilvánvaló, hogy egyazon problémák mellett a real-time rendereknél is megoldás lesz.
A megatextúrázás egyelőre csak kódoltan oldható meg. A Rage 1 TB-nyi tömörítetlen textúrát használ, ami DXT formátumban 160 GB-ot foglal. Ez emészthető a GPU-nak. A lemezen foglalt hely nagyjából 12 GB. Ez nem emészthető, de ezért kódolja ki a processzor DXT formátumba. Később jönnek majd az új generációs GPU-k, ahol fejlettebb textúraformátumok kerülnek bevezetésre, és elsősorban a minél jobb tömörítési arány lesz a cél. Ha erre haladunk, akkor egy idő után nem szükséges a kódolt megatextúra használata. De ez a dolog az APU-kkal megoldja magát. A Rage esetében a terhelést a kikódolás jelenti, és az adatok másolgatása a lassú PCI Express buszon. A jövőben olyan APU-k jönnek, ahol az IGP és a CPU koherens memóriát oszt meg.
A gyártóknak olyan mindegy, hogy megatextúráz-e a motor. Nem ettől lesz eladva a hardverük. Ha nem megatextúráz, akkor is venned kell hardvert. Ezt tehát nem a hardvergyártók nyomják le a torkodon, hanem a szoftverfejlesztők. Ha ők ezt igénylik, akkor olyan hardvereket fejlesztenek, amelyek erre jók. A gyártók fejlesztései mindig is reakciók a szoftverfejlesztők igényeire. Az élsimítás nagyon jó példa. A fejlesztők elmentek a forward renderingről a deferred rendering irányába. Ezzel többnyire nem kompatibilis az MSAA, szóval kellett valami megoldás. Itt jönnek képbe a post-process AA-k. Ez sem a gyártók ötlete volt, csak reakció arra, hogy egyre több a deferred renderre épülő motor. Sőt, az AMD-nek már van olyan megvilágítási modellje (Forward+ Lighting), mely forward render mellett olyan minőséget ad, amilyet a deferred render, és a forward leképzésből adódóan az MSAA tökéletesen működik. Mindez implementálható DirectX 11 alatt, pontosabban DirectCompute 5.0-ban. A Dirt Showdown már ezt használja. Az Advanced Lighting és GI beállítások kapcsolják be. Ez is bizonyítja, hogy a gyártók nem akarnak lenyomni a torkodon semmit. Keresik a megoldásokat a problémákra.
[ Szerkesztve ]
-
totyax
aktív tag
Értettem eddig is az álláspontodat, de akkor lenne igazad, ha mondjuk egy teszem azt Fallout 3, ami a Rage-nál 500x nagyobb területet tartalmaz, 200$-ért árulták volna (a művész díja miatt) a Rage-t meg 0.5$-ért. Ilyen különbség azért meg nem volt. Felfogtam és megértettem amit írtál, de egy dolog az elmélet, és egy a gyakorlat. Ha a grafikai szint visszaesik 10 évet, akkor ne nekem kelljen megmagyarázni miért hányok játék közben
Azt pedig senki ne találja ki, hogy eddig 10 évig attól szenvedtem hogy minden egyforma volt. Nem szenvedtem. Pont a Rage egyforma azzal, hogy ugyanarra a helyszínre visszaküld 5x.
Witcher (1) például milyen szép volt, és nem szenvedtem attól hogy minden egyforma, lehetne sorolni. Pedig azt inkább érzem művészi alkotásnak, ezt meg...Nem az a lényeg hány millió dollárt költenek "tartalomkreálásra". Tök mindegy. 10, 100 vagy 500 milliót, a lényeg hogy legyen rajta megfelelő haszon. Mindig az a baj a kapitalizmusban, hogy fillérekért előállított termékeket aranyáron akarják árulni. De nem én döntöm el hogy életképes lesz-e ez a profitmaximalizáló, cserébe hulladékot előállító technológia (jelen szinten), tehát nem engem kell meggyőzni, hanem azt a sokmillió játékost, aki majd a screenshotokat és a bemutatót videót látva hajlandó-e lesz e ezzel a technológiával előállított játékért pénzt adni.
Az előbb említett példám - tehát hogy ha mondjuk 200GB lenne a telepítő mérete a HD textúrák miatt - is csak elmélet, mert több probléma van vele, pl. hogy mi módon lenne eljuttatva a vevőnek a termék? 25 DVD lemezen? Nane. Bluray-en? Nem elterjedt még.
A digitális továbbítás sem az igazi, mivel terjed az SSD, mondjuk van 128GB-osa lelkemnek, le se tudja tölteni, jó esetben a letöltés el se indul, mert mondjuk a Steam közli nincs hely. Vegyen HDD-t, mert egy játék többszáz GB?
Azonkívül amennyivel nagyobb a textúra mérete, annyival több idő betölteni is, tehát megtöbbszöröződik a kirajzolási idő, és megnövekszik a gyorsítótárazási igény is, tehát nagy valószínűséggel játszhatatlanná degradálódik a játék.Mint fentebb írtam, azzal lehetne megmenteni az egészet ha a belső tereknél visszaváltanának hagyományos textúrázási módra, mivel azt úgyis közelebbről látod, és amúgy sem érdekel hogy "elméletileg hanyatt kéne esned attól mennyire változatos", ha egyszer hánysz tőle.
Persze van a kényszerítés lehetősége, összefognak a gyártók és ezt nyomják le az emberek torkán (eszed nem eszed nem kapsz mást). Mint ahogy a bakelitról áttértünk a sokkal rosszabbul szóló CD-re, vagy a játékoknál maradva olyan grafikus motorral készült játékot adnak el, hogy még élsimításra sincs lehetőség, tehát az eredmény hulladék lesz, nekem az élsimítást semmilyen csicsa effekt nem pótolja (SMAA és társai csak korlátozott lehetőségek).
-
Abu85
HÁZIGAZDA
Próbáld meg megérteni, hogy minél több tartalmat kell feltextúrázni, annál nagyobb terhelés a művészeknek ezt hagyományos módszerekkel megtenni. Lehet, hogy kitalálnak holnap valami forradalmat, és akkor a megatextúrázás és a Ptex eltehető talonba, de egy dolog biztos ... nem fognak egy játéknál a tartalomkreálásra ~100 millió dollárt költeni. 10 millió dollár a max, ami megengedhető. A hagyományos módszereket tehát le kell cserélni. A megatextúrázás és a Ptex formátum jelenleg a legjobb alternatíva arra, hogy a fejlesztés költségei szinten tarthatóak legyenek.
-
totyax
aktív tag
Röviden két dolog, egy, az említett opengl-es nem induló játékok amit itt vettem fel a topikban nem az AMD hibája, a védelmi szoftver egy ismert problémája, mivel válaszoltak a hibabejelentésemre és kipróbáltam ez világossá vált. Kettő, a Rage-t játszva nem értek egyet azzal hogy ez a megatexture dolog a "jövő", szerintem inkább a múlt. A rettenetesen és kifejezetten ocsmány textúrákon semmi sem segít, a sacc 20GB-os telepítőt feltételezve kellett volna olyan 80-100GB-os telepítő méret hogy jobb minőségű legyen, de még így is ugyanazokra a helyekre többször visszaküld mivel kevés a pálya, mert meg lett szabdalva a hatalmas méret miatt. Feltételezve az eredeti pályaelképzeléseket akkor már tarthatunk 150GB-os telepítő méretnél is, és ez egyetlen játék csak. Tehát ez a megatextúrázás max a HDD gyártóknak hatalmaz üzlet (lenne), a felhasználóknak inkább újabb átvágás/érvágás, az újdonság varázságába csomagolt lószar. A szemem előtt kirajzolódó textúrák viszont továbbra sem zavaróak, mivel az csak új helyen, és kevés ideig jelentkezik. Maga a játék mint játék viszont nem rossz. Jobb lett volna ha "hagyományos" módszerrel készül, és nem okádnék folyton az ocsmány textúrákat látva.
-
dezz
nagyúr
válasz
Komplikato #132 üzenetére
Ja, már látom. Azt hittem, valami teljesen másra gondolsz (az AMD 1-2 évvel ezelőtti 3D-s konverencia-képtelefon projektjére [vagy mi is volt az].)
Nos igen, ez igazi hologram és tényleg irtó sok számítás kellhet hozzá.
-
dezz
nagyúr
válasz
Komplikato #132 üzenetére
Hol volt linkelve?
640x480-hoz miért kellene 15 fokonként 50 Mpix? Esetleg összesen. (Mellesleg ez sem igazi hologram.)
-
Komplikato
veterán
Hát a belinkelt videón szerintem egy valódi hologram leképezése látható, csak a gép számolja (rendereli le), ami brutális gépigényű. A HoloVizio 640x480-as képéhez, ami csak oldalirányban szögfüggő azt hiszem 15 fokonként röpke 50 millió pixelt kell kiköhögnie a gépnek, itt meg úgy látom picit jobb volt a felbontás.
-
dezz
nagyúr
Ha kell a teljesítmény és úgyis mindenképpen diszkrét kártyát használsz, akkor szerintem az 1. Illetve a Bulldozer akár ki is hagyható, nemsokára jön a Vishera... Elvileg itt tovább gyorsultak a CPU magok a Trinityhez képest is. A Kaveri kicsit odébb van és ugye csak 4-magos.
[ Szerkesztve ]
-
0519
senior tag
Mit javasoltok, Phenom II -ről merre tovább?
1. AM3+ bulldozer majd vishera?
2. Várakozni az új APUkra?
3. -
dezz
nagyúr
válasz
Komplikato #127 üzenetére
Azt is mutogatták? Nem ismerem közelebbről, de nekem úgy tűnik, sima stereo-3D megjelenítők+kamerák, lényegében egy stereo-3D-s konferencia.
-
Komplikato
veterán
válasz
Komplikato #127 üzenetére
Írom itt a baromságokat, hologram generálás ... vajon visszafelé is működhetne? Lehetne digitális holokamera, ha már a filmes majdnem kipusztult.
-
Komplikato
veterán
Értem én, hogy AMD bemutató és a többi, de a Holokijelző senki mást nem nyűgőz le? Mind a megjelenítési technológia, mind a szoftver/hardver része?
-
dezz
nagyúr
válasz
PsyBeast #124 üzenetére
Mikor hogy... Belépőszinten (ill. mobil vonalon kicsit feljebb) is a (szintén csak belépőszintű) diszkrét kártyát is kiváltja, eggyel följebb kooperál vele (Dual Graphics), afölött pedig valamilyen nagyobb VGA mellett láthat el ilyen-olyan feladatokat (előkészítő műveletek a grafikában vagy [raszter]grafikától független számítások). Jelenleg legalább is ez van.
Jövőre is "csak" nagyjából egy mai HD7750 teljesítményét fogja hozni az akkori AMD APU (Kaveri).
Hogy évek múlva mi lesz, azt majd meglátjuk, mindenesetre egy hétköznapi APU chipmérete mindig kisebb lesz egy komolyabb GPU-nál, ráadásul osztozik rajta a CPU és a GPU rész.
De persze nem kizárt, hogy a hétköznapi APU-k mellett lesznek olyan, "extra igények" kielégítésére szolgáló, komolyabb APU-k, amit ugyanúgy az alaplapra lehet tenni, "extra igények" kielégítése érdekében. Viszont, egy ilyennek méretes memóriamennyiségre és memóriasávszélre van szüksége, amit nem valószínű, hogy alaplapi megoldással érnek majd el. Kérdés, stacking technikával (chipek szorosan egymás mellett vagy fölött, széles buszon összekötve) mit lehet elérni. Van egy olyan érzésem, hogy komolyabb grafikus teljesítményigény kiszolgálására maradnak még egy ideig a diszkrét kártyák... (Az persze lehet, hogy azokon sem sima GPU fog csücsülni néhány éven belül, hanem az is APU lesz, csak "nehézsúlyú" változatban.)
Ezekre akkor nem lesz szükség, ha kvázi minden igényt kielégítenek majd a hétköznapi APU-k is. De ez még szerintem kicsit odébb van.
-
#19617792
törölt tag
válasz
PsyBeast #124 üzenetére
diszkrét VGA-k alsó, alsó-közép szegmense fog előbb-utóbb kikopni, hiszen azok teljesítményét, tudását akár alacsonyabb fogyasztás mellett tudják már a jobb APU-k is. a középkategória, felső-kategória megmarad, hiszen a csúcshajhászás, meg a gyártók közti verseny mindig lesz, illetve a felhaszálói igény.
-
PsyBeast
csendes tag
Én gondolom rosszul vagy az apuban lévő extra mag inkább egy segédprocesszor felé tendál a különböző tehermentesítő stb szolgáltatásai miatt? Ha igazam van akkor miért féltek hogy kikopnak a diszkrét vgak?
-
gyiku
nagyúr
-
Abu85
HÁZIGAZDA
Mindegy, hogy megírják-e. Nem, ha van egy négymagos processzorod. Inkább árt. Elveszi az erőforrást a grafika számításáról, és rárak egy rakás terhet a Rage-ben amúgy is túlterhelt PCI Express buszra.
Ennél sokkal többet csinál a PowerTune. Ha csak ez lenne a cél, akkor azt szoftverből vezérelnék. A cél az, hogy a hardver döntse el a szituációkat, és akadályozza meg a túlterhelést, az esetleges fagyást és 10 ns-on belül értékelje ki a helyzetet. Ha nem ismered, hogy ezt belül a hardver hogyan csinálja, akkor nem tudsz hozzá supportot írni. Ez a gond.
És miért mond ez ellen nekem? A PRT egy hardveresen implementált megatextúrázás, ahogy az előző hsz-ben is írtam. Ahhoz semmi köze, hogy a textúrarészletek ki legyenek kódolva. Ez ugyanis azért kell, mert a mai GPU-k nem emésztik meg azt a formátumot, amelyben a Rage tárolja a megatextúrát. Ha megemésztenék, akkor természetesen semmi kódolási cécó nem kellene.
A PRT implementációja kiterjesztéseken keresztül zajlik. Pinned memory és sparse texture. Csak egyszerűbb teszi az implementálást, de nem váltódik ki a kód jó része.[ Szerkesztve ]
-
totyax
aktív tag
A GPU-s transzkódolás lassabb, mint a CPU-s. Ezért nincs OpenCL-re megírva.
CUDA-ra mégis megírták. Ilyen alapon megírhatták volna openCL-re is.
WHQL nélkül minden driver béta.
A béta nem béta téma az általam említett opengl-es játékoknál kezdődött, azok pedig nem driverek, hanem alkalmazások. Én főleg az alkalmazásokról beszélek, driverek elvileg alapon nem is futnak x64 alatt ha nem aláírtak.
Ray-nek az a gondja, hogy vakon dolgozik egy ideje. Az AMD a PowerTune technológia specifikációját a legnagyobb páncélszekrényben őrzi, mert jelenleg ez a legmodernebb DVFS rendszer.
Nem hinném hogy ez gondja lenne, tulajdonképp annyi az egész hogy ha szükség van a GPU erejére akkor megemeljük az órajaleket, ha nincs, csökkentjük. Ezt az ATT tudja manuálisan is, mert képes érzékelni ha egy 3D program elindul (de ezt a többiek hasonló ATI/AMD vga kezelő util is).
A PRT-vel kevered össze ezt az egészet. A PRT-t támogatják az új generációs Radeonok, de az teljesen más.
Nem hinném hogy én keverem:
[link]
Az új architektúra egyik legérdekesebb újítása a Partially Resident Textures (PRT) eljárás, mely lehetővé teszi a hardveres virtuális textúrázást (ismertebb néven megatextúrázást)
Ha ismerősnek tűnne a cikk az nem a véletlen műveSzóval a PRT lényege az hogy hardveresen (legalábbis driveren keresztül) kiváltódik a kód jó része, ráadásul az anizó szűrés hardveres lesz.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Mivel az OS, amire telepíted a drivertcsomagot az MS-é, így te nem döntheted el, hogy final-e driver. Ha átment a teszteken, akkor megkapja a WHQL aláírást, ami jelzi, hogy a drivercsomag final. WHQL nélkül minden driver béta. Persze nyilván nem tesztelés nélkül küldik el, hiszen, ha nincs aláírás, akkor is ki kell fizetni a WHQL bevizsgálást, csak üres kézzel távozol.
Ray-nek az a gondja, hogy vakon dolgozik egy ideje. Az AMD a PowerTune technológia specifikációját a legnagyobb páncélszekrényben őrzi, mert jelenleg ez a legmodernebb DVFS rendszer. Nem nehéz az alapokat implementálni, de működésre bírni már eléggé necces. Még a gyártópartnereknek sem adják óda a speckókat, pedig ők partnerek, nem úgy mint az ATT.A GPU-s transzkódolás lassabb, mint a CPU-s. Ezért nincs OpenCL-re megírva. Ez akkor ér valamit, ha mondjuk kétmagos Celeron szintű processzorod van, és GTX 580-as VGA-d. Ilyenkor érdemes átrakni a GPU-ra a transzkódolást. Akadni fog, mert megsokszorozódik a PCI Express busz terhelése, de jobb, mintha egy Celeron kategóriás CPU dolgozna. Ennél több előnye nincs. Ha van egy négymagos procid, akkor a GPU-s transzkódolással csak veszít a rendszer, mert elveszi az erőforrást a grafika elől, és még a PCI Express interfészt is túlterheli. Annyit lehet tenni, hogy mondjuk az Intel Ivy Bridge és AMD APU-kra megírják OpenCL-ben, és akkor a processzormagok felszabadulnak, mert az IGP dolgozza fel az adatokat, emellett nem terhelik agyon a PCI Express buszt és a VGA-nak is marad szabad erőforrása a grafika számítására. Ez még opció lehet, de nem biztos, hogy sokat nyernének vele.
A PRT-vel kevered össze ezt az egészet. A PRT-t támogatják az új generációs Radeonok, de az teljesen más. Azzal lecserélhető a szoftveresen implementált megatextúrázás hardveresen gyorsíthatóra. Ettől viszont még a processzornak ugyanúgy át kell kódolnia a textúrákat. De a pinned memory kiterjesztéssel ezeket könnyebb elérni. Mindenesetre ez is inkább csak a Kaveri APU-n működik jól, mert az meg teljesen koherens memóriát oszt meg a CPU és az IGP között. Ami a PRT-nek az előnye az az egyszerűbb implementálás, a bindless-féle textúrázás használata, és a teljes sebességű anizotrópikus szűrés támogatása. Ebből a bindless textúrázás implementálható szoftveres megatextúrázáshoz is, szóval marad az egyszerűbb implementálás és a teljes sebességű anizotrópikus szűrés támogatása.
A PRT bizonyos, hogy segítene a Rage-en, valamennyire, de az AMD technológiája más méretű tile-okkal dolgozik, mint amit Carmackék készítettek. Ezért nincs a Rage-hez patch, mert rengeteg munka lenne átdolgozni a rendszert. Carmack mondta, hogy a Doom 4-et már a PRT-hez igazítják.[ Szerkesztve ]
-
totyax
aktív tag
Pedig eléggé illúzióromboló az ismétlődés. De mindegy ez egyéni igény kérdése.
Ritkán játszok fps-el, csak ha szép és igényes, inkább az rpg-ket tolom, azok meg általában igényesen néznek ki. Bár ma már mindent rpg-sítenek, hiszen az hogy megyek lövök ész nélkül, már a múlt...
Eddig nem esett le az állam a rage-t látva, talán amit felfedezek hogy az utak egyedinek tűnnek, de az ég statikus, és a távoli dolgok képi hatásúnak tűnnek.Az ATT fejlesztője jóval nehezebb helyzetben van, mert vakon fejleszt technológiákra. Nem tudja ráírni, hogy final, mert nem kapja meg például a PowerTune működésének specifikációját. Az AMD rá tudja írni a CCC-re, hogy final, mert megjelenés előtt ők kettő, míg az MS három hétig teszteli és aláírja, ha átment. Egyébként nyilván az MS aláírása nélkül az AMD is bétának tekint mindent. Az MS mondja rá, hogy megfelel-e vagy sem.
Itt egy kis keveredést vélek félfedezni, pedig szerintem te is tudod, hogy az hogy egy program aláírt-e MS által, illetve hogy milyen státuszt (alfa/béta/RC) adott neki a fejlesztő/kiadó, ezek között összefüggés nincs... Mondjuk annyi hogy nem érdemes elküldeni aláírni egy félkész programot. Egy drivert nem tartalmazó alkalmazás futni fog 64 bites rendszeren aláírás nélkül is.
Egy freeware program fejlesztője nem fog csomó pénzt kifizetni a semmiért, ezt maga Ray (ATT) is írta a fórumán, ezért kicsit trükkös az ATT automatikus indítása 64 bites rendszeren, ami viszont megköveteli az aláírást driver esetén.Az AMD végül előállt egy újfajta frissítési rutinnal, mely csökkenti a keletkező késleltetést azzal, hogy egyszerre 50 frissítést hajt végre. A megoldás nem a legjobb, de ahhoz képest, hogy mi volt az eredeti koncepció ... mindenképpen segítség volt.
Ezt meghálálhatnák azzal, hogy a 7x sorozat megatextúra kezelő újdonságához megírnák a szükséges kódot, mert tudtommal la GPU transzkódolás csak CUDA alatt megy. Persze ezt az eljárást csak a 7x Radeon támogatja, az meg még nem nagyon terjedt el. Olvastam igen, hogy opencl-ben lassúnak tűnt megoldani, nem tudom ebben kérték-e az AMD segítségét, mert azt azért több AMD kártya támogatja.
[ Szerkesztve ]
-
dezz
nagyúr
"Nekem eddig valahogy sosem okozott problémát hogy a textúrák ismétlődnek. Tényleg nem, pedig sok játékkal játszottam már. Főleg egy fps-nél..."
Javaslom, kezdj aláírásgyűjtésbe, hogy kedvenc FPS-eidben vagy azok következő kiadásaiban ne alkalmazzák a megatextúrázást... Máshol, ahol pl. egy egész várost szimulálnak és nem agyatlan lövöldözés (már bocs az FPS rajongóktól) a lényeg, ugye azért alkalmazhatják?
"Nem írtam hogy csak ő akar, de ha sokan veszik az integrált megoldásait, akkor logikusan a diszkrétet már kevésbé, és amit kevésbé vesznek abból kevesebb a bevétel, a haszon, csökken tehát a fejlesztési kedv/keret... nő az ár..."
Az APU-k egyelőre a belépő szintű VGA-kat váltják ki (vagy még azokat sem, lásd Dual Graphics), amik amúgy is évekkel ezelőtti fejlesztések átnevezései... Eltelik még nénány év, mire akár csak a középkategóriát veszélyeztetnék ezek, szerintem. Inkább az lesz, szvsz, hogy egyre több feladatot vesznek át a CPU-któl (egyben kibővítve a feladatok körét és mennyiségét).
-
Abu85
HÁZIGAZDA
Pedig eléggé illúzióromboló az ismétlődés. De mindegy ez egyéni igény kérdése.
Igen ez így fog történni ahogy leírtad. De az AMD csak a GPU-piac második legnagyobb szereplője ... az Intel az első, így az ő megoldásaikat veszik majd többen. De lényegében ez fog történni, ami végtére is a VGA-piacot értéktelenné teszi. Csak ezzel nem tudnak mit kezdeni a cégek, máskülönben ők sem néznék, hogy esik az eladás.
Brutális hiba teljesen szubjektív döntésekre építeni. A fejlesztés végén alapvető elvárás a tesztelés. Nem lehet hibátlanra tervezni, de objektív szempontok teljesítése nélkül csak úgy ráírni a kódra, hogy final, egyszerűen felelőtlenség.
Az ATT fejlesztője jóval nehezebb helyzetben van, mert vakon fejleszt technológiákra. Nem tudja ráírni, hogy final, mert nem kapja meg például a PowerTune működésének specifikációját. Az AMD rá tudja írni a CCC-re, hogy final, mert megjelenés előtt ők kettő, míg az MS három hétig teszteli és aláírja, ha átment. Egyébként nyilván az MS aláírása nélkül az AMD is bétának tekint mindent. Az MS mondja rá, hogy megfelel-e vagy sem.
A Rage-nek nem a játékban volt a gondja, hanem az első indításkor a program rosszul mérte fel néha a gépet. Ezért rossza grafikai beállításokat szabott meg. A játék maga oké volt, csak az automatikus paraméterezés nem működött jól. Biztos vagyok benne, hogy a belső teszteken megnézték annyi géppel, amennyivel tudták.
Főleg Radeonon fejlesztették a játékot a végén, mert az AMD mentette meg a PC-s port teljesítményét. Carmack legnagyobb problémája a Rage kapcsán az volt, hogy a textúrák frissítése nagyon lassú. Konzolon a hardver és a memória direktebb kezelésével egyszerűen lehet frissíteni egy adott pixelt, de a PC-n masszív rutinokat kell bevetni, hogy a frissítés végbemenjen. Ez Carmack mérései szerint több mint 10000-szer (nem elírás, tízezerszer) hosszabb időbe került, ami nagy problémát okozott. Az AMD végül előállt egy újfajta frissítési rutinnal, mely csökkenti a keletkező késleltetést azzal, hogy egyszerre 50 frissítést hajt végre. A megoldás nem a legjobb, de ahhoz képest, hogy mi volt az eredeti koncepció ... mindenképpen segítség volt.
A megfelelő drivert a cégek kiadták a megjelenésre. Ahol az automatikus paraméterezés belőtte a rendszert, ott jól ment. -
totyax
aktív tag
A megatextúrázás önmagában azt adja, hogy a játék során soha nem találkozok olyan felülettel, melyet már láttál, mert az egész textúra egyedi.
Nekem eddig valahogy sosem okozott problémát hogy a textúrák ismétlődnek. Tényleg nem, pedig sok játékkal játszottam már. Főleg egy fps-nél... amikor főleg az ellenfelekre kell koncentrálni. Az már észrevehetőbb, hogy ahogy fordulok úgy jelennek meg a textúrák (oké a jövőben majd ha a ködös jövőben olyan hardver lesz...) Az igényesség eddig is megoldható volt, pl területenkénti töltéssel, amikor teljesen új textúrák töltődhettek a gyors VGA memóriába (mikor belépek egy házba pl, vagy más területre érek). Mondjuk ez a töltögetés a Rage-nál is megvan, lehet előre betölt amit tud.
Nem csak az AMD akar integrálni. Mindenki. Ez nagyon fontos.
Nem írtam hogy csak ő akar, de ha sokan veszik az integrált megoldásait, akkor logikusan a diszkrétet már kevésbé, és amit kevésbé vesznek abból kevesebb a bevétel, a haszon, csökken tehát a fejlesztési kedv/keret... nő az ár...Szubjektíven meghozni, hogy egy kód legyen final felelőtlenség. Objektív alapokra kell ezt helyezni rengeteg teszteléssel. Természetesen manapság nem lehet elvárni, hogy minden hibátlan legyen, de az erősen jelzésértékű, ha maga a fejlesztő sem adja rá a final státuszt.
Pedig jobb ha tudod ez teljesen szubjektív. Az objektív tesztelések eredményének összegzése, eldönteni mi fontos mi nem, az pedig szubjektív megint. Azonkívül inkább a kiadó számít mint a fejlesztő, a fejlesztő csak egy szolga, mint a gyárban egy munkás, szava nincs.
A kiadó rizikózik mi jön ki a neve alatt, tehát az ő dolga, vagy legalábbis az ő érdeke a kiadásra jelölt termék tesztelése.
Egy freeware projektnél nincs értelme hazudni, tény. Az ATT fejlesztője se ad már ki jó ideje véglegest, szerintem kényelmi szempontból, mert ha rásüti a programjára hogy béta (amihez képest a CCC-nek alfának kéne lennie) akkor nem jöhet senki problémázni hogy miért rossz ez vagy az benne, lehet mondani, ez csak béta
Teszem azt pont a Rage, mikor kijött mint végleges, szerinted végleges állapotú volt?
Persze hogy nem, ATI-n legalábbis annó nem nagyon tesztelték, vagy nem várták meg hogy még kiadás előtt normális driver jöjjön hozzá. Pedig nem ma kezdték fejleszteni, akkor miért nem tudtak várni pár hónapot, ha eddig az évek sem számítottak?
-
Abu85
HÁZIGAZDA
A megatextúrázásnak önmagában ez nem előnye, hanem az ezzel leképezhető technológiáknak az előnye, mint például a Ptex. A megatextúrázás önmagában azt adja, hogy a játék során soha nem találkozok olyan felülettel, melyet már láttál, mert az egész textúra egyedi.
Nem csak az AMD akar integrálni. Mindenki. Ez nagyon fontos. Ez főleg azért van, mert a processzorok oldaláról a skálázhatóság problémákba ütközik, és egyre nagyobb szerepet kap, hogy a lapka pJ/FLOP aránya legyen egyre kisebb.
Az AMD számára a VGA egy fontos piac. Még ma is fejlesztenek új GPU-kat. Nem szeretnék ők ezt feladni, de nyilván mint cég nem mehetnek el a piac igényei mellett. Ha nem akar VGA-t a piac, akkor nem kapnak. Ennyi. Ezt mindenki így gondolja még az NV is. Ők is értékelik a VGA-t, de ha a piacnak nem kell, akkor ott lesz a Maxwell APU, integrált ARM Denver processzormagokkal.
Konzol eddig is volt. A jövőben is lesz. Ettől még a PC-s játékpiac megmarad.Szubjektíven meghozni, hogy egy kód legyen final felelőtlenség. Objektív alapokra kell ezt helyezni rengeteg teszteléssel. Természetesen manapság nem lehet elvárni, hogy minden hibátlan legyen, de az erősen jelzésértékű, ha maga a fejlesztő sem adja rá a final státuszt.
Igazából az ARB_vertex_buffer_object hiányával sem kellene visszatérni, amikor ott van a driverben. De nem hiszem, hogy fel lehetne róni, mert alpha a kód. Számítani kell, hogy bajok lesznek. Majd a final ...
-
totyax
aktív tag
Aludni hasznos dolog.
Leírtad hogy mi az előnye a megatextúra eljárásnak, röviden: csökkenti a fejlesztési költségeket. Kösz.
Nem tudom számít-e a jövőt illetően, az AMD valamiért egyesíteni akarja a GPU-t meg a CPU-t, kivágva a fát ezzel a diszkrét GPU-k alól, és ezáltal ez alól a piac alól is. Az hogy valahol a ködös jövőben ez az integrált szolgáltatás működni fog megfelelő sebességgel (mai modern diszkrét GPU sebességével), az csak a jövő. A lopások miatt konzolra fejlesztenek inkább, ez se a PC malmára hajtja a vizet. Ami új játékok jönnek...némelyik 10 patch után is katasztrófa. Mi lesz a jövő... ezt nehéz megmondani. Hiába lesz alacsonyabb a grafikus fejlesztési költsége, ha egy jowood szintű cég karol fel egy fejlesztést, a végeredmény borzalmas lehet.Nem akarok beleszólni, de ugye látod, hogy két olyan játékot adtál meg, amelyek még a fejlesztők szerint sincsenek készen. Az egyik alpha kód, míg a másik béta.
Mint programozni tudó..., bár szerintem alapismeretekkel te is rendelkezel, az hogy valami alpha vagy beta állapotúnak van cimkézve, vagy hogy mi a verziószáma, az teljesen szubjektív döntés. Pont fentebb írtam hogy sokszor készként kiadnak olyan terméket, amit még alfa állapotúnak sem nagyon lehet nevezni.
Teljesképernyős módban elindítani egy opengl játékot, az szerintem már a legeslegelső kódban is működőképes kell legyen
Két opengl-es programot feltételezve ugyan csak elgondolkodhatok azon hogy nem-e az opengl driverrel van gond. Olvastam ilyen problémát az egyik játék fórumán, és a válasz az volt, a rendszer merevre fagyását egy egyszerű felhasználói program nem okozhatja (NT alapún nem), ez vagy driver (Vista/Win7-en elvileg szintén nem) vagy OS gond lesz (nem OS gond).Közbe kísérleteztem, és lehetséges hogy nem az AMD oldaláról van a gond, vagy nem csak az ő oldaláról, mindenesetre a hibajelzést megtettem, várom a visszajelzést.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nem arra reflektáltam, csak felvezettem, mert neked ez valamiért fontos. Azt, hogy nem látsz valamit még fontos technológia lehet. A játékok fejlesztése addig gazdaságos, amíg a befektetés visszajön. Ennek megfelelően nagyon kellenek az olyan technológiák, amelyekkel a művészek dolga megkönnyíthető. Ez a kiadásokat csökkenti. A megatextúrázás és a Ptex az alapja annak, hogy a művész a ne töltsön el azzal 5 órát, hogy tökéletesre feltextúráz egy modellt UV mapokkal. Egyszerűen illessze rá, mentse le és pár kattintással kész is. Ezt UV mapok mellett lehetetlen megtenni, mert el kell tökölni a füllel például. Ez egy nagyon kellemetlen dolog. Ha pedig esetleg a modell nem csak egy részletességi szinten készült el, akkor például a tesszellált modellre is el kell végezni ugyanezt.
Carmack látja, hogy ha a jelenlegi technológiákat viszik tovább, akkor a grafika művészi kidolgozásába fektetett időbeli és humánerőforrás exponenciálisan növeli majd a fejlesztéssel járó anyagi terheket. Az újítások nélkül finanszírozhatatlanná válnak a művészi tervek, ami a grafikai szint stagnálásához vezet majd. Mindegy, hogy a hardver mit tud majd, a kiadások 100 millió dollár fölé is rúghatnak. Ez nem érdeke a piacnak. Ugyanezen a problémát átesett már a filmipar az animációs filmek fejlesztésénél. A részletesség növelhető a hardverek fejlődésével, de a költségek ezzel brutálisan nőnek. A Disney erre az évek során rengeteg technológiát dolgozott ki, melyek csak azt a célt szolgálják, hogy a költségek megfelelő szinten legyenek tartva. A Ptex is az ő ötletük. A játékfejlesztés is hamarosan elér oda, hogy valamit be kell vetni.Nem vitát akarok kirobbantani, csak feltételezem, hogy ha nálunk működik, akkor elég kicsi a valószínűsége, hogy másnál ne menjen. Főleg egy általánosan leprogramozott szolgáltatás. Persze nem zárható ki, csak ki kellene vizsgálni.
Nem akarok beleszólni, de ugye látod, hogy két olyan játékot adtál meg, amelyek még a fejlesztők szerint sincsenek készen. Az egyik alpha kód, míg a másik béta.
Szerencsére ingyenesek, szóval leszedtem őket. A Pioneer még a GeForce GT 240-en is keresi a ARB_vertex_buffer_object kiterjesztést, ami egyébként a Geeks3D check programja szerint ott van a driverben, szóval nem értem, hogy miért nem találja. A Radeonra nem ír semmit. Egyszerűen csak áll, de feltételezhetően hasonló baja van. Nyilván azzal nehéz mit kezdeni, hogy egy program keres egy kiterjesztést, ami ott van a driverben. Ezt a fejlesztőknek meg kell oldani. Többet nem töltöttem ezzel a programmal.
A Warzone 2100-ból szintén megkerestem a 3.1 beta 10-et. A GeForce-on és a Radeonon is elindult. Az egyetlen probléma, hogy random fagyok a menüben, kiválasztott VGA-tól függetlenül.
Szerintem nem véletlen, hogy egyik programnál sem final a kód. A fejlesztők is tudják, hogy nincs kész.[ Szerkesztve ]
-
totyax
aktív tag
válasz
FireKeeper #107 üzenetére
Hol írtam én olyat hogy ha nálam szar mindenkinél szar kell legyen?
-
totyax
aktív tag
Nem kell fannak lenni ahhoz, hogy meglásd ez a jövő. Nem pont ebben a formában, de Carmack lerakta az elvi alapokat.
Nem ezért írtam hogy fan vagy (az millió más dologból látszik, és nem is baj, van aki a virágokat szereti, van aki alkoholista, van aki drogozik) de nem látom hogy tulajdonképp ennek a megatextúrázós dolgonak mi lenne az előnye, hogy emiatt jövőnek kellene lennie a nem fanok számára is.
Mondtam már, hogy nálam betölti az OpenGL alkalmazásokra is a beállított profilokat, és máshol is kipróbáltam. Ha neked ez nem jó, akkor az specifikus probléma.
Ez a logika hogy ha "nálam jó", akkor mindenki másnál user error, ez nálam nem jön be. Ha a CCC képes érzékelni hogy elindult egy olyan program ami a profilokban meg van adva, és a beállításokat képes érvényesíteni is DX -es játékoknál, akkor ha ezt OpenGL-es programoknál nem tudja, akkor ez feltehetőleg a CCC hibája. Ha DX -es játéknál se tudná, akkor lehetne gyanakodni valami egyéb hibára. Megelőzendő a további szópárbajt maradjunk abba hogy ez user error, és felthetőleg én programoztam le az érintett CCC kódrészletet azért szar. Tehát innentől vita nincs
Melyik OpenGL játék elindítására fagy szarrá?
Nem próbálgatom végig az összeset, mert 2-3perc minden rendszerindulás, de amit néztem az Pioneer alpha 23, Warzone 2100 3.1 beta10, ja és csakis teljes képernyős módban indulva, amúgy nincs gondja.
Ja igen, ez persze nálad működni fog, tehát specifikus probléma, tehát user error -
SylverR
senior tag
válasz
FireKeeper #104 üzenetére
Engem?
-
SylverR
senior tag
válasz
FireKeeper #100 üzenetére
Úgy voltam vele, hogy nem írom le, de most mégis csak.
Bár nem ide tartozik, szal offba megy.
A lényeg, hogy nekem egy 2000-res dátumú oprendszer (sp3-as xp) alatt fut egy 2004-es vga, egy 2010-es driverrel, és az opengl bizony szívás. :\
Amíg a 2008-as fullos packot raktam fel, ccc kihagyásával, addig ment minden. Kivéve, hogy az OpenGL verzióm 1.1 volt.Aztán frissítettem egy 2010-es driverre, azzal már 1.6-os, és gyorsak a opengl programok, viszont a videójátszás problémás, és betud hülyülni az asztal megjelenítése tőle. Valamint a ram használat is begajdul... Normál esetben 400 mb-on állt ha bezártam mindent, most 600-on.
Szóval bár nem igazán voltak gondjaim az ATi drivereivel a múltban, de ezt most elkell ismernem, hogy itt valami nagyon nincs rendben.
Természetesen azt érdemes figyelembe venni, hogy nagyon régi oprendszeren, régi kártyával, új driverrel jön elő a gond. -
Abu85
HÁZIGAZDA
Az a pár dolog nem túl sok sajnos. Többet kellene segíteni, de mindegy, mivel az új verzió már elég jól belövi az adott géphez a beállításokat.
A GPU főleg azért malmozik, mert el kell mennie a rendszermemóriába a textúrákért. Nem egy gyors elérés ez. Az anizó amúgy fontos, hogy nem hardveres megvalósítás. A shaderek számolják. A szoftveresen megalkotott megatextúrázás átka, hogy nem kompatibilis a hardveres anizó szűréssel. Ezért van csak 4 mintáig az anizó lehetősége, mert hagyományos 16x opcióval már nagyon nem lenne acélos a teljesítmény shaderból számolva. Ezen az új generációs Radeonokban előkerül PRT segíthet. Ha ezekkel van implementálva a megatextúrázás, akkor működni fog a hardveres anizó szűrés is. Már mondta Carmack, hogy a Doom 4-et erre szabja.
Igen a textúrák foglalják a legtöbb helyet. Kitömörítetlenül a Rage 1 TB-nyi textúrainformációt tárol. Ez DXT-ben 160 GB, ami még mindig nem lenne jó a mai optikai adathordozók szintjén, és így jön képben a JPEG kódolás. Ezzel a megatextúra mérete 12 GB körülire csökkent. Ennek az átka, hogy ki kell kódolni a processzornak a megatextúra éppen használt szeleteit.Nem kell fannak lenni ahhoz, hogy meglásd ez a jövő. Nem pont ebben a formában, de Carmack lerakta az elvi alapokat. Ezen az úton lehet menni tovább és jöhet a Ptex, a hardveres megatextúrázást támogató hardverek, és akkor a tartalomkreálás idő- és erőforrásigénye töredékére esik. Carmack mindig nagyon jól látja meg, hogy hol van az, ahol a limitációk születnek. A jövőben nem a hardver teljesítménye határozza majd meg a játék grafikáját, hanem az, hogy melyik fejlesztőcég tud ~100 millió dollárt elkölteni tartalomkreálásra. Nyilván senki, vagyis kell találni olyan technológiát, amivel a kiadások erősen csökkenthetők, és a grafika részletessége növelhető. Itt jön a Ptex és amegatextúrázás. Ezek tűnnek a legjobb alternatívának jelenleg, de most egy olyan időszakot élünk, hogy lehet hozni az innovatív ötleteket éveken belül szükség lesz rájuk.
(#101) totyax: Mondtam már, hogy nálam betölti az OpenGL alkalmazásokra is a beállított profilokat, és máshol is kipróbáltam. Ha neked ez nem jó, akkor az specifikus probléma.
Melyik OpenGL játék elindítására fagy szarrá?[ Szerkesztve ]
-
totyax
aktív tag
válasz
FireKeeper #100 üzenetére
Pont a CCC a legfőbb hulladék
Amíg nem használtam a CCC-t nekem sem volt vele gondom, ez tényleg döbbentes
De az hogy pl egyes opengl játékok indítására úgy reagál a rendszer hogy szarrá fagy - pedig win7/vista alatt az elméletileg nem is lehetséges, ez volt az egyik nagy újítása a vistának hogy egy grafikus driver hibája ne rántsa magával az egész rendszert - az mégiscsak csöppet kellemetlen hiba. Profilokat sem tud betölteni opengl játékokhoz...
-
totyax
aktív tag
A kettes patch-ben már be lehet állítani pár dolgot manuálisan, a program opcióiból szabványosan. Vannak parancssori/cfg opciók is, de nem piszkáltam mivel "csak" kétmagos procim van. Amiket írsz azokat már olvastam (tán tőled is). Maguk a textúrák nem lesznek szebbek semmi módon, van egy "textúra szépítő" opció a beállításokban, de az csak élesít valamelyest az ocsmányságon (maga a textúra persze nem változik), én be sem kapcsolom mert az már érzetre sok fps-t csökkent. Viszont 4xAA max anizó, és a GPU malmozik.
A textúrák eleve nem HD-k így is rettentő nagy helyigénye van a játéknak, olvastam hogy szándékosan rontották le a minőségét hogy még se 100GB vagy több legyen a játék. A külső terek viszont szépek, bár az ég fájóan statikus hatást kelt. Lehet ezt kellett volna csinálni hogy a megatextúra csak külső tereknél legyen, bent hagyományosAz hogy belső tereken az ember legszívesebben elhányná magát azt pár embertől már olvastam, de megélni mégis megdöbbentő. Inkább igénytelennek tűnik. Az emberek viszont nagyon jól ki vannak dolgozva.
Nem kell "sokáig" a helységben tartózkodni, második körbefordulásra már nincs előtted kirajzolás.
Maga a technológia félelmetesen jó, csak a hardverek még nem készültek fel rá.
Ezt inkább nem kommentálom, én nem vagyok ATI fan
-
Abu85
HÁZIGAZDA
Mert a motor lovi be a grafikai szintet és nem te. Na de ott van az, hogy mi van akkor, ha rosszul lőtte be. Meg vagy lőve, mert manuálisan nem lehet rajta változtatni.
Persze a megatextúrázás területekre osztott, ha egy területen sokáig tartózkodol, akkor a processzor a már átkonvertált szeleteket nem fogja újra feldolgozni. Ezért jó másodjára. Majd ha arrébb mész valamennyit és visszatérsz, akkor újra dolgozik a processzor.
Ezek tipikusan az erős megtextúrázás gondjai, majd az integráció segít rajta. Maga a technológia félelmetesen jó, csak a hardverek még nem készültek fel rá. -
totyax
aktív tag
-
#19617792
törölt tag
-
Abu85
HÁZIGAZDA
válasz
#19617792 #92 üzenetére
Kizárt, hogy az Anand modokat pakol rá. Igazából nem illik tesztekben, mert egyik modra sincs garancia a működésre. Bár magára a programra sem, de ott van hol reklamálni.
Mivel ez benchmark, így minden rendszer ugyanott teljesített. A különbség itt a GPU és a driver. A termékek is teljesítmény szerint skálázódnak azonos gyártó mellett. -
#19617792
törölt tag
a MineCraftnál nagyon sok mindentől függ a teljesítmény. Java verzió, MineCraft verzió, vannak-e modok, milyen a map, stb. főként a Javatól függ, hogy miképpen megy, mert ha a Javanak éppen jókedve van, akkor jól megy, ha nem, akkor minden megeshet. illetve az 1.2 előttiek szintén kicsit erőforráspazarlóbbak voltak (GC nem volt túl hatékony bennük).
hirtelen megfordulásokat nem szerette. az volt, hogy ment, ment, szép folyamatosan, aztán hirtelen bezuhant az fps csúnyán, aztán megint ment sokáig szépen. nem volt probléma a chunk betöltés sem, mert amikor szépen ment, akkor nagy távokat is megtettem, tehát chunkokat töltött be rendesen.
mondjuk a MineCraftnál nem szoktam meglepődni érdekes jelenségeken, mikor random kihagyja a chunkokat betöltéskor.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A Rage-nek más baja volt. Nem a driver miatt akad, hanem amiatt, hogy a motor rosszul mérte fel a PC képességeit. Na meg ki kellett volna írni a játék elejére, hogy rakj alá négymagos procit, mert gyorsan át kell kódolni a JPEG textúrákat DXT formátumba. Ezt sajnos a processzor csinálja meg. Kétmagos procival sok szerencsében nem volt része a felhasználónak. A patchek javították a motor automatikus paraméterezésén, ami nagyjából már jól működik. A GPU terhelése a Rage alatt nem valami komoly. Egy mai 20-30k-s VGA-val is elmegy maxon, ha van mellette minimum egy erősebb négymagos processzor. Kétmagos procival szívás. Még a hárommagos is, bár az talán még elmegy.
(#85) EarL 007: Érdemes megnézned ezt: [link] - nem a hardverből szedi össze a Llano IGP-je a kétszeres előnyt a DX programok alatt rendre gyorsabb GeForce GT 440-hez képest. Egyszerűen az AMD a nulláról újraírta az OpenGL drivert még négy évvel korábban. Azóta erre építenek. Időben és a befektetett erőforrás szempontjából nagy szívás volt, és rengeteg volt az elején a probléma, de mára az újraírt alapok előnyt jelentenek.
[ Szerkesztve ]
-
#19617792
törölt tag
válasz
atti_2010 #83 üzenetére
egy AMD fanatikus tollából mást nem is várhattunk volna. az akkor szerinted mi, hogy AMD-nél a mai napig egy kisebb vicc az OpenGL támogatás (az egy dolog, hogy papíron tudja, de normális sebességgel még nem láttam működni). és az mi, hogy kétmonitort egy HD5 előtti karival használni kész agyrém, mert nem lehet normálisan konfigolni? és a Vision Control Center az mi? egy tetűlassú borzalom. AMD fizet neked a hihetetlen mértékű rajongásért? az Intel grafikus driverei szintén vicckategória... az csak szimplán nem tud semmit.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
atti_2010 #80 üzenetére
Túl sokat az Intel nem tud tenni. Ők nem írhatnak drivert az IGP-hez, mert nem ők fejlesztették. Egyszerűen bele kell törődniük, hogy ez ilyen lett. A Clover Trailre és a Windows 8 támogatásra kell koncentrálni. Pontosabban ütni a fejét az ImgTec-nek, hogy csinálják meg most az egyszer jól.
[ Szerkesztve ]
-
totyax
aktív tag
Ez mind szép, csak az a gond hogy az AMD nagy ívben szarik a felhasználókra. Ha teljesen alapvető dolgokat nem tudnak megoldani, amit más röhögve igen, akkor szerintem ne akarjanak rengeteg új funkciót, kezdjék azzal hogy nézzenek körül saját házuk táján és tegyenek rendet...
-
Alchemist
addikt
Biztosan lesz még fejlődés az APU és párhuzamosítás témában, különösen ami az egyszerűsített megoldásokat illeti.
De sok esetben továbbra sem lehet majd megúszni a kézimunkázást... pl. egy erősen szelektív játékfa feldolgozó algoritmussal sokszor két CPU magra is meg kell dolgozni azért, hogy 70 % körüli nyereség legyen belőle az 1 maghoz képest... vagy 4 magra 100-120 %-os növekedés (a HT ilyenkor inkább felejtős, mint hasznos).
-
dezz
nagyúr
válasz
Alchemist #64 üzenetére
A HSA egyik célja, hogy nagyrészt elkerülhetővé tegye az egyes GPU/APU(/CPU) architektúrákra való külön optimalizációt.
Az OpenCL-es fordítók még nem tudnak ilyesféle automatizált SIMD-esítést (vektorizálást) és talán később sem fognak tudni. Az egész eleve vektoros feldolgozásra épült (de lehet persze skaláris műveleteket is végezni).
(#65) Taragas: Szerintem néhány évig még biztos nem fognak kinyíródni. Hiszen még bőven nem értük el azt a szintet, aminél már egyszerűen nem kell több. És itt most csúcskártyákról beszélünk, nem belépőszintről, ami befér az APU-kba. Szerintem az APU-k a komolyabb konfigokban egyelőre ilyen kiegészítő dolgokat fognak számolni.
Persze, hogy többről van szó! Ahogy azt már jópár éve mondjuk.
(#66) dfsz34: Írtam már többszálas programot. Erősen feladatfüggő, mennyire bonyolult vagy nem bonyolult. Sok olyan feladat van, főleg desktopon, ahol nem különösebben bonyolult.
Egyébként pl. a játékprogramokban a grafikai shaderek ezrei futnak párhuzamosan a GPU-kon már ma is.
(#73) SylverR: Az csak a CPU magokat veszi számításba. Szóval, tulajdonképpen már "elavult"...
[ Szerkesztve ]
-
SylverR
senior tag
Nagyjából azt, hogy hány lebegőpontos utasítást képes elvégezni egy másodperc alatt ha jól tudom. A 80-as évek csúcsgépei a Crayek pl még GFlops-os teljesítménnyel bírtak. Ez most már 1 TFlops. (kb 1000x)
De ha nem elég pontos vagyok, majd kijavítanak és lehülyéznek úgyis.nalátom, megelőztek
[ Szerkesztve ]
-
DraXoN
addikt
Egyébként valamelyik oldalon tesztelték az OEM bullutódot (trinityben) és azonos órajelen, egy szálon turbó nélkül egyes esetekben 15%-al gyorsabb a piledriver a bulldozernél (főképp multimédiában, videó feldolgozás, 3D programok)..
Szerintem ez nagyon nem rossz 2 generáció között úgy, hogy a tesztelt utódnak L3 gyorsítótára sincs.#67: Annyit jelent, hogy ki****ott gyors
[ Szerkesztve ]
-
fesii
aktív tag
1 TFLOPS Ez mit is jelent? Paraszti nyelvre lefordítva...
Tudom ott a google de ti általában gyorsabbak vagytok[ Szerkesztve ]
-
dfsz34
őstag
Vannak alkalmazások, amik párhuzamosíthatóak könnyen és vannak, amik nem. A használt szálakkal párhuzamosan szerintem legalább lineárisan ha nem exponenciálisan nő a programozás bonyolultsága. Mondjuk ahhoz hasonlítható, hogy amikor telefonálnod kell 4 embernek, akkor nem leszel előbbre, ha veszel 4 telefont, hanem mondjuk el kell magyarázd a feleségednek, hogy mit mondjon és akkor esetleg egy-két hívást le tudsz neki passzolni, de van benne bonyolultság ugye.
Vannak persze kivételes emberek, ismertem egy olyan srácot még a bátyámmal volt katona, aki egyszerre tudott egy egész kocsmaasztalra figyelni, amit mondtak vagy kérdeztek tőle de utána válaszolni ő is csak egyesével tudott. Volt is a ki mit tudban, de ez kivételes képességű ember, meg tudja osztani a figyelmét
-
Taragas
aktív tag
Ha már itt tartunk, sztem ahogy abu is mondja az intel is abba fogja hagyni a túlzott proci erő fejlesztést, mert ők is zsákutcába futnak, és rágyúrnak az IGPre, ahogy az úti tervükből is látszik. Ellenben az AMD fejleszti a procit is, és éves szinten kb 10-15%-os javulást ígér, tehát 2-3 év és kb egy szinten lesznek. Kb addigra terjed el igazán a IGPre való programozás is. Az a kár igazából, hogy egyenlőre viszont az erős CPU erő a fontos, és abban az intel verhetetlen. Bár egyre jobban belátom én is, hogy az erő nem minden. (Fontosak pl a szolgáltatások, amiben az AMD elég jó.)
Engem inkább az zavar, hogy kinyíródik a dVGA piac, és ezt már egy párszor ecseteltem. Ha valami a fizikát számolja, akkor hogy fogja a grafikát. Erre igazán meghagyhatnák kooprocesszornak a diszkért kártya piacot. De amúgy ez benne is van a cikkben csak árnyaltan és csak konkrét plédára kivetítve, pedig többről van szó: Steven Bathiche elmondta, hogy az APU-k megjelenésével teljesen másképp kell gondolni az integrált grafikus vezérlőkre. Sokan még mindig egy megjelenítésért felelős részegységet látnak benne, de a jövőben az általános számítások mellett a beviteli információkat is az IGP dolgozza majd fel, legyen az gesztus-, hang- vagy mozgásfelismerés.
[ Szerkesztve ]
-
Alchemist
addikt
Nagy kérdés, hogy mennyire lehet majd "könnyű kézzel" optimalizálni APU-ra különféle algoritmusokat... sokan úgy használják a SIMD kiterjesztéseket is, hogy beállítják a fordítónak egy kapcsolóval, használja ezeket is az optimalizációnál.
Ilyenkor kérdéses, hogy ez az automatikus gépi optimalizáció mekkora gyorsítást jelent, ha egyébként a forráskód igazán nem veszi figyelembe az architektura specialitásait... mert az órabérben dolgozó programozók többnyire utálnak kódot reszelgetni, ha nem kifejezetten ezt kérik tőlük... és ha persze értenek is hozzá. -
#19617792
törölt tag
válasz
FireKeeper #58 üzenetére
hát ebben van valami. de nem biztos, hogy mániákus cserélgetős az illető aki 3770K-t vesz, lehet azért kell neki, mert egyszer akar venni egy jót, aztán rá se néz évekig a piacra. pl. én megvettem az i5-2400-at, felőlem jöhet IB-nek, Trinitynek is utódja, amíg nem érzem kevésnek az i5-öt, addig cserélni nem fogom.
-
FireKeeper
nagyúr
"én konkrétan a 1155-re mondtam, hogy szerintem az okos húzás volt"
inkább úgy fogalmaznék, hogy ha nem csináltak volna kompatibilitást, azt lett volna nagyon rossz húzás"az ereje még 5 év múlva is jó lesz"
ezt majd még meglátjuk"Az AMD procik ha így folytatják a fejlesztésüket, akkor talán 5 év múlva érik el a mostani 3770k erejét."
még mindig csak mint CPU tekintesz ezekre a cuccokra. pedig ezek már APU-k, itt a nagy képet kell nézni. ha így gondolkozol, nem is értem miért az APU-k között keresgélsz"Nem tudom, hogy ki hogyan van vele, de nekem nagyon nagy visszatartó erő az, hogy ha nagyobb teljesítményt akarok, akkor adjam el az alaplapot aztán vegyek újat. De lehet, hogy csak én vagyok öreg már az ilyen folyamatos gépcserékhez."
úristen, az AMD belefutott egy bakiba, és új foglalat lesz a procihoz, katasztrófa van. ahogy írtam is, ugyanezt, meg még ennél durvábbat is bemutattak a kékek az elmúlt pár évben, az bezzeg nem gond.
egyébként sem hiszem hogy technikailag megoldható lett volna a foglalat megtartása, vagy ha igen, csak kompromisszummal."Továbbá a tomhardver részletes teszt alapján kevésnek tűnik a procierő, pl Skyrim alatt meghalt a gép. Valószinüleg az I3-3225 is meghal majd, de az a helyzet, hogy akkor van kényelmes, egyszerű megoldás, eladom és veszek bele erősebb procit."
még mindig, csak mint CPU nézed. a Skyrim amúgy sem épp a legjobb példa a Trinity általános teljesítményére, mert csak két szálon fut, ha jól tudom."a tesztek alapján attól félek, hogy elfogy az ereje és utána csak nagyon drágán tudok feljebb lépni procierőben, mert alaplapot is újat kell vegyek. Ha meg már új alaplap kell, akkor meg lehet intel is a következő"
ha a feljebb lépés alatt az AM3+-t érted, annak nem igazán látom értelmét, mert még jön bele egy Vishera és kész. az LGA1155 is kipurcant, ha úgy vesszük, mert a Haswell már más foglalatot kap.[ Szerkesztve ]
-
dfsz34
őstag
válasz
FireKeeper #53 üzenetére
Szét kéne választani azt, hogy mi volt és mi van. Intel is kevert, de én konkrétan a 1155-re mondtam, hogy szerintem az okos húzás volt, főleg, hogy nincs nagy ugrás a SB és az Ivy között, tehát a kutya nem váltana Ivy-ra, ha még a 40-50 ezres újkori árú alaplapot is adhatja el féláron.
A 1155-s foglalat igen jól skálázható már most is, ha vesz az ember egy jó alaplapot és kezdetnek bele egy realtív olcsó i3-t, akár használtan. Vagy még gyengébb procival is lehet kezdeni, de mivel játszani is kéne, ezért mondom az i3-t indításnak. Utána proci elad és a user vesz nagyobbat. Mire eljutok én a 3770k-ig az még pár év, talán addigra olcsóbb is lesz és az ereje még 5 év múlva is jó lesz. Az AMD procik ha így folytatják a fejlesztésüket, akkor talán 5 év múlva érik el a mostani 3770k erejét.
Nemsokára itt vannak az ivy i3-k, és a 3225 igyényel figyelmet, ami árban kb a Trinity-vel megegyezhet (130 dollár).
Ezzel a jó skálázhatósággal szemben, ahol ráadásul kiváló ár/teljesítményű procik vannak, nem tud most értelmesen versenyezni az AMD.
Nem tudom, hogy ki hogyan van vele, de nekem nagyon nagy visszatartó erő az, hogy ha nagyobb teljesítményt akarok, akkor adjam el az alaplapot aztán vegyek újat. De lehet, hogy csak én vagyok öreg már az ilyen folyamatos gépcserékhez.
Még nem vetettem el teljesen a Trinity-t, meglátom a részletes teszteket és átgondolom még egyszer. De például a foglalat inkompatibilitás nálam azonnal kizáró tényező lesz.
Továbbá a tomhardver részletes teszt alapján kevésnek tűnik a procierő, pl Skyrim alatt meghalt a gép. Valószinüleg az I3-3225 is meghal majd, de az a helyzet, hogy akkor van kényelmes, egyszerű megoldás, eladom és veszek bele erősebb procit.Egyáltalán nem vagyok AMD ellenes, sőt nekem mint kazuár játékosnak abszolút szimpatikus a Trinity, de a tesztek alapján attól félek, hogy elfogy az ereje és utána csak nagyon drágán tudok feljebb lépni procierőben, mert alaplapot is újat kell vegyek. Ha meg már új alaplap kell, akkor meg lehet intel is a következő. Nade, akkor meg minek vegyem meg egyáltalán?
-
FireKeeper
nagyúr
"Ráadásul a trinity alaplapja nagyon nagy valószinüséggel nem lesz használható a kaverihez a szagértők szerint."
ezt én egyáltalán nem jelenteném ki. nem hinném, hogy még egyszer lőnének akkora öngólt, mint az FM1-nél, szóval valamiféle kompatibilitás szinte biztos lesz, ráadásul én nagyon technikai akadályt sem látok, persze ehhez itt néhány kolléga jobban ért nálam."Az intel jól csinálta, hogy az ivy is a 1155-s socket-et használja, mert nem kell eladni a régi alaplapot és újat venni, ami jelentősen drágít egy fejlesztést."
na nehogy már az intel legyen a foglalatok szent megmentője és felhasználók országos barátjaLGA775-ön belül generációk voltak inkompatibilisek egymással (először a sima dual core pentium az egymagosok idejében kijött lapokkal, majd a core2 az összes többivel), aztán jött a kemény 1 generációt kiszolgáló LGA1156 és LGA1366, amikkel ráadásul szegmentálták is a piacot...
-
atti_2010
nagyúr
Ahogy többen fejtegetik, lábon lőhetik magukat azzal, hogy a klasszikus procierőt nem feljlesztik erőteljesebben.
Mihez kellene a nagyobb procierő, ahhoz hogy a szomszédnak lehessen dicsekedni vele, mert más okosabb dologra jelenleg nem hiszem.
amibe akár 3770k is belemegy majd egyszer és szerintem 7-8 évig nem jöhet szóba másik platform, inkább veszek majd mindig erősebb 1155-s procit.
Szerinted meddig marad 1155 a foglalat, meg legfeljebb 1 evet és te ezzel akarod kihúzni 7-8 évig?
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
cheatergs #50 üzenetére
Mindenkinek tetszik a haladás iránya, csak olyan terhet ad a skálázható fizika a művészekre, hogy azt egyelőre nem lehet bevállalni. A külön gyorsítókártya pedig több területen problémás. Ahogy Manju Hedge is mondta, partcile szimulációra kiváló, de máshol már gondolkodni kell, hogy megéri-e átrakni a rigid és komplex soft body-t a dGPU-ra. Ő pedig tudja, hogy mit beszél. Az Ageia az ő cége volt, a PhysX és a gyorsított fizika az ő álma, és még ma sem tett le róla, csak sokat tanult az elmúlt években, így már látja a problémákat is. Lehet, hogy ezekre lehetett volna korábban is gondolni, csak nem mindig egyértelmű, hogy egy probléma létezik. Jellemzően akkor ütik fel a fejüket a gondok, ha széles körben terjedni kezd valami.
-
cheatergs
senior tag
Igen, és épp erre mondtam, hogy vannak ezek a technológiák hosszú évek óta, mégis ki kell emelni azokat a programokat, amik használják.
Öt évvel ezelőtt kellett volna itt tartani, vagy még régebb óta (Ageia).Nem tudom megérteni, mi a baj abban, hogy nekem nem tetszik a haladás iránya és üteme. Eszerint én nem tartozom a világ nagy részéhez, ami elégedett vele, ennyi.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A proci oldalról a skálázhatóság megszűnt ezért lassul mindenki. Teljesen zátonyra futott a Dennard-féle skálázási szabály. Enélkül csak úgy van lehetőség skálázni a teljesítményt, ha egyszerűbb, Atomhoz hasonló magokat építenek be a lapkába. Erre Pollack szabálya lehetőséget ad, de ugyanakkor probléma az Amdahl-törvény.
Szóval mára eljutottunk oda, hogy a processzort jobb kis lépésekben erősíteni, mert skálázni normálisan nem lehet, de az sem lenne jó, ha gyengülne az egy szálon elérhető teljesítmény. A fejlesztés tehát aszerint megy tovább, hogy maradnak a procimagok olyanok, amilyenek, és jönnek mellé nagy teljesítményű IGP-k, melyek ellátják az általános, jól párhuzamosítható számításokat. Más értékelhető opció a Dennard-féle skálázás nélkül nem létezik. Nagyon nem azért integrálnak a cégek, mert olyan jó lesz az IGP-vel számoltatni a grafikát. Azért csinálják, mert az IGP pJ/FLOP mutatója jóval kedvezőbb, mint egy processzoré. A mai napig jól működő skálázási szabályoknak ugyan lőttek, de egységnyi fogyasztás mellett semmi nem akadályozza meg, hogy az elvégzett művelet kevesebb energiát igényeljen. Ehhez viszont gyökeresen új felépítés kell. Látod, hogy mindenki ezt csinálja. Az AMD eleve nagy IGP-t rakott a Llanoba és a Trinity is optimalizáltabb. Az Intel a Sandy után az IGP méretét 2,25-szörösére növelte. Jövőre a Haswell szintén jóval nagyobb IGP-t kap, míg a procimagok mérete alig változik (az eddigi adatokat H. Goto már átszámolta, és leszűrte, hogy nagyobb lesz a rendszer IGP-je, mint a processzormagok által elfoglalt hely). Azután szintén nagyobb lesz az IGP, és 2015-ben pedig jön a Larrabee integráció a Skylake-ben, vagyis elindulnak azon az úton, amire az AMD rálép 2013-ban a Kaverivel. Egyszerűen leesett mindenkinek, hogy a CMOS technológia durván elérte a határokat. Egyedül Moore törvénye él és virul, de Dennard-féle skálázási szabály nélkül nem hoz a gyártástechnológia előnyt, így a szükséges energiahatékonyságot és előrelépést nem a technológiától kell várni, hanem a rendszer tervezésénél kell beépíteni.Link - ezért spórolja le az AMD az L3-at. Másképp építették fel a rendszert. Nincs szükség az L3 alkalmazására, ha nagy L2 gyorsítótárakat kapnak a procimagok. Majd talán később lesz L3, de biztos nem úgy, ahogy az Intel alkalmazza. A videón a Sands Bridge négy alkalmazásnál meghal, míg a Llano totál folyamatos. A Sandy teljesítményének kivégzését az okozza, hogy a rendszer alapvetően az L3-ból él, és az előtte lévő gyorsítótárak nagyon picik. Na most a videóban a két IGP-t terhelő alkalmazással az IGP egyszerűen teleszemeteli az L3-at adattal, és a processzornak el kell mennie a kívánt adatért a rendszermemóriába. Fordítva ez nem lenne probléma mert az IGP az tolerálja a késleltetést, de a processzor már nem. Az, hogy Tomék ilyenbe nem futottak bele, vagy nem mérték ezt a helyzetet, még nem jelenti azt, hogy a mérnököknek erre nem kell gondolniuk. Maga a dolog eléggé kisarkított jelenleg, így nem is éri meg tesztelni, de a jövőben az IGP is igazi multi-tasker egységé válik, vagyis tíz alkalmazás is futhat rajta párhuzamosan, vagy akár több is. Ebből a szempontból nem elvetendő dolog most úgy tervezni a rendszert, hogy a jövőben is megfeleljen a teljesítménye, és ne akadályozza az IGP a processzor munkavégzését.
[ Szerkesztve ]
-
dfsz34
őstag
Öröm olvasni a távlatos terveket és tényleg jók az öteletek, legalábbis a többsége. De az AMD hogyan tervezi túlélni addig pénzügyileg, amig a grandiózus terveket meg is tudja valósítani.
Amire gondolok, hogy pl nagy nehezen, kínkeservesen kijönnek az asztali Trinity-k. Erősen gondolkodtam egy AMD trinity vásárlásán, egyből a csúcsra gondltam, a10-5800k, de minél több tesztet olvasok (pl tomhardwer), csak arról győznek meg, hogy nagyon nincs rendben az ár/érték arány ennél a processzornál. Persze, tudom, hogy az ár még nyitott, de szakértők vagy annak látszó emberek 130 dollár körülre teszik, ami egyben azt is jelenti, hogy részemről felejtős, mert az 40 ezer forint feletti árat jelent, annyiért nincs értelme.40-ből már megvan egy 3850-es llano alaplappal együtt, újonnan.
Ráadásul a trinity alaplapja nagyon nagy valószinüséggel nem lesz használható a kaverihez a szagértők szerint.Talán a kaveri, de nem tudom, addig miből akar az AMD megélni.
Ahogy többen fejtegetik, lábon lőhetik magukat azzal, hogy a klasszikus procierőt nem feljlesztik erőteljesebben. Ráadásul, ahogy látszik, az intel lelassult, talán szándékosan, talán mert elért a technológia határához (én az előbbiben hiszek), de akárhogy is, itt lenne a lehetőség az AMD-nek, hogy felzárkozzon, de nem.
A trinity alig gyorsabb normál számításokban, mint a llano és a ghz per teljesítményben meg éppen csak, hogy nem veri meg a Llano-t.
A tomhardwere sem érti, minek spórolták le a L3 cache-t, persze valószinüleg, akkor alig maradt volna teljesítmény különbség a nagyobb procik és a csúcs trinity között
Elszalasztott egy nagy lehetőséget az AMD, erőlteti a fusion-t, de neki a nyers procierőben van elmaradása jelenleg. Ráadásul az fm1-fm2 történet alapján a rendszer fejlesztése sem lesz egyszerübb. Ha kevés lesz a trinity, milyen procit tehetek még az alaplapba? Az intel jól csinálta, hogy az ivy is a 1155-s socket-et használja, mert nem kell eladni a régi alaplapot és újat venni, ami jelentősen drágít egy fejlesztést.
Ahogy majd megjelennek az első a10-5800k-s gépek majd még több teszt lesz és talán árnyalhatom a véleményemet, meg persze az ár is kérdés.
Jelenleg nekem felejtős a trinity, pedig bíztam benne. Ha pedig elkezdek intel platformot fejleszteni, akkor veszek egy olyan miőségibb alaplapot, amibe akár 3770k is belemegy majd egyszer és szerintem 7-8 évig nem jöhet szóba másik platform, inkább veszek majd mindig erősebb 1155-s procit.
Már sokan fejtegetik, hogy nincs igazán célcsoportja a trinity-nek. Igazi fullos játékhoz gyenge, procierőben elmarad ár/teljesítményben az inteltől, maga az APU valószinüleg elég drága lesz, ha azt nézem, hogy 8-10e többet berakok és veszek egy nagyságrenddel erősebb procit, i5-2500k-t. Diszkrét VGA meg amúgy is kell előbb utóbb. De ár/teljesítményben még talán a llano is verni fogja.
Ezt nagyon elb...tották. A francnak nem nyomták meg a procierőt jobban és zárkóztak volna inkább fel az intelhez, most megtehették volna.
A kaveri jó lesz már valószinüleg és az APU is elbírja a játékokat, de főleg a procierő miatt, de én speciel nem fogok még további 1-1,5 évet várni au új gép vásárlással.
-
MongolZ
addikt
Egész jó, de azért az elég gáz, hogy gyakorlatilag az ütközés után beáll a krumpliszsák üzemmód (a kezét előreteszik, aztán kész), 2:23-nál lehet is látni, a fehér belekapaszkodik a piros játékosba, majd a földre elérve beáll a hullamerevség...
De ettől függetlenül tényleg látványos.Illetve 4:00-nál az összeesés...
[ Szerkesztve ]
-
VIC20
őstag
Mark Papermaster - Nomen est omen...
"prezentáció" - broáf!
-
Angel1981
veterán
A Southern Islands-ról semmi hír?
-
cheatergs
senior tag
Én ezt fordítva látom: a kocajátékosok (akik nem akarnak sok időt fecsérelni szórakozásra, csak azonnali sikerélményre vágynak) miatt mosódnak össze a stílusok, mert a számukra sikeres momentumokat erőltetik bele a más hozzáállást igénylőkbe, hátha attól azok is viszik, akiket addig nem izgatott. Ezzel párhuzamosan a csak arra a "műfajra" jellemző egyediségeket kivágják, mivel az "bonyolult volt" (bár ennél szofisztikáltabban mondják a marketingesek).
Ezért hétköznapi látvány egy franchise új részeinél az állandó panaszkodás, miszerint a fele, ha megvan az eredeti hangulatnak, és nem arról-nem úgy szól a folytatás, mint kellene.
Pesszimista lévén pedig nem látom, hogy ez javulna. Nem is számítok rá.
[ Szerkesztve ]
-
dezz
nagyúr
válasz
cheatergs #37 üzenetére
A játékok többségénél már bevált recepteket követnek jópár éve. A maradéknál is nagyon óvatos lépések történnek. Senki sem akar dollármilliókat bukni... Ahogy nőtt a játékprogramok költségvetése, úgy üzletiesedett el az egész és váltak a gazdasági szempontok alapvetően meghatározóvá.
Talán az, hogy a csak adott játéktípusok iránt érdeklődő profi játékosok helyett vagy mellett egyre inkább a casual gamereket célozzák meg, változást hoz ebben. Ők fogékonyabbak lehetnek az újszerűbb dolgokra, amúgy is sokan csak most ismerkednek a számítógépes játékokkal. Sőt, elvárás lehet az igazán lebilincselő élmény.
-
cheatergs
senior tag
-
pakriksz
őstag
a pisiksz a létező leggagyibb fizikai motor, emellett a legpazarlóbb is, az nvidia fizet azért hogy ezt használják, és ez gagyi fizikához vezet, nagy gépigénnyel, néhány csak nvidia kártya mellett működő, valójában cpu-n futó effektel (lásd a mafia2-es buktájukat). Így nem kelt versenyt, a pisikszes játékoknál meg nem mernek komolyabb fizikába fogni, az nvidia függőség miatt.
Directx-et, szintén pénzzel terjesztették el. Korlátozott, és lassú, platformhoz láncol (ez volt a célja). Intel c fordító meg ugye ami amd procin letiltja az SSE használat, akkor is ha van, vagy akár az intel áruházas mutyija amivel az amd bukott egy nagy halom pénzt így kevesebb jutott fejlesztésre.
A mesterséges gépigénynövelés megint csak visszafogja a fejlődést, mert ahelyett hogy kihasználnák a hardvert(fizika, ai, esetleg mégjobb grafika) értelmetlen munkavégzésre pazarolják. -
dezz
nagyúr
Inkább azt látták be, hogy ezután néhány évig (amíg a szilíciumot le nem váltja valami) alig-alig lehet majd növelni a CPU-s teljesítményt... Az Intelnek sem fog menni, a fizika törvényeit ők sem tudják felülírni. Márpedig a teljesítménynek növekednie kell (kellő mértékben), különben senki sem veszi meg az új HW-eket... A sima többmagúsítás desktopon csak néhány magig működőképes (és ezt már lényegében el is értük), utána már nem gazdaságos. A legkézenfekvőbb megoldás - és nincs is más írány jelenleg -, a GPU-k számítási teljesítményének kihasználása (mely eddig a játékokon kívül nagyrészt parlagon hevert). Így aztán előbb-utóbb amúgy is másodlagos kérdés lesz a CPU-s teljesítmény.
(Kb. mint ahogy annó sokáig a gőzgép teljesítményét próbálták növelni, aztán jöttek a benzinmotorok [már ami a közlekedést illeti]. Nem a legjobb példa, de most nem tudok jobbat.)
Ezt egyébként az Intel is belátta, már jópár évvel ezelőtt, csak ők először nem a (náluk amúgy is "hiánycikk") GPU-k befogásában gondolkodtak, hanem a Larrabeeben, ami viszont nem egészen úgy sikerült, ahogy szerették volna.
(#30) cheatergs: Hát ja...
A befektetők nem szeretnek "kísérletezni"... (Sem a családos cégtulajok, projektvezetők, stb.)
[ Szerkesztve ]
-
HBO2
tag
Egyetértek! Majd akkor foglalkozok vele ha már biztos!
[ Szerkesztve ]
-
pakriksz
őstag
ez nem csak a programozóktól függ. Vannak olyan cégek (intel nvidia, microsoft) akik mindent megtesznek hogy a nekik jó irányba tereljék a programokat, még ha az hátráltatja a fejlődést is, és sajnos van pénzük is fizetni ezért. Pl a gagyi pisix, directx, intel c fordító, mesterségesen megnöveltetett gépigény, stb.
Egyébként meg az a programozó aki tényleg szeret programozni, optimalizál is ha van rá ideje, mert nem bír nyugton maradni amíg ki nem hoz belőle mindent.
[ Szerkesztve ]
-
cheatergs
senior tag
válasz
FireKeeper #24 üzenetére
Nem arra utaltam, hogy mi a fenének fejlesztenek, hanem épp ellenkezőleg! Én nagyon szeretem a fejlődést, és az lomboz le, amikor megint valamilyen jelentős projektet elkaszálnak.
Egy rakás fejlett, jövőbemutató technológia a kukába kerül, csak mert olcsóbb (kevésbé kockázatos?) x évesekkel dolgozni (pl. HL2 Havok-fizikáját máig nem láttam megismételve, pedig azóta rakás új motor jelent meg, de csak érintőlegesen alkalmazzák mindet. UE3 gyakorlatban hat éves, mégsincs azon a szinten, mint reklámozták). A dömpinggel van a bajom, ami maga alá temeti a kreativitást, és nagyon nem itt kellene tartania mondjuk a játékiparnak.
Nem filmet akarok játszani, ahogy nem is játékot nézni, hanem játékot játszani!Nem vagyok hülye, sem idealista; "maximum profit", tudom jól.
Csak megint bereklámoztak hatvan új megoldást, amikből egyet, ha használnak majd öt éven belül. -
Abu85
HÁZIGAZDA
válasz
cheatergs #23 üzenetére
Filmekben lehet látni ezeket. Az könnyű, mert ott nincs skálázásra igény. A Bullettet rengeteg filmben használják ... például 2012, illetve a Michael Bay filmek, stb.
Manju Hedge (a PhysX eredeti atyja) beszélt róla, hogy jelenleg csak a particle effektek hatékonysága jó a GPU-n. A soft és a rigid body szimulációk működnek, de problémásak is. Az integráció ezeken folyamatosan javít, ahogy egyre közelebb kerül a CPU és az IGP architekturálisan a lapkán belül, de még mindig ott a skálázás kérdése. Elég nagy meló úgy skálázni a fizikát, hogy az ne legyen hatással a játékmenetre, illetve a skálázástól a teljesítmény is nőjön a gyengébb rendszereken. Az a fizika pedig, ami befolyásolja a játékmenetet szigorúan nem skálázható, vagyis nagyon meg kell határozni az ideális teljesítményt. Úgy látja, hogy ezen a HSA segít majd, de a tömeges terjedéshez szükségesek különböző eszközök, amik a skálázást segítik. Ezzel leveszed a terhet a művészek válláról.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
RyanGiggs #15 üzenetére
Attól függ, hogy hogyan írják meg a játékot. A Kaveri APU-ra már lehet úgy írni programot, hogy minden dGPU-t megalázzon teljesítményben. De ehhez HSA-ra kell szoftver rendert írni, ami szerintem senkinek sem alternatíva jelenleg.
(#18) gyiku: Igen. Nincs értelme fenntartani ezt a vonalat. Az Intel sem gondolkodik már hagyományos processzorban. Pici a piac. A jelenlegi platform kifut és kampec.
(#20) ViiiiktorOC: Az AFDS-en csak az APU-król volt szó. A VGA-kkal nagyon keveset foglalkoztak, azon belül is csak FirePro került elő.
[ Szerkesztve ]
-
FireKeeper
nagyúr
válasz
cheatergs #23 üzenetére
ha mindenki így gondolkozna, még ma is super-mario szinten lenne a játékok grafikája
gyiku: nagyon el akarják vinni a consumer (vagy nem tudom hogy mondjam, tehát az átlagfelhasználó) szintet az APU felé, (lásd: feladtuk a gyors CPU-versengést az intellel nyilatkozatok) és ebbe a képbe nem férne bele még egy extra termékcsalád. szerintem vishera is már csak azért lesz, mert nem akartak az FM1 után egy másik foglalattal is úgy kib@szni a felhasználókkal, hogy csak egy generációt szolgáljon ki.
[ Szerkesztve ]
-
cheatergs
senior tag
Évek óta látni az újabbnál-újabb ötleteket fizikára, grafikára, gyorsaságra, mégis, ezekből semmit nem látni a játékokban (a fizikát a filmekben sem), mindenki ugyanarra a pár bejáratott motorra-ötletre épít ("jó lesz az úgy, meg olcsóbb"). Úgyhogy csak torlódnak, és a még meg sem valósultak folyton tűnnek el a süllyesztőben.
Egy százalékot eléri a kihasználtsága ezeknek? Ezért baromira megéri kutatni-fejleszteni.[ Szerkesztve ]
-
gyiku
nagyúr
válasz
FireKeeper #19 üzenetére
akkor egy kort meg lehet futni az 1000es chipsetes lapokkal, aztan kalap kabat.
-
Ł-IceRocK-Ł
veterán
válasz
FireKeeper #19 üzenetére
Erről van itt szó. A fejlődés már csak ilyen.
-
ViiiiktorOC
senior tag
Ez volt az a AMD konferencia amin elvileg 7990 leleplezés lett volna?
-
SkyS1gn
félisten
az új radeonokról semmi hír?
-
FireKeeper
nagyúr
válasz
RyanGiggs #15 üzenetére
az attól függ, hogy a jövő játékai milyen mértékben használnak olyan eljárásokat, ahol a CPU és a GPU egymás adataival majmol. ha sok ilyen lesz, az az APU-nak kedvez. azért egy Kaveri + HD7770 (illetve gondolom majd átnevezett HD8xx0 kártya jön) teljesítménye szerintem, ha kompromisszumosan is, a hagyományos játékoknál is elég Full HD felbontásra.
-
FireKeeper
nagyúr
mivel a CPU és az IGP teljesen koherens memóriát oszt meg, illetve ugyanazokat a pointereket használják
oh yeah baby
csak jönne már... -
-
Indy69
aktív tag
Az Intel felkötheti a gatyát ,mint látom az integrálásé a jövő amiben az AMD előrébb jár.
[ Szerkesztve ]
-
bryant56
aktív tag
Ha jól értettem a cikkből, akkor az AMD már nem fog asztali gépekbe AM3+ -os procikat gyártani?
-
MongolZ
addikt
A játékdemó... hát az beszarás... ez, egy konzolon???
-
mrhitoshi
veterán
Ez a Bullet fizikai motor elég meggyőző a videó alapján, és majd az lesz igazán durva, mikor egy Tableten fog elfutni ugyan így.
[ Szerkesztve ]
-
-
RyanGiggs
őstag
A Kaveri APU-n jobban fognak futni a játékok, mint most egy HD7970-en?
-
radi8tor
MODERÁTOR
Final Fantasy demo nagyon baba!
-
nonoka74
tag
válasz
freestailo #3 üzenetére
sok maggal?
-
freestailo
őstag
dinnyééét
-
lujó55
addikt
Fele nem tetszik, mert feleslegesnek tartom.
-
Radványi
aktív tag
Huhh kimerito cikk mire megemesztem ezt a sok infot.
Új hozzászólás Aktív témák
ph A Fusion Developer Summit utolsó napján a vállalat összegezte az elhangzottakat is.
- Mobil flották
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- One otthoni szolgáltatások (TV, internet, telefon)
- Autós topik
- HP notebook topic
- Petabájtos SSD-ről ábrándozik a SanDisk
- A fociról könnyedén, egy baráti társaságban
- Elemlámpa, zseblámpa
- NVIDIA GeForce RTX 4060 / 4070 S/Ti/TiS (AD104/103)
- Ukrajnai háború
- További aktív témák...