Hirdetés

2019. július 16., kedd

Hozzászólások

(#1) radi8tor


radi8tor
(MODERÁTOR)

Sosem értettem miért van ennyi féle VGA. :U Kellene 4-5 kategória és kész. Lassan már el sem lehet igazodni közöttük (hála az átnevezéseknek is).

⭐ https://wellbe.hu

(#2) Sub-ZeRo válasza radi8tor (#1) üzenetére


Sub-ZeRo
(PH! nagyúr)
LOGOUT blog

Mert így a hozzánemértőket simán át tudják k*&ni. Ennyi.

"Ha egyedülállóval találkozunk, mindegy, mit mond, de biztos, hogy nem azért van egyedül, mert élvezi a magányt, hanem mert már megpróbált beilleszkedni a világba, de az emberek újra meg újra kiábrándítják."| Track IR 5.| Honor 8

(#3) N!GhTyka


N!GhTyka
(kvázi-tag)

Ugyan ezt mondtam egy korábbi cikk hozzászólásban, hogy 660-ból le kell tiltani egy smx modult és jöhetne egy igazi középkategória, mert túl nagy a rés 660 és 650 között.

[ Szerkesztve ]

(#4) matteo_szg


matteo_szg
(őstag)

Tesztpéldány úton :)

jupiiii

(#5) Paci89 válasza radi8tor (#1) üzenetére


Paci89
(lelkes újonc)

Kíváncsi vagyok mikorra jönnek elő 1 olyan jó konstrukcióval mint "anno" G92a/b GPU.
Az AMD csúnyán odavágott nekik.... :/

Privát üzit küldj ha kell valami, de érdemben senkivel sem tárgyalok telefonszám nélkül. Köszönöm.

(#6) mghltm válasza N!GhTyka (#3) üzenetére


mghltm
(PH! addikt)

raadasul pont abban a kategoriaban keslekednek, ami ar/teljesitmeny mutatoja miatt erosen keresett ( 7750/7770/7850 ). az amd mar tobb mint fel eve kihozta a 7700-as es a 7800-as kartyait...

[ Szerkesztve ]

still 4 sale https://hardverapro.hu/aprok/hirdeto/mghltm/index.html || http://www.youtube.com/watch?v=85VErvTqgWc

(#7) Srodney válasza radi8tor (#1) üzenetére


Srodney
(senior tag)

pont ezért,mellesleg az a gyerek amelyik bemegy a pc boltba és 4gb-os kártyát kér 64biten azt eddig sem érdekelte a dolog.igazán csak azt lehet megtéveszteni akinek némi fogalma van a dolgokról csak nem teljes a kép.

ezzel kapcsolatban viszont hiányolok a ph-n egy dolgot.hétvégente szokott lenni egy cikk a hazai pálya rovatban ahol új hardvereket mutatnak meg.na most jó lenne ha belevennének a cikk végébe egy diagramot amin (legalább havonta egyszer) ahol a vga-k cpu-k winyók stb. friss árral el lennének látva és így az olvasók vagy vásárlás elött állók tudnának dönteni a legfrissebb ár/érték arányról is....akár.(pcx.hu gondolom segítene egész jó árral dolgozik :P)

nyilván ez rengeteg munkával,utána járással jár,de megoldódna egy olyan probléma: "hogy mit is éri meg most venni". itt szeretném leszögezni hogy jól tudom! ez az oldal többek közt azért jött létre hogy a tudatos vásárló keres egy hardvert akkor a ti tesztjeitekből és elemzéseitekből kiderüljön számára a helyzet és választ kapjon a kérdésére mégis mit vegyen.igen ám de vga szinten annyira változnak az árak hogy szerintem ez követhetetlen.arról nem is beszélve hogy év közben többször jön új hardver és felforgatja az addigi állást.

(#8) Ł-IceRocK-Ł


Ł-IceRocK-Ł
(PH! addikt)

Novemberbe jön a 8 as széria, aztán megint nem lesznek a ződek sehol :D

"lol, rock, te egy kib*szott médium vagy. mit médium, HARD " by FireKeeper

(#9) .noxwill


.noxwill
(PH! kedvence)

Akkor lesz bármiféle esélye a 7770el szemben ha alá tudnak menni annak az árának: Bár sajnos tudjuk hogy nem ez az erőssége az Nvidiának.

matteo_szg
Az jó. Kíváncsi vagyok rá :)

All→M8

(#10) radi8tor válasza Ł-IceRocK-Ł (#8) üzenetére


radi8tor
(MODERÁTOR)

Lesz abból január is.
Ha novemberben jönne, akkor már jó sok hírben megírták volna. :K

⭐ https://wellbe.hu

(#11) Ł-IceRocK-Ł válasza radi8tor (#10) üzenetére


Ł-IceRocK-Ł
(PH! addikt)

Igaz, már annyira megszoktam a novembert ilyen téren :D

"lol, rock, te egy kib*szott médium vagy. mit médium, HARD " by FireKeeper

(#12) radi8tor válasza Ł-IceRocK-Ł (#11) üzenetére


radi8tor
(MODERÁTOR)

Hja, 6970-et január elején vettem, 7970-et csak január végén tudtam megszerezni.
Csúszik ez is mint a tél.

⭐ https://wellbe.hu

(#13) matteo_szg válasza Ł-IceRocK-Ł (#8) üzenetére


matteo_szg
(őstag)

Nem jön, ez biztos. :N

jupiiii

(#14) Ł-IceRocK-Ł válasza radi8tor (#12) üzenetére


Ł-IceRocK-Ł
(PH! addikt)

Az nem baj, később kell fűteni :D

"lol, rock, te egy kib*szott médium vagy. mit médium, HARD " by FireKeeper

(#15) MZperX75 válasza radi8tor (#1) üzenetére


MZperX75
(PH! addikt)

"Sosem értettem miért van ennyi féle VGA. :U Kellene 4-5 kategória és kész. Lassan már el sem lehet igazodni közöttük (hála az átnevezéseknek is)."

A 28nm gyártástechnológia sok sok selejtet termel,viszont jó azt is eladni :DD

[ Szerkesztve ]

(#16) petya1992


petya1992
(fanatikus tag)

Gondolom kidobnak valami agyon butított karit :U
Jól gondolom?

(#17) 04ahgy


04ahgy
(PH! nagyúr)

"Fontos meglátni, hogy van egy apróbb űr a Radeon HD 7770 és a HD 7850 között, így adja magát az ötlet, hogy azt be lehetne tömni."

HD7790 = Pictairn LE. :DDD

HGyu

7855.94MHz CPU-Z valid \ Pulchra tibi facies, oculorum acies, capillorum series; o quam clara species! Rosa rubicundior, lilio candidior, omnibus formosior; semper in te glorior! \ Sponsored by http://pcvizhutes.hu

(#18) dkpisti


dkpisti
(tag)

Hát hd7770 30-tól van az 1gb hd7850 48-50 ha a kettő közé sikerül ékelni árban és teljesítményben akkor rendben lesz :)

[ Szerkesztve ]

(#19) T_Stark


T_Stark
(őstag)

Nvidiát ismerve ez kb a HD7770 szintjét hozza majd, és a HD7850 árában adják.

(#20) Physicist03 válasza T_Stark (#19) üzenetére


Physicist03
(senior tag)

Vagy lehet gyorsabb lesz 1-2%-al, de az ára nem annyival lesz több :(

(#21) csaabz


csaabz
(őstag)

A 650 után csak jó lehet.... :U

We were somewhere around Barstow on the edge of the desert when the drugs began to take hold.

(#22) Artyy válasza T_Stark (#19) üzenetére


Artyy
(újonc)

Legrosszabb esetben 7770-est, legjobb esetben 7850-es hozza majd, ahogy a többi kártyánál is. Teszteket olvasod is? Azt mondja ismeri az Nvidiát.

(#23) DRB


DRB
(senior tag)

Jó nagy válságban a VGA piac, csak kb. 50 féle kártya van kategóriánként, ja, és csak hetente jön valami újabb verzió. :DDD Az a nagy rohadt helyzet, hogy csak addig tart a válság, a gyártóknál, míg beárazzák az éppen megjelenő terméket.

(#24) socialkiller


socialkiller
(tag)

Nekem is 2db Sapphire Radeon HD 7770 ghz edition van a gépemben crossfireben és tökéletesen muzsikál minden játékban ultra settings mellett. :R Én valamiért nem vagyok oda az Nvidia karikért..(kivétel a GTX 680)

Best Regards, Patrik - IT MES Engineer - Programmer - BMW

(#25) T_Stark válasza Artyy (#22) üzenetére


T_Stark
(őstag)

Milyen teszteket? Mutass már erről a kártyáról tesztet.
Te most kiszoptad a kisujjadból hogy milyen esetben mit hoz, aztán vagy úgy lesz vagy nem.
Én is tudom mit lehe tőle várni, erős compute terhelés alatt meghal ahogy minden Kepler, de legalább jó drága lesz.

(#26) tixem válasza Artyy (#22) üzenetére


tixem
(PH! addikt)

ha a 650ti behozza a 7850-et, akkor fejenállva megyek el szegedről pestre. kizárt dolog.

#19 +1

[ Szerkesztve ]

Galaxy Note 9 ||| Vivotab Note 8 W10 ||| ( •_•) ( •_•)>⌐■-■ (⌐■_■) ||| Origin / Uplay - tixem

(#27) DRB válasza tixem (#26) üzenetére


DRB
(senior tag)

Azt azért megnézném, bárcsak erősebb lenne az a Ti, még ha csak ideiglenesen is. :DDD
Van Szegeden rendőr haverom, ha gondolod, kérhetünk tőle felvezetést, majd ha aktuális lesz a dolog. :DDD

(#28) subaruwrc válasza matteo_szg (#4) üzenetére


subaruwrc
(PH! félisten)

like

ryzen 3000 series, AM4 X570 series eladó.

(#29) Artyy válasza T_Stark (#25) üzenetére


Artyy
(újonc)

És te a kisujjadból szoptad ki, hogy a 7770-est hozza 7850-es áron? Gondolom nem, mert én is tudok következtetni rá.

A compute terhelés alatt a leglassabb a kártya ennél szerinted lassabb vagy gyorsabb lehet még a Kepler? Egy halom játék van, ahol a 660 közel 7870-est vagy hozza is a szintjét, mert itt nincs compute terhelés, ahol van az meg csak beállítás kérdése. Csak láttál erről is teszteket és 230 dollárét olcsóbb, mint a 7870-es.

(#30) aram01


aram01
(PH! nagyúr)

csak a fejem kapkodom annyi kártya jön,már azt sem tudom lassan ki kivel van :D :B

Isten jól sikerült alkotása vagyok, elvégre rögtön bőrkötésben adott ki...

(#31) FRENK1988 válasza aram01 (#30) üzenetére


FRENK1988
(PH! kedvence)

sok szám =AMD ATi 3betű 3 szám=nVIDIA ;]

Nem a lóerő öl, hanem a NYOMATÉK! :) <3 dCI

(#32) T_Stark válasza Artyy (#29) üzenetére


T_Stark
(őstag)

Nem, én tapasztalatból írom hogy az NV hasonló teljesítményt jókora felárral ad. Ez szinte minden kategóriában így van.
A Compute teljesítményt meg nem szabad fél vállról venni. Majd fél-1 év múlva megnézzük hány játék használja (ha tippelnem kellene, elég sok), és ott bizony a Kepler vért fog izzadni. A GCN meg azért minden esetben hozza az elvárható szintet, nem úgy mint a Kepler, ami egyik játékban száguld, másikban meg meghal.

(#33) matteo_szg válasza subaruwrc (#28) üzenetére


matteo_szg
(őstag)

hát...kis méregzsák lesz, tehát csak azért lesz jó, mert szénné lesz húzva gyárilag :)

jupiiii

(#34) Artyy válasza T_Stark (#32) üzenetére


Artyy
(újonc)

Csak annyit kellet volna megértened, hogy a legrosszabb eredményhez viszonyítod az árazást, ami egy kisseb része a teljes képnek. Az árazás egy abszolút dolog, de a teljesítmény relatív. Az nvidia nem veheti figyelmen kívül azokat a játékokat, ahol (jelenleg többségben) nincs comuputer terhelés, árazásnál. Az árazást 1 évre előre meg nem fogják meghatározni. Jövőre meg már jön, a ráncfelvarrt Kepler nem tudhatod, hogy mit hoz a jövő.

(#35) T_Stark válasza Artyy (#34) üzenetére


T_Stark
(őstag)

Én csak azt mondom, hogy a Win8 megjelenése után várhatóan szépen megszaporodnak majd a compute shadereket használó játékok, így amiben most a legrosszabbul megy a Kepler, lehet hogy nem is olyan sokára abból a fajta játékból lesz több.

Ráncfelvarrt Kepler biztos jön, de aki most vesz egy kártyát, azt ez nem fogja vígasztalni, mivel nem mindenki engedheti meg magának hogy félévente új VGA-t vegyen.

(#36) Z10N válasza 04ahgy (#17) üzenetére


Z10N
(PH! addikt)

Talan majd most. Vagy ugye 7830, attol fugg melyik vegerol nyirbaljak meg. De amugy a "Pictairn" az mi? :DDD

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#37) FRENK1988 válasza Z10N (#36) üzenetére


FRENK1988
(PH! kedvence)

A GPU mag kódneve. Mint a 69xx sorozatnak a Cayman

Nem a lóerő öl, hanem a NYOMATÉK! :) <3 dCI

(#38) Simon02 válasza T_Stark (#35) üzenetére


Simon02
(fanatikus tag)

Jaj, már megint megy a manta.. honnan tudod, esetleg lottószámokat is kérhetek? Vagy csak azért írod, mert Abu ezt mondta? Nem tudni mit hoz a jövő, ugye pl mennyi dx10.1-es játék lett? Sztem majd meglátjuk! Mindezt egy 7970 tulajaként írom, így nem nv-ati vitát akarok kezdeni!

Megbízhatóságom: http://phmegbizhatosag.atw.hu/phtabla.php?nev=Simon02

(#39) T_Stark válasza Simon02 (#38) üzenetére


T_Stark
(őstag)

Egy az, hogy Abunak általában igaza szokot lenni :D
Másik meg, hogy a DX10.1-et kár idehozni, azóta sok minden változott, a DX11 eleve sokkal kapósabb.
Ráadásul azóta a Gaming Evolved is hatalmasat lépett előre, és bizony ők biztos hogy a compute shaderek használatát fogják nyomni ezerrel az általuk támogatott játékokban, mert nekik ez fekszik.
De mivel a Win8 megjelenésével bárki könnyen használhatja ezeket, szerintem kb azok nem fogják akiknek az NV fizet hogy ne tegyék.

Na de mindegy, csak annyi lett volna a mondandóm lényege hogy szerintem a GCN időtállóbb lesz mint a Kepler. Befejeztem az offolást.

[ Szerkesztve ]

(#40) Simon02 válasza T_Stark (#39) üzenetére


Simon02
(fanatikus tag)

Az már tényleg nagyon off, mert csak kis részben kötődik a hírhez (nem is értem, hogy került szóba eleve a compute shader, - főleg hogy a 77xx szériában ez már nem akkora előny a gcn-nek). De tényleg ennyire biztos vagy benne, hogy ennyire el fog terjedni, vagy hogy a win 8 ekkora óriási siker lesz? Mert ha win-nek az általad emlegetett 1 éven beül nem lesz legalább 10%-os részesedése (le merem fogadni), akkor nagyon nyersen, a jövőképet ki lehet dobni az ablakon.
DX10.1-et azért hoztam fel példaként és ezért emlegettem Abut (aki nálam 1000x nagyobb szakértője a témának), mert az is úgy lett beharangozva, hogy 1 éven belül mekkora hátrányt okoz a Geforce-oknak. Megtörtént? Nem vettem észre. Volt más tévedés is, ezért sem szeretem az ilyen előrejelzéseket, mert ez csak tippelés és sajnos érezni mögötte a márka iránti elkötelezettséget.
Erre a Geforce fizet témára még egy nagyon off gondolat. Úgy érzem te az AMD elkötelezett híve vagy. De pont te említetted a Gaming Evolved-t, ez nem ugyan erről szól??? Ugyanúgy mesterségesen gyengítik a másik kártyáit. És igen az architektúra, a compute shader gyengeség indokolatlan használata is az. A Fermi korában miért nem erőltette senki vajon? Sajnos ez a megítélés nagyon teret nyert ez a ph-n, konkrétan a tesztekre gondolok. Megjegyzem ezek általában olyan játékok, amivel a kutya se játszik (DIRT Showdown például messiásnak van beállítva, közben kinek is tetszik? - közben az AMD demo játéka).
Nem akarok flame-et elindítani, így be is fejezem! Ha válaszolni szeretnél privátban tegyük inkább.

Megbízhatóságom: http://phmegbizhatosag.atw.hu/phtabla.php?nev=Simon02

(#41) Löncsi válasza Simon02 (#40) üzenetére


Löncsi
(őstag)

Ez egy nagyon jó hsz.

Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

(#42) Abu85 válasza Simon02 (#40) üzenetére


Abu85
(HÁZIGAZDA)

A Win 8 sikere mindegy. Azt a fejlesztők telepítik, és ott lesz a tracer API, amivel sokkal egyszerűbben írhatnak bonyolult compute shadert. Ezek futtatásához nem feltétlenül szükséges Windows 8, mehet Vista és 7 OS-en is, csak a fejlesztéshez szükséges a Win 8, illetve a DX11.1, ami tartalmazza az új shader trace interfészt.
A DX10.1 az szépen terjedt. Azt felejtik el az emberek, hogy minden olyan játék, ami DX11, az automatikusan DX10.1 is, vagyis minden DX10.1-es kártya profitált a DX11-es kódból, míg a DX10-esek a gather4 hiányában már nem tudtak ebből profitálni, vagyis jó 20-25%-kal kisebb a teljesítményük DX11-es mód alatt, mint lehetne, ha támogatnák a DX10.1-es API-t. Ezt azért nem látod, mert a DX11 megérkezésével már a DX11 volt a hype központja, de ebből a DX10.1-es termékek automatikusan profitáltak. A hátrány az attól függ, hogy meddig tartottad meg a GeForce-odat. Ha még ma is HD 4800 vagy GTX 200 sorozattal küzdesz, akkor a DX11-es játékokban a HD 4800 számottevően előnyösebb.
A Fermi korában az AMD és az NV is erősítette a compute shadert, hiszen jól felépítették rá a hardvert. Például viszonylag bonyolult compute shadert tartalmaz az AVP, vagy a Metro 2033. A gond a compute shader írásánál keletkezik. Egy egyszerű compute shadert könnyű megírni és optimalizálni, erre van rengeteg példa a fejlesztő oldaláról is, de az AMD és az NV is kínál HDAO-t, CHS-t, vagy különböző post-process megoldásokat. Egy bonyolultabb shadert, mint amilyen például Metro 2033-as Diffuse DoF, vagy az AVP-s extra szűrés az árnyékokra, már sokkal nehezebb ügy. Egy fejlesztő ilyenbe bele sem fog egyedül, mert nincs meg a fejlesztőkörnyezetben az az eszköz, amivel jól tudja debugolni. Ezért születnek ezek az effektek a partnerprogramokban, mert az AMD és az NV sokáig tud ezen dolgozni, és előbb-utóbb összehoznak egy jól optimalizált compute shadert az adott problémára. A fejlesztőnél olyan szóba sem jöhet, hogy nem tudja, hogy mikor végez, egyszerűen meg van kötve a kezük, mert a játéknak időben kell elkészülnie. Ha nincs kész az effekt, akkor kimarad, ennyi. Ezen segít majd a Win 8 és a DX11.1, a tracer API-val, mert sokkal egyszerűbb lesz a bonyolult shadereket debugolni.
Azért most jön elő az új játékokban az erős compute shader használat (például a DiRT Showdown, a Sniper Elite V2, a Ghost Recon Future Soldier vagy a Sleeping Dogs), mert tracer API nélkül a GPU fejlesztők dolga is nehéz, de idővel átrágják magukat rajta, és odaadják a fejlesztőknek az új effekteket, hogy építsék be. Emellett erre a generációra volt az az architektúraváltás, ami elvileg erős compute-ot hozna. A fejlesztők is úgy készültek, hogy végre el lehet ereszteni a gyeplőt, meglesz a számítási hatékonyság, amivel a compute shader alternatíva lehet. A GCN-ben meg is van, és meglepetésre még az Intel Gen7 IGP-je is felhozta magát ebben a Fermi és a VLIW4 szintjére, de a Keplert ezúttal nem úgy tervezték, hogy jó legyen a bonyolult effektekben, ami kialakított egy apróbb káoszt. Azóta valószínűsíthető, hogy az NVIDIA az új Tegrába szeretne valami jól skálázható architektúrát, amivel aztán tudnak játszani évekig, így inkább meghoztak egy döntést (a logikusságot mindenki döntse el maga). Ez a fejlesztőknek is rossz, mert ott van a Dirt Showdownban használt új EGO motor, ami a történelemben elsőként alkalmaz olyan leképzést, ami forward render mellett is párezer pontfényforrással dolgozik. Ez az amiért a GCN annyira erős benne. Ez amúgy nem mesterséges gyengítés, amikor az AMD elkezdett dolgozni a Forward+ Lighting eljáráson, akkor halvány lila gőzük nem volt, hogy a Kepler a Fermihez képest nem éppen előrelépés lesz a compute tekintetében. Egyszerűen látták, hogy a compute hatékonyság nő, vagyis a következő körben már egy olyan szintet is elér, amivel megoldást lehetne találni a fejlesztők legnagyobb problémáira. Ezek közül arra, hogy ne kelljen dönteni a sokezer pontfényforrás hatékony kalkulálása (deferred render) és az átlátszóság, az MSAA, és a limitáció nélüli felületi variációk (forward render) között. A Forward+ Lighting csupán annyit csinál, hogy a deferred és a forward render előnyeit egybegyúrja azaz, ami az egyiknél és a másiknál hátrányként jelenik meg az a Forward+ Lighting esetében egységesen előny. Az egyetlen hátránya, hogy erős compute hatékonyságot igényel a hardver oldalán, de ez nem a megvalósítás problémája, mert az hatékony. Az, hogy most a Codemasters ezt belerakta a DiRT Showdownba, és az új EGO motorba azért történt, mert szükségük volt arra, hogy az alapvetően forward render motorjuk sokkal több pontfényforrást kezeljen hatékonyan. A Forward+ Lightinggal az élmezőnybe repítették magukat a technológiai oldalon. Arról pedig még az implementáláskor fogalmuk sem lehetett, hogy a Kepler milyen lesz, nyilván a Fermi után logikus volt azt feltételezni, hogy nő majd a compute hatékonyság, mert ugye miért csökkentenék?
A jövőben az UE4 is érdekes. Tim Sweeney már megemlítette, hogy a kód jelentős része compute shader, vagyis az irány egyértelmű. Persze erre nincs konkrét példa, és egy darabig nem is lesz, de nyilván a Kepler az NV-nél csak egy Tegrás kitérő, legalábbis ez az egyetlen logikus magyarázat a változásokra. Mire itt lesznek az UE4-es játékok, addigra az NV-nek is lesz compute-ban erős GPU-ja.
Érdemes elolvasni Johan Andersson (Frostbite 2.0 motor programozója) SIGGRAPH előadásáról a beszámolót. [link] - ő is a compute shaderről beszél, és a benne rejlő lehetőségekről.
Egyébként a Keplernek maga a compute shader önmagában nem gond. A bonyolult, illetve sok compute shader használata az. A bonyolult a lassú shared memory miatt, míg a sok azért, mert a GCN-en sokkal gyorsabb a context switch. A sok meg a bonyolult együtt természetesen a legrosszabb a rendszernek. Ugyanakkor az egyszerű compute shaderekkel nincsen gondja.
Az NV amúgy nem akadályozza meg, hogy compute shader legyen egy TWIMTBP játékban, mert előnyös a használata. Persze bonyolult shadert nem fogsz látni, illetve sokat sem.
Az AMD gyakorlatilag fordítva működik most, sok és bonyolult compute shaderekre biztatják a fejlesztőket. A sokat azt látjuk a Gaming Evolved játékokban, de a bonyolultat még annyira nem. Két játék persze már ilyen. Illetve egy harmadik is, ami nem GE cím, de ettől raktak bele egy VPL-GI-t.
Bár nem annyira fajsúlyos tényező, de az Intel is azon dolgozik, hogy a sok ideje használt effekteket, mint például a HDR, rakják át compute shaderre, mert az gyorsít.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#43) T_Stark válasza Simon02 (#40) üzenetére


T_Stark
(őstag)

Igazad van, AMD párti vagyok, de nem elvakultságból, hanem mert akár az időtállóságát, akár az ár/teljesítményét nézem, egyszerűen az a jobb.

Abu már leírt mindent nálam milliószor profibban, már csak annyit emelnék ki, hogy az nem mesterséges gyengítés ha a játékokban kihasználnak olyan shadereket amiben a kártyájuk jó. Az már nem az ő bajuk hogy a konkurencia ebben pont gyenge.
Hogy csak egy példát mondjak, mesterséges gyengítés pl pont az, amit az NV által támogatott Crysis2-ben műveltek, hogy még a város alatt is számoltatták a GPU-val a tenger hullámzását... :U

(#44) gbors válasza Abu85 (#42) üzenetére


gbors
(PH! nagyúr)

ha már itt tartunk, az f1 2012-vel mi lesz GI fronton? a demot kipróbáltam, abban nem sok geforce killer effekt volt. lesz még vmi extra a fullban? szingapúrban? :)

[ Szerkesztve ]

"... egy alagútásásra tett kísérletet az ostromlottak inkább együttérzéssel, semmint aggodalommal figyeltek ..."

(#45) Abu85 válasza gbors (#44) üzenetére


Abu85
(HÁZIGAZDA)

Az F1 2012-t nem a Southamben található stúdió csinálja, hanem a Birminghamben található. Ők a motor fejlesztésével nem foglalkoznak, szóval az effekt attól függ, hogy megkapták-e az EGO motor DiRT Showdownhoz használt legújabb verzióját. Ha nem, akkor nyilván nehezen tudják belerakni. Én az utóbbira tippelek, mivel szerintem a régebbi verziójú EGO motort használják. Maximum patch-ben oldható meg, de nem hiszem, hogy nagyon érdekli őket. Ahogy hallom az AMD-t sem nagyon érdekli az F1 2012, mint reklámcélra használható program, inkább a GRID 2-re koncentrálnak a Codemasters tájékán. Szóval nagyon valószínű, hogy az F1 2012-ben nem lesz benne a Forward+ Lighting és a VPL-GI. Majd talán jövőre, ha megkapják az új motort.

Amúgy csak megjegyzem, hogy az NV-nek nem a VPL-GI effekttel van gondja. Tudom, hogy ezt írják a review guide-ben, hogy az egy rossz effekt, de azzal nem lassul sokkal többet a GeForce, mint a Radeon. Sokat levesz, de arányaiban pár százalékkal veszít kevesebbet a Radeon. A Forward+ Lighting a baj, ami az Advanved Lighting effekt. Ez a HD 7970-nek csak 4 fps mínusz, míg a GTX 680-nak 20.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#46) gbors válasza Abu85 (#45) üzenetére


gbors
(PH! nagyúr)

thanks :R abban a hitben éltem, hogy ezek a GI effektek is forward lighting megközelítéssel vannak implementálva :)

"... egy alagútásásra tett kísérletet az ostromlottak inkább együttérzéssel, semmint aggodalommal figyeltek ..."

(#47) Med1on válasza Abu85 (#45) üzenetére


Med1on
(fanatikus tag)
LOGOUT blog

Én kérek elnézést, de az az "apróbb űr a Radeon HD 7770 és a HD 7850 között" nem tűnik olyan kicsinek. Utóbbi nagyjából másfélszer erősebb megoldás. Ha ezt az "apróbb űrt" kivetítjük a Radeon HD 7850-re, akkor az látható, hogy itt elfér a Radeon HD 7870, a HD 7950 és a felturbózott HD 7950 is. A hazai árakat nézve egyébként a legolcsóbb HD 7770 30 ropi, utána a HD 7850 meg már 47 ezer (a 2 GB-os 54 ezer fele lakik).

A semmi az a valami, ami azáltal van, hogy nincs.

(#48) Simon02 válasza Abu85 (#42) üzenetére


Simon02
(fanatikus tag)

Köszönöm a kimerítő választ, sok újdonságot is szerepel benne és jó is egyben látni.
Viszont mégiscsak reagálnék, mert az alap tézist amiért írtam nem cáfolja meg. Mégpedig, hogy a sok komplex compute shader játék érkezik, amiért az eredeti hozzászólást is írtam. Bárki tudhatja, hogy aki dolgozott már fejlesztésen, hogy ezek nem mennek egyik napról a másikra. Októberben megjelenik a Win 8, de nyilván a fejlesztőknek már a kezükben van, így ha az általad leírt tracer API használni akarja, megteheti. DE mikorra lesz ebből kész termék? Egy komoly engine kifejlesztésére min 2-3 évvel kell számolni, addigra már sehol sem lesz a Kepler generáció. A nvidia kezében pedig meg van a lehetőség, hogy erre gyúrjon, mint ahogy meg is tehette volna most is (GF114-et biztosan nem a csúcskategóriának tervezték eredetileg, ezt le merem fogadni!) Szóval idővel nem árt számolni!
És ugyan emiatt sem áradozik senki a dx10.1-es hardverek dx11 alatti sikere miatt. Eltelt kb 3 év! Ezek a kártyák pedig lesüllyedtek a 20ezer alatti alsó kategóriába. Ott meg már olyan mindegy, főleg ennyi idős hardvereknél... Hiába időt állóbb egy termék, mindig az adott korban kell versenyezni!
Jelenleg pedig úgy állunk, hogy egy jó ideig nem jön az új konzolgeneráció és tippre minden új dx11-es játékra még mindig jut egy dx9-es is. Ezek a játékok, amiket írsz technológiailag fejlettek, bár az optimalizálás nem mindig az erősségük... (Metro2033 remek példa, sokkal gyorsabban fut a 7970-esemen, mint a korábbi gtx580-ason, de így is-úgy is alacsony a framerate..). Viszont nem feltétlenül népszerűek, ezért nem értem miért ez a releváns (akár a ph tesztjeiben)? Szerintem azt is kéne nézni mivel játszanak az emberek - hiszen azért veszik meg (nem 2-3 év múlva nyújtandó teljesítménye miatt, sem a techdemókért - persze vannak ilyen kivételes "örültek" is, mint én is)!
Azt is feltétlenül számításba kell venni, hogy a meglevő kártyák miatt optimalizálnak az nv termékeire is, hiszen nem akarják az egyik oldalt kizárni, hiszen az rengeteg vásárló elvesztését jelenti.
Még a gameing programokról egy gondolat, mert pont ez váltotta ki a nemtetszésemet, hogy egy oldalról van mindig megközelítve: Mind a gyártóknak, mind a fejlesztőknek megvan a saját érdekük benne, nem jófejségből csinálja egyik sem! És ha valamelyikük támogatja az adott fejlesztő csapatot (nem csak effektre gondolok, hanem eszközük, support, technikai segítség stb.), elvárja, hogy ebből visszakapjon valamit. Ez mindkét oldalra igaz, indokolatlan az egyiket kiemelni!

Megbízhatóságom: http://phmegbizhatosag.atw.hu/phtabla.php?nev=Simon02

(#49) Z10N válasza FRENK1988 (#37) üzenetére


Z10N
(PH! addikt)

O Rly? :DDD Ugy latom neked sem esett le. ;)

# sshnuke 10.2.2.2 -rootpw="Z10N0101"

(#50) Abu85 válasza gbors (#46) üzenetére


Abu85
(HÁZIGAZDA)

Akkor te egybevetted a kettőt, igazából érthető, mert tényleg nem úgy magyarázza az AMD, hogy külön dologról beszélünk, de valójában két külön dologról van szó. A VPL-GI, amit a DiRT Showdownhoz használnak funkcionálisan működik Forward+ Lighting nélkül is. Gyakorlatilag a rendszer elhelyez a jelenetben xezer virtuális fényforrást (ebből a szempontból skálázható a működés), amivel csak a GI számítása alatt foglalkozik. Ennek készítette el az AMD a compute shaderes változatát, ami sokkal gyorsabban számol. Előnye, hogy nagyon jó képminőséget ad, nagyon könnyű implementálni, illetve fontos, hogy igény esetén kikapcsolható, mert a renderbe nincs direkten beágyazva, vagyis funkcionálisan csak egy kiegészítés, és a kihagyásával a megjelenítés még jó lesz. Hátránya, hogy ... hát számolni kell mint az állat.
Ugyanezt a VPL-GI-t alkalmazza az Ubisoft a Ghost Recon: Future Soldier esetében, annak a YETI motorja deferred rendert használ (azt nemtom, hogy pontosan milyen típusút), és mellette ott van a compute shaderes GI effekt, ami kikapcsolható.
Van egyébként pár másik játék is, ami már használ GI-t. A CryEngine 3 például light propagation volumes eljárást alkalmaz erre. Ennek a minősége függ a beállítástól, mivel skálázható módon érdemes implementálni, amit azért kell így megtenni, mert maga a rendszer - implementációtól függően - nem igazán kapcsolható ki (illetve nyilván funkcionálisan megtehető, ám iszonyatosan gyengülhet tőle a képminőség, de ez tényleg attól függ, hogy miképp van implementálva). A Crysis 2-ben például nincs is belerakva teljesen kikapcsolható formában, csak széles spektrumon skálázódik a beállításokkal. Ez szerintem jellemző lesz a CryEngine 3-as játékokra (eddig biztos jellemző, de még csak a Nexuiz használja ezt a motort ... ők mondjuk odapakoltak neki, mivel a legalacsonyabb GI, egyéb post-process, illetve SSDO beállítások a Crysis 2-ben alkalmazott csúcsot képviselik, és innen a Nexuiz még skálázódik felfelé).
Az új játékok közül egyébként a Hitman: Absolution a GI-t a light propagation volumes eljárással implementálja, de eltérés a CryEngine 3-hoz képest, hogy a Hitman motorja compute shaderrel gyorsítja majd.
A Far Cry 3 még biztosan alkalmaz GI-t. Ők is az állandóan aktív mellett döntöttek. Ez a motor gyakorlatilag azt a rendszert használja (továbbfejlesztve persze), ami van az AMD Ping-Pong demójában, illetve nyilván az úgy nem teljesen jó, ahogy az AMD csinálta, mert a Far Cry 3 egy nagy nyitott világ, vagyis eléggé lehetetlen a tervezőknek manuálisan elhelyezni ezeket a kis light probe-okat, tehát ezt a részt automatizálni kellett, ami a jelenet szintjén történik, és csak akkor frissül, ha szükség van rá. Itt majd el lehet szállni a rendelkezésre álló procimagok kihasználásával, mert ez veszettül párhuzamosítható munka, illetve a probe-okban tárolt információkat is a proci számolja előre. Mivel borítékolható, hogy marha sok probe lesz, így a számítás teljesen függetlenül egymástól és nagyon sok magra kitehető. A motort úgy csinálták, hogy 32 szálig skálázódjon. Ebből 8 lesz engedélyezve a játékban. A játékmenet főbb funkciói persze dedikáltan kapják a magot, de a probe számítás az nagyon skálázódni fog. A GPU oldalán a probe aktuális információi alapján minden képkockára újraszámítják a teljes megvilágítást. Ezzel a megoldással a GI tökéletesen reagál majd a napszakok dinamikus változására. A másik dolog amit a probe-okból kiszámolnak azok volume mapok. Ezt a kamera szemszögéből van számolva, de nem kell mindig frissíteni, csak ha szükség van rá. Itt kockákra kell gondolni, aminek a kamera felé mindig csak három oldala látszik. Amíg a kamera nem kerül olyan pozícióba, hogy az egyik oldalt felváltja egy másik, addig az adatok újrahasznosíthatók. Természetesen, ha olyan terület van, ami eddig nem volt a kamerán, arra nyilván úgyis kell új volume mapokat számolni. Ezeket a mapokat a GPU még a shading során is használja, így a Far Cry 3 nagyon komplex megvilágítást tesz lehetővé. Mivel ennyire a rendszer része minden, így kikapcsolni tulajdonképpen semmit sem lehet, de skálázható az egész.
Ismert még az Unreal Engine 4-nek a működése. Ez VCT-t használ a GI-ra és az AO-ra. Nincs semmi előszámítás, minden valós időben történik. Két dolog, amit tudni lehet. Az SVO adatstruktúra miatt baszottul igényli a memóriát, és számolni kell mint az állat. Itt az SVO lesz a kulcs, attól függ a teljes rendszer sebessége. Valószínű, hogy AMD GCN-en használják majd a PRT-t, hiszen az ideális a nagy adatstruktúrákhoz. Az NV Kepleren valamilyen szoftveres megoldást kell majd bevetni erre, de a GCN-es rendszerekhez hasonlóan a Keplernek is van MMU-ja szóval arra érdemes építeni. MMU nélküli GPU-n szerintem az UE4 nem életképes. Legalábbis jó sebességgel biztos nem. Mivel a teljes megvilágítás az SVO-tól függ, így ezt kikapcsolva full sötétség lesz az eredmény. Szintén kell majd a brutál compute power mert a teljes adatstruktúra felépítése GPU-n zajlik majd compute shaderben.

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

Copyright © 2000-2019 PROHARDVER Informatikai Kft.