Hirdetés

2017. május 28., vasárnap

Hozzászólások

(#1) berVi


berVi
(senior tag)

"Ez azonban nem végleges állapot, mivel a cég próbál specifikus kerülőutakat találni megoldásképpen, amelyeket lassan beépíthetnek a programokhoz tartozó profilokba, és apránként vissza lehet kapcsolni a funkciót."

Aha. 5 eves hardverrol beszelunk. Forditok: elqrtuk, ugyhogy mondunk valamit, hogy ne legyen nagy balhe, amig ezek a kartyak ki nem halnak a piacrol.

(#2) rodrigez válasza berVi (#1) üzenetére


rodrigez
(senior tag)

5 éves hw, vagyis inkább örülni kéne, hogy próbálnak erre is megoldást találni. NV keresztbe leszarta volna az egészet.

(#3) leviske


leviske
(PH! nagyúr)

Nos gyerekek, ezért nem istenítünk butára egy architektúrát 10 évvel azelőtt, hogy használnának belőle bármilyen utasítást.

Nous ne vous oublierons pas. / 20150107 /

(#4) lemusz


lemusz
(őstag)

Elolvasva a cikket nekem laikusnak annyi jött le belőle, hogy valaki rátalált hogyan kezdték el szoftveresen lassítani a régebbi kártyákat, ezzel - rejtett módon? - igényt generálni, hogy újat vegyenek az emberek. Sejtettük ezt eddig is, csak nem volt így szépen levezetve meg normális, bugtalanító folyamatként prezentálva. Annak idején HD4850-emmel teszteltem a meghajtó programokat és ott is kibukott, hogy 2012-es drivereket már nem volt célszerű telepíteni neki. Az is 4-5 éves távlat volt, mint most ez is.

(#5) bozont válasza berVi (#1) üzenetére


bozont
(PH! kedvence)

Szerintem az egyetlen dolog amit benéztek akkor, de nagyon, az a marketing. Akkor még messze nem volt egy végleges "Next-gen API" sem, de már azzal reklámoztak. Én valahogy nem lepődök meg, hogy egy 5 éves architektúrán már nem működik valami új funkció. Sőt, igazából ami meglepő hogy még manapság is egész jól használhatóak egyes GCN1 modellek.

Meizu Pro 5 + Vsonic AN16

(#6) FLATRONW


FLATRONW
(őstag)

Nincs ezzel semmi baj, nem mai darabok azok a kártyák.

(#7) Narasim


Narasim
(fanatikus tag)

abu megint szidja az nvidiát! ugorjunk neki! ;] bocsi, nem bírtam ki! :B

az első generációs gcn az pl az én 7950-em? miben fog ez megnyilvánulni, ha pl a hitman-nel játszom?

हरे कृष्ण हरे कृष्ण कृष्ण कृष्ण हरे हरे हरे राम हरे राम राम राम हरे हरे Góranga! havi 390.- ft-ot tessék rászánni a prohardverre! dechatlonos rollert ne vegyetek :((

(#8) arn válasza rodrigez (#2) üzenetére


arn
(PH! nagyúr)

Akkor ne tegyek fel frissebb kartyakra. En egy uj kiadasu kartyat vettem 3 eve, hogy milyen franko lesz a mantle rajta.

[ Szerkesztve ]

RETRO HW-t veszek (VLB, Pentium, Tseng, GUS, Roland, etc): http://hardverapro.hu/apro/keresek_egy_csomo_fele_cuccot

(#9) berVi válasza rodrigez (#2) üzenetére


berVi
(senior tag)

Pont errol beszelek, hogy eszuk agaban sincs ebbe mernoki munkaorat belefeccolni, csak a publiknak ezt adjak elo.

(#10) Norbert9503


Norbert9503
(újonc)

Az én HD 7970oc -m köszöni remekül van. Semmit nem vesz észre ebből.

[[ Norbert ]]

(#11) ribizly


ribizly
(őstag)

Jöhetnének már az olyan hírek és cikkek, hogy mi az amit eddig nem írtak, de mégis működik... :DDD

A WORD elszáll, az írás megmarad...

(#12) b. válasza rodrigez (#2) üzenetére


b.
(PH! addikt)

NV pont nem szarja le a régebbi kártyáit, semmivel nem rosszabb ( sőt ) de inkább ezt hagyjuk. Egyébként ilyen öreg kártyáknál ez már nem igazán téma szerintem, senki nem hibáztathatja ezért AMD-t. Itt is történt bőven architekturális változás, hiába GCN, meg Dx 12 is változott azért bőven.
Korukhoz képest egész jól használható kártyák még, és NV oldalról az akkori 5xx széria is jól bírja.

[ Szerkesztve ]

"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso)

(#13) daa-raa válasza bozont (#5) üzenetére


daa-raa
(MODERÁTOR)

Nekem inkább úgy tűnik, hogy a DX12 specifikációja lett nagyon eltolva. Érdemes megnézni az első bekötési modellt, és a véglegest. Igen komoly eltérés van a kettő között. A sok változtatás közben valami félrement.

Vannak olyan fallal körülvett városok, melyeket nem szabad megostromolnod. - Szun-ce

(#14) djculture


djculture
(PH! félisten)
LOGOUT blog

Ugyanezt csinálták a gcn előtti dx11 szériával ott meg driverileg letiltották az OpenCl támogatást a legacy driverben. Megy a vegyél új kártyát gerilla marketing.

[ Szerkesztve ]

Az október másodikai szavazás ugyanolyan sikeres volt mint a Svájciak elleni VB selejtező ahol a LŐTT GÓLOK 40 % -ÁT 100 %-BAN A MAGYAROK LŐTTÉK

(#15) Jack@l válasza b. (#12) üzenetére


Jack@l
(PH! kedvence)

A 270x-280x 3 éves kártya: Oct 8th, 2013
Azt már javában a mantlival meg az állítólag abból kinőtt dx12-vel reklámozták.

[ Szerkesztve ]

(#16) Robert07


Robert07
(fanatikus tag)
LOGOUT blog (1)

7970 forever! :DDD

A teljesitmenye boven eleg arra, amivel en jatszok, azert meg nem fogom lecserelni egy ujabbra, mert az kevesebbet fogyaszt. Most telen amugy is kellemes az a 3-400W amit jatek kozben melegit a gep. :DDD

[ Szerkesztve ]

突き出る釘は打たれる。

(#17) K0vasz


K0vasz
(kvázi-tag)

ez az aszinkron comput nem az a fícsör, ami ilyen +/- 1-2 fps-t eredményez és még csak grafikai tuningot se ad? ;]

(#18) djculture válasza K0vasz (#17) üzenetére


djculture
(PH! félisten)
LOGOUT blog

Ha jól rémlik már most van 2 játék aminél ha nem működik az aszinkron compute az adott hardveren akkor dx12-ben nem elindítható a játék. Ez azért elég nagy blama mert az annak idején dx12-es ígérgetésekkel reklámozott széria dx11-re fog butulni.

[ Szerkesztve ]

Az október másodikai szavazás ugyanolyan sikeres volt mint a Svájciak elleni VB selejtező ahol a LŐTT GÓLOK 40 % -ÁT 100 %-BAN A MAGYAROK LŐTTÉK

(#19) Abu85 válasza djculture (#18) üzenetére


Abu85
(HÁZIGAZDA)

Ilyen nincs és biztos nem is lesz. Ahogy a cikk is írja az aszinkron compute igazából nem DX12-es funkció, hanem egy implementációs dolog. A DX12-es funkciója ennek multi-engine és szinkronizáció, azt pedig kötelező minden DirectX 12-es implementációnak támogatnia.

Az aszinkron compute így aktív az egyes architektúrákon az egyes DX12/Vulkan programokban a default beállítást figyelembe véve:
GCN2/3/4:
- 3DMark Time Spy
- Rise of the Tomb Raider
- Hitman
- Tom Clancy's The Division
- Ashes of the Singularity+kiegészítő
- Quantum Break
- Total War: Warhammer
- Deus Ex: Mankind Divided
- Forza Horizon 3
- Gears of War 4
- Battlefield 1
- Civilization VI
- Doom
GCN1:
- 3DMark Time Spy
- Doom
- Battlefield 1
- Gears of War 4
Maxwellv2:
- 3DMark Time Spy
Pascal:
- 3DMark Time Spy
- Ashes of the Singularity+kiegészítő
- Rise of the Tomb Raider

Amelyik játék nincs említve az adott architektúránál ott a meghajtó visszaküldi a compute parancsot az OS-nek. De ettől még a program fut. Van pár játék, ami pedig alapból single-engine.

Az Unreal Engine 4-re fejlesztett DX12-es játékoknál (például Caffeine, Descent: Underground) használható lehet az aszinkron compute, mert a 4.14-es motorverzió a GCN-ekre ezt engedélyezte. Ha frissül az adott játék a 4.14-es motorra, akkor nyilván megkapja ezt a képességet is.

Végül a Mantle alatt a Thief használja GCN-en.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#20) Gertrius


Gertrius
(PH! addikt)

Mire használni valami a GCN (1) jövőbemutatását, az már nem is támogatja azt. :W
Itt adom írásba, hogy mire a következő Async-szintű marketingbullshit is beérik, azt már a 4-es GCN sem fogja támogatni. Semmivel sem különbbek az NV-nél.

Az amúgy, hogy a 16.4.2 driver a fordulópont, az azt jelenti, hogy több esetben jobb lehet a DX12 játékaim teljesítménye ha azt használom a "jobb" és újabbak helyett? :F

[ Szerkesztve ]

all aboard the HAPPY PARTY TRAIN

(#21) ceripapa válasza Abu85 (#19) üzenetére


ceripapa
(fanatikus tag)

Ahogy látom a 280(x) kártyák lasabbak dx12-N . Abu ennek mi lehet az oka ? Mert elméletileg a gcn 1.1 a performance fetureokkel rendelkezik, csak a extra visual fetureokat nem kaptak meg, de akkor miert lehet ez ?

[ Szerkesztve ]

(#22) Gertrius válasza ceripapa (#21) üzenetére


Gertrius
(PH! addikt)

A 280(x) Tahiti, 79XX renamed, GCN 1.0.
Épp ma néztem, hogy a Divison 20-25%-ot lassul DX11-hez képest.

[ Szerkesztve ]

all aboard the HAPPY PARTY TRAIN

(#23) ceripapa válasza Gertrius (#22) üzenetére


ceripapa
(fanatikus tag)

Ahh , akkor nem kérdés xd , buta wiki oldal ,thy az okositast.
Ja épp neked írtam , akkor csak a gcn verziót nem tudtam xd . Valszeg ac hiánya mar egy jelentős ok lehet .

[ Szerkesztve ]

(#24) kikikirly válasza Gertrius (#22) üzenetére


kikikirly
(tag)

Ha lassabb akkor érthető miért tiltották le,nincs szó szándékos elavultatásról.Azt pedig ne rójuk fel hogy nem működik, más is megjegyezte, sokat változott az eredeti DX12 az akkori tervekhez képest.Ha erről lenne szó akkor a Doomba is letiltották volna.És ki tudja talán tényleg keresnek rá megoldást, ez majd kiderül.Alacsony piaci részesedés miatt nincs logika abba hogy ők is eljátsszák ugyanazt mint NV.

(#26) noPublicFG válasza Abu85 (#19) üzenetére


noPublicFG
(senior tag)

Abu, javíts ki, ha tévednék, de az én szememben úgy tűnik, hogy akik szimplán lusták voltak gcn1-re optimalizálni, azoknál nem működik az aszinkron compute.?

plus ça change, plus c'est la même chose

(#27) morgyi válasza kikikirly (#24) üzenetére


morgyi
(PH! kedvence)

A bekötési modell pl. mindig enyhült. Ami a legelső megszellőztetett specifikációnál már bőven nem fért bele TIER2-be az a véglegesnél már belefért.
A feature_level szinteken is enyhítettek, specifikációról specifikációra

A Linux rendkívül felhasználóbarát, csak megválogatja a barátait

(#28) TeeBee73 válasza kikikirly (#24) üzenetére


TeeBee73
(őstag)

A GCN1-es kártyák nem csak DX11.1-et tudtak? Doom alatt a Vulcan API-val nem kikerülhető ez a probléma? Csak érdeklődnék, a HD5870-em, és az R9 280 OC-m már nincs meg. A mostanit meg nem érinti a probléma.

"Szépnek, szép vagy." - mondta a Kisherceg. "Ringdingding-digingigerining" - mondta a róka.

(#29) lezso6


lezso6
(HÁZIGAZDA)
LOGOUT blog (1)

Ha van Asynchronous Compute, akkor kamu, ha nincs, akkor meg az anyjukat. ;]

Primitív kérdésre nincs helyes válasz. – A hsz nyomokban iróniát tartalmazhat! – Boldogok a lelki szegények, mert övék a facebook üzenőfala.

(#30) hapakj


hapakj
(lelkes újonc)

lol. Még két ünnep közt is kimagyarázzuk az AMD-t. XD-t

(#31) tailor74


tailor74
(őstag)

Ahogy sokan leírták már előttem, ez csak arról szól hogy vegyél új vga-t. Mindkét gyártó tesz ezért eleget a saját piacán. :K

Mindenkinek joga van hülyének lenni. Csak egyesek bántóan visszaélnek a lehetőséggel.

(#32) SpongyaBob válasza lezso6 (#29) üzenetére


SpongyaBob
(PH! kedvence)

+1

Én vagyok gógyi mogyi!

(#33) Laja333 válasza lezso6 (#29) üzenetére


Laja333
(őstag)

:DDD

(#34) leviske válasza lezso6 (#29) üzenetére


leviske
(PH! nagyúr)

Fogalmazzunk úgy, hogy az nVidia aktuális zászlóshajója anélkül is rommá veri az AMD-s konkurensét. Viszont legalább azoktól sikerült elvenni ezt is, akiknek az lett éveken keresztül propaganda szinten nyomatva, hogy DX11-ben csak azért szar az architektúra, mert majd jön a lowLV API korszak.

Senkit nem zavarna, hogy újra kiderült az AMD-ről, hogy béta tesztelőnek használja a vásárlóit, ha az elmúlt években normális híreket közölt volna az oldal. Nem nehéz belátni, hogy aki csak PH!-t olvas, az Intel és nVidia oldalról csak annyi információt hallott, hogy a kékek kénytelenek módosítani a tick-tock-on, a zöldek meg majd szívnak a HBM2 bevezetésével (óóó, az irónia).

Nous ne vous oublierons pas. / 20150107 /

(#35) Abu85 válasza Gertrius (#20) üzenetére


Abu85
(HÁZIGAZDA)

Nem. Az async compute-ot az érintett játékokban azért kapcsolták ki, mert problémát okoz. Szóval pont, hogy az újabb meghajtókkal lesz jobb a működés.

(#21) ceripapa: Számos DX12-es játék az async compute-tal gyorsulja le a DX11-es kódot. De igazából a GCN1 a párhuzamos végrehajtásban nem annyira jó, mint a GCN2/3/4. Egyszerűen hiányzik belőle számos tudás, amit a GCN2-höz rakott hozzá az AMD, és amire eleve fejlesztette a Microsoft a multi-engine és szinkronizációt. A GCN3/4 még okosabb, de a DX12 alatt ennek nincs haszna. Szóval összességében a GCN1 az async compute-tól nem tud annyit gyorsulni, mint egy GCN2/3/4. 2-3%-ot maximum, holott az újabb GCN-en tudnak 7-10%-ot is. Ugye azért vették fél évvel később észre ezt a korlátozást, mert tulajdonképpen GCN1 mellett az async compute alig okozott teljesítménynövekedést. Szinte észrevehetetlen, hogy aktív-e vagy sem.

(#26) noPublicFG: Nem csinálnak a fejlesztők kártyaspecifikus optimalizációt. Vagy csak multi-engine kóddal szállítják a játékot, vagy mellé szállítanak egy single-engine opciót is. Mindkettő jó. Előbbi esetben a gyártói implementációnak joga van visszaküldeni a compute parancsokat, ha az a tesztjeiken nem igazán jó, míg utóbbi esetben eleve az OS kezeli az egészet, tehát a meghajtók felé nem is megy a parancs.

A felsorolt játékok közül a Rise of the Tomb Raider például olyan, hogy ha GCN1-et és Maxwellv2-t érzékel, akkor single-engine kód fut. A többi játék vagy multi-engine kódot futtat, vagy van egy ?rejtett? kapcsoló bennük, amivel a multi-engine és a single-engine között lehet váltani (például Ashes of the Singularity vagy Gears of War 4). De az ilyen kapcsolós rendszerrel még mindig joga van a gyártónak visszaküldeni a parancsokat, tehát lehet, hogy a kapcsoló az adott architektúrára nem fog érni semmit ... mindegy, hogy aktív-e.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#36) do3om válasza Abu85 (#35) üzenetére


do3om
(őstag)

Valaki nem emlékszik hogy régen is ez a 7-10% volt emlegetve?
Nekem többek rémlik, csak ugye lassan kiderül a kamu Abu.

Ha így megy eljutunk oda hogy nem sokat ér az egész :D

http://www.kephost.com/image/F37A

(#37) Abu85 válasza leviske (#34) üzenetére


Abu85
(HÁZIGAZDA)

Egy csomó dolgot nem kapnak meg a jövőben a régebbi hardverek.

Ezek specifikációs döntések. A Microsoftnak és a Khronosnak is megvolt a joga arra, hogy finomabb multi-engine és szinkronizációs specifikációt alakítson ki, ami nem csak a GCN2/3/4-hez illik jelenleg. Ugyanakkor ezt nem tették meg. Nyilván okkal, mert akartak egy jó és a jövőben kiegészíthető alapot. Hidd el nekik is nehéz döntés volt ez, hiszen nem csak a GCN1-nek csináltak kellemetlenségeket, hanem az NV összes meglévő architektúrájának. De többet ért, hogy a most kialakított rendszer jövőbiztos legyen. Most szidja a Microsoftot és a Khronost akinek GCN1, Maxwellv2 és Pascal architektúrája van, hiszen nekik némi kárt okoztak a döntésükkel, de majd írunk 2018-at is, amikor ezek a rendszerek lassan elkezdenek kikopni a felhasználók gépeiből, és akkor már örülni fog a világ annak, hogy a Microsoft és a Khronos a jövőbiztos alapot választotta.

Ugyanez lesz az érkező Shader Model 6.0-val is. A minimum specifikáció borzalmasan szigorú: AMD GCN2/3/4, NVIDIA Maxwellv2/Pascal és Intel Gen9 a belépő. Minden függvényre hardveres támogatása pedig csak a GCN3/4-nek van. Szóval a következő körben hoppon marad a GCN2/Maxwellv2/Pascal/Gen9. Ezeknél emulációval oldják meg a függvények egy részének kezelését. Futni fog, csak kurva lassan. De megint nem kicseszni akar a piaccal és a gyártókkal a Microsoft, csak egy jövőbiztos alapot szeretne.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#38) Abu85 válasza do3om (#36) üzenetére


Abu85
(HÁZIGAZDA)

7-10%-ot hoz átlagosan a GCN2/3/4-en. Valahol többet is. Főleg a Doom alatt. A feldolgozás formájától függ. De most ott a Division is, ahol az RX 480 16%-kal került a GTX 1060 elé DX12-ben, holott DX11-ben 2%-kal mögötte volt. Ezt főleg az aszinkron compute-ból szedte össze. A GCN4 sajátosságai miatt az aszinkron compute ennek az architektúrának kedvezőbb. Szóval a 7-10% egy nagy átlag.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#39) távcsőves válasza leviske (#34) üzenetére


távcsőves
(senior tag)

Zavart érzek az erőben...

"Fogalmazzunk úgy, hogy az nVidia aktuális zászlóshajója anélkül is rommá veri az AMD-s konkurensét."

Meg sem jelent a 1080 ellenfele, vagy ellenfelének beállított vga még. A jelenlegi friss kínálat csúcsa pedig rendesen pariban van az NV megfelelőjével.

A többit inkább töröltem, mert flame war lenne belőle.

Hát Abu én 16%-ot azért nem mértem, de tény mocskos gyors ÁTLAGBAN a Division DX12-ben a DX11-hez képest, nagyon fluid a game. De DX11-ben is kaptam 58-59FPS-t RX480-al a 16,12,1 (relive) driverel.

[ Szerkesztve ]

Felfüggesztve ideiglenesen. Keresek Logitech G25-G27-G29 pedálszettet és Leo Bodnár USB kábelt!

(#40) Laja333 válasza Abu85 (#35) üzenetére


Laja333
(őstag)

[link]

Érdekes dolgokat mondott itt az Oxide-os emberke:
"Async compute wasn't available when we began architecting (is that a word?) the engine, so it just wasn't an option to build around even if we wanted to. I'm not sure where this myth is coming from that we architected around Async compute. Not to say you couldn't do such a thing, and it might be a really interesting design, but it's not OUR current design."

"Saying that Multi-Engine (aka Async Compute) is the root of performance increases on Ashes between DX11 to DX12 on AMD is definitely not true. Most of the performance gains in AMDs case are due to CPU driver head reductions. Async is a modest perf increase relative to that. Weirdly, though there is a marketing deal on Ashes with AMD, they never did ask us to use async compute. Since it was part of D3D12, we just decided to give it a whirl."

Ezek alapján van már olyan motor ami "Async köré épül"? :) Ha mág az AoS sem az.

(#41) Abu85 válasza Laja333 (#40) üzenetére


Abu85
(HÁZIGAZDA)

Technikai értelemben majdnem minden DX12-es játék multi-engine. Tehát effektíve majdnem mindegyik használja valamennyire az aszinkron compute-ot. De valamelyik valóban jobban, valamelyik pedig kevésbé. Az AotS az aktuális verzióval a teoretikus "közepes" csoportba tartozik. Ettől is nyer az AMD ebben a játékban úgy 3-4%-ot a GCN2/3/4-gyel, de való igaz, hogy sokat nem ezzel nyernek, hanem a többletterhelés csökkentésével. A Pascal is nyer egyébként 1-2%-ot az aszinkron compute-tól.
A Nitrous akkor lesz async heavy motor, ha elkészül az async texel shading kód, illetve a GPGPU-s terepszimuláció. Ezek már nagyon erősen igényelnék a hardvereknek ezt a képességét.

A legjobban a jelenlegi felhozatalból a Hitman, a Deus Ex: MD és a Division használja erőteljesebben az aszinkron compute-ot. Ezeknél a játékoknál nyerhető vele a legtöbb teljesítmény.

(#39) távcsőves: Nagyon sokféle jelenetet lehet mérni ebben a játékban. És ezek eléggé eltérők. Például nem mindegy, hogy megy a lövöldözés vagy csak állsz a semmiben. Ez a két jelenetbeli eltérés sok különbséget okozhat a DX12-vel nyerhető gyorsulás tekintetében. A benchmark, ami van a játékban az egy eléggé ömlesztett mérést ad. Van benne minden terhelés, és ennek az átlaga adja meg leginkább a teljes játékra a sebességet. Mi is ezt fogjuk használni, de ettől függetlenül egy lövöldözés során kisebb lesz az átlag, és jobban kijön a DX12 előnye.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#42) leviske válasza Abu85 (#37) üzenetére


leviske
(PH! nagyúr)

És ezzel semmi gond nincs is. Inkább haladjon előre a Khronoss és a Microsoft, minthogy megint egy helyben toporogjon az iparág. Csak zavaró, hogy a korábbi cikkekhez képest a GCN házon belül hamarabb kap pofont DX12/Vulkan alatt, minthogy a GeForce tulajok megéreznének bármit is a felépítésbeli hiányosságokból. Érdemes lehet levonni ebből a konzekvenciákat a jövőbeli hírek és elemzések megfogalmazásakor.

(#39) távcsőves: Ugye nem azt akarod mondani, hogy a GP104 ellenfelének nem lehet a Fiji-t tekinteni, miközben azonos árban futnak, csak mert fél év késéssel jön egy nagyobb Radeon is? Ennyi erővel a Vega ellenfele nem a GP104, hanem a GP204.

Nous ne vous oublierons pas. / 20150107 /

(#43) Abu85 válasza leviske (#42) üzenetére


Abu85
(HÁZIGAZDA)

[link] - Nézd meg a játéklistát, hogy melyik program melyik architektúrán hogyan támogatja az async-ot. Egyedül a GCN2/3/4-nek van előnye. Semmi másnak.
Házon belül pedig jobb a GCN1-től a GCN2/3/4. De elárulom most, hogy a GCN5-nek az NCU-ja verni fogja a GCN4 CU-ját.

Ehhez még hozzávehetjük, hogy a Keplert, ami a GCN1-gyel párhuzamosan megjelent, már nem is jegyezzük. Egyszerűen nem alkalmas a DX12-re semmilyen formában.

UI.: Én többször írtam régebben itt a fórumon, hogy mindig a legújabb architektúraverziókat vegyétek. Csábító lehetett a 280X 3 GB memóriája, de akkor is a 285 okosabb volt a 2 GB ellenére is. Ez egy VGA-vásárlási aranyszabály, amit nem sokan ismernek. ;) Mindig az okosabb architektúraverziót, a látszatra rosszabbnak tűnő specifikációk ellenére is! Még akkor is, ha nem tűnik az akkori jelenben jobbnak! Nekem is volt lehetőségem anno a 280X és a 285 között választani. Gondolkodás nélkül a 285-öt kértem. [link] - pedig mennyivel jobbnak tűnt a 280X. :) Csak ebből a jobbnak tűnt maradt meg mára.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#45) távcsőves válasza leviske (#42) üzenetére


távcsőves
(senior tag)

Ja értelek, tehát a korábban megjelent fiji-t (fury x vagy radeon pro duo mert nem mindegy, de szerintem a furyra gondolhatsz) a késöbb megjelent pascal (gtx 1070/1080) veri. És ez így rendben is van. De ugye nem azt akarod mondani a fiji már a pascal ellen jelent meg? :D Ez így trollkodás, írtál volna 980TI-t. ;]

Erre innom kell egy Jagert, leesett az alkohol szintem. :(((

[ Szerkesztve ]

Felfüggesztve ideiglenesen. Keresek Logitech G25-G27-G29 pedálszettet és Leo Bodnár USB kábelt!

(#46) Taranti


Taranti
(fanatikus tag)

Gyorsan átfutottam milyen kártyák és GCN verziók kaphatók manapság.

GCN 1.0:
R7 250
R7 370

GCN 1.1:
R7 360
R9 290x

GCN 1.2:
R9 380
R9 285

GCN 4.0:
RX 460
RX 470
RX 480

És hát ezek alapján bizony az RX 460 az egyetlen, ami viszonylag olcsóbb és megfelelő (lehet) specifikációkban. Ez így bizony elszomorító.

Úgy vélem, a játékokkal kapcsolatba hozott agresszivitás nem azok jellege miatt van, hanem (általában) csapnivaló minőségük okán.

(#47) leviske válasza Abu85 (#43) üzenetére


leviske
(PH! nagyúr)

Mondták már, hogy politikai pályát kellett volna választanod? ;] Mindenesetre specifikusabb leszek: Nem a 280X miatt sírok. Régebben ugyancsak a Te javaslatodra nem általános teljesítmény alapján, hanem az általam preferált játékokban nyújtott teljesítmény alapján vettem videokártyát és nem bántam meg. Kiszolgálta amit kellett (sőt). Hogy idővel nVidia-közeli játékok felé fordult a figyelmem, az nem a GCN1.0 hibája.

A problémám azzal van, hogy még mindig megy a "bezzeg majd a GeForce-ok mennyire szívnak majd" mantra. Közben meg nem lehet nem észrevenni, hogy az nVidia a Pascal-al olyan szinten elhúzott teljesítmény/lapkaméret arányban és nyers erőben, hogy már-már vákuum maradt utána. Ezt az ilyen nüanszokkal esetleg ledolgozhatja az AMD, de emiatt gyakorlatilag óva inteni a GeForce vásárlástól minden cikkben, nem utal felelősségteljes újságíróra. Mikor cikket ír valaki, feltétlen számolnia kell azzal, hogy az olvasók többsége hiteles forrásnak tartja. Erről szólt a Prohardver! az elmúlt ~20 évben.

Tovább ezzel nem terhelem a topikot. Elnézést mindenkitől, hogy érdemi szakmai beszélgetés elől raboltam az időt és helyet. :R

(#46) Taranti: Helyesbítek:
GCN 1.0:
R7 250 (HD7700?)
R9 270/370 (HD7800)
R9 280 (HD7900)

GCN2.0:
R7 260/360
R9 290/390

GCN3.0:
R9 285/380
Fury

GCN 4.0:
RX 460
RX 470
RX 480

[ Szerkesztve ]

Nous ne vous oublierons pas. / 20150107 /

(#48) Laja333 válasza Taranti (#46) üzenetére


Laja333
(őstag)

Tehát 7 db GPU-nál nem jelentkezik a témaindító probléma. Az első kettőnél meg igen. Kétlem, hogy azoknál sokat jelentene az a ~5%. :D

[ Szerkesztve ]

(#49) Abu85 válasza leviske (#47) üzenetére


Abu85
(HÁZIGAZDA)

És mi történt? A GCN1 lett az időtállóbb vagy a vele együtt megjelent Kepler? Mert vehettél volna GTX 770-et is a 280X árán és hol lennél most? Sehol.

És a Pascal mellett sokan arra panaszkodnak, hogy a DX12-ben inkább hátrányt szednek össze, mintsem előnyt. A Division mérése az Ubinak azért érdekes, mert a DX11-ben a 480-at az 1060 elé rakták 2%-kal, míg DX12-ben mögé már az 1060 volt lassabb 16%-kal. Mindenki maga eldöntheti ebből, hogy a tranyókkal való spórolás jó döntés volt-e. Én csak azt írtam le, hogy a DX12-ben megfordul a helyzet. És megfordult? Sorra jönnek a játékok, amelyek azt mutatják, hogy igen, még az NVIDIA által szponzorált Divisionben is. Én csak leírtam előre, hogy mire lehet számítani. A Pascal inkább lassul a DX11-hez képest, míg a GCN inkább gyorsul. És ez történik a játékok többségében is.

[ Szerkesztve ]

A semmi az nem nincs, hanem van. Ha a semmi van, akkor nincs semmi, de ha nincs semmi, akkor valami van, de az nem semmi.

(#50) Taranti válasza leviske (#47) üzenetére


Taranti
(fanatikus tag)

Én most 1-2 bolt alapján a ma kapható kártyákat néztem. A Hardverapró persze más...

R9 285:
Anandtech szerint

Úgy vélem, a játékokkal kapcsolatba hozott agresszivitás nem azok jellege miatt van, hanem (általában) csapnivaló minőségük okán.

Copyright © 2000-2017 PROHARDVER Informatikai Kft.