Új hozzászólás Aktív témák
-
#02119936
törölt tag
válasz
Petykemano #24775 üzenetére
kettő minimum kell, de akkor a 1070-ből is mert az olyan mint a félszemű vak tyúk.
-
FLATRONW
őstag
válasz
Petykemano #24776 üzenetére
Annyit hozzátennék, hogy NV esetén a 200-500-as szériáig nem volt katasztrófa ami miatt nem lehetett ki tartani mellettük.
1. Mindhárom széria birtokolta a legerősebb egy GPU-t, aki maximális teljesítményt akart az jól megfizette
2. A HD 4000-es szériát az tette sikeressé, hogy nagyon olcsón adtak jó teljesítményt, de ezen az NV a frissített GTX 275-285-el egész szépen javított
3. Az első generációs Fermi (GTX 400) később érkezett, mint a HD5000-es széria. Sokat fogyasztott és melegedett is, de legalább megint gyorsabb volt mint az AMD. Plusz technológiailag is fejlettebb volt, mint a HD5000, de ennek annyi jelentősége volt , mint most a GCN előnyének.
4. A második generációs Fermi esetén (GTX 500) nagyon szépen javítottak a fogyasztáson, úgy hogy nem történt gyártástechnológiai váltás. A HD 6970 pedig nem igazán sikerült jól, nem volt rossz, de nem hozta azt a változást, mint a GTX 570-580. Kb. itt kezdődött el az AMD "gyengélkedése".Nem azt mondom, hogy ezek sikeres évek voltak az NV-nek, de mindig javították a főbb hibákat és tudtak olyat adni amiért meglehetett venni őket. Az AMD esetén pedig hiába sikerült nagyon jól a HD 4000-5000-es széria, nem tudták birtokolni a legerősebb egy GPU-s címet.
-
FLATRONW
őstag
válasz
Petykemano #24633 üzenetére
Szerintem egy két rosszabbul sikerült szériát el lehet nézni és ki lehet tartani az adott gyártó mellett.
Az a baj, hogy hosszú évek szerencsétlenkedése után már egy igazán jól sikerült sorozat nem fogja visszacsábítani a vevőket. Ahhoz megint sorozatosan jól kellesz teljesíteni.
Az NV történelme során jó ha kétszer hibázott komolyabban, azokat is gyorsan kijavította a következő termékeivel.
Felesleges a vásárlók többségét hülyének nézni azért, mert ők NV-t vesznek.
Itt az a kérdés, hogy ennyi sikertelen sorozat után ki az a hülye aki AMD-t vesz.
Természetesen nem gondolom hülyének az AMD vásárlóit, csak érzékeltetni szeretném, hogy ők azok akik foggal körömmel ragaszkodnak kedvenc gyártójukhoz, pedig az talán már nem is érdemelné meg a bizalmukat. -
Peat;)
veterán
válasz
Petykemano #24633 üzenetére
Azért eléggé sarkítva van mert nem mindegy az arány. Ez olyan mint a Renault meg Toyota kb, mindkettőnek vannak hibái, egyiknek azért kicsit több és nagyobb az előítélet ellene.
De elég megnézni a mosatni helyzetet is, ott a 480 és ott a 1060. Mindkettő remekül használható, simán jó fhd-re ez a tény. A végső termék tekintetében ugyanakkor a 1060-ból művészet olyat vásárolni amivel bármi baj lenne. A 480-asra én nem így láttam a topikjában. Ezek döntenek. A jó termék nem egyenlő a jó GPU-val.
-
válasz
Petykemano #24633 üzenetére
Sajnos nagyon sok szemellenzős ember van, aki csak Intel/Nvidia dimenzióban képes gondolkodni, hiába tesz le jobb terméket az AMD. Ők azok, akik megvették anno a Netburst Celeront az AXP ellenében, a GFFX-et a Radeon 9xx0 ellenében, Pentium D-t az Athlon 64 X2 ellenében.
Van ilyen az ismeretségi körömben is, meggyőzhetetlenek.
-
wjbhbdux
veterán
válasz
Petykemano #24627 üzenetére
Az AMD mint márkanév a béka segge alatt van, pl. most volt a Game Awards több mint 100 ezer nézővel, és erősen AMD reklámot nyomattak közben, amire a nézők főképp ennek a képnek a postolásával reagáltak:
-
Abu85
HÁZIGAZDA
válasz
Petykemano #24457 üzenetére
Ha jön egy két GPU-s egy NYÁK-os kártya, akkor az a VR-hez jön. Mégpedig azért, mert az AMD úgy szegmentálja a VR grafikált, hogy ha két GPU-d van, akkor jobb grafikát kapsz, míg ha egy GPU-d van, akkor megy ugyanúgy 90 fps-sel, de csak gyengébb grafikával. Ez konkrétan le lesz kódolva az érkező VR játékokba, tehát még a legerősebb GPU-val sem kapsz jobb grafikát, mint két gyengébb GPU-val. Persze ez működni fog két külön VGA-val is, szóval ehhez nem kell dual GPU-s megoldás.
A Serious Sam VR ilyen lesz.
-
válasz
Petykemano #24421 üzenetére
Szerintem egy tégla, két Polaris GPU-val, legalábbis hülyeség lenne a Vegának nem 5xx nevet adni.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #24421 üzenetére
Áh, hát én azt honnan tudhatnám.
-
Ren Hoek
veterán
válasz
Petykemano #24373 üzenetére
"De van mégegy mankó arra nézve, hogy mit fog tudni az érkező Vega : ez pedig kiolvasható a hamarosan érkező 1080Ti paramétereiből."
Mondjuk ez szerintem független ettől. Maximum annyi, hogy mennyire sajtolják ki a chip tartalékait.Vega 11 viszont csak később jön, tehát 2017Q1-Q2-ben csak ezt a 4096 SP-s chipet kapnánk nem?
-
Ren Hoek
veterán
válasz
Petykemano #24363 üzenetére
Igen, de ez most DX11 vagy DX12? Az a baj innentől kezdve nem lehet egyértelműen kijelenteni egy kártya teljesítményét, mert óriási a szórás. Kicsit szkeptikus vagyok, főleg a fogyasztással kapcsolatban... itt nagyot kell varázsolni, hogy egy 1080 szint beférjen 250 Watt-ba... Nyilván itt is a stabilitásra mennek rá magasabb fesszel...Polarisból kiindulva azért a 250W nem túl sok. Jó HBM2 ezen biztosan segít.
Akkor kb 1070 -1080 között valahol DX11-ben, DX12-ben meg 1080 vagy felette. Mindez 220-250K-ért.
Ha igaz az amit írsz, az pech... Azon szurkoljunk minél gyengébb legyen a chip, mert akkor talán értelmes áron lehet vágottat kapni. A probléma tényleg az, hogyha beigazolódik amit írsz Fury X, Fury és Nano felállás lesz, akkor szinte biztos, hogy nem lesz kártya 1070 ellen - 120-130K-s ársávban.
-
Loha
veterán
válasz
Petykemano #24211 üzenetére
A Bulldozer egyszálas teljesítményét nem csak a sok mag miatt áldozták be, hanem a magas órajel elérése miatt is, ugyan úgy mint az Intel a P4 esetében, megnyújtották a CPU futószalagok hosszát 12 -ről 20 fölé.
Ez annak tükrében, hogy 2006 körül álltak neki a tervezésnek, és az orruk előtt bukott el a 2004-ben megjelent Hyper-threadinges P4 Prescott és váltotta le a Core 2, elég hülye döntésnek tűnik. -
Ren Hoek
veterán
válasz
Petykemano #24211 üzenetére
Bizonyára azzal szembementek volna a saját stratégiájuknak, ha kiadnak egy herélt lovat Radeon márkanév alatt. Meg persze arra számítottak, hogy már rég teljes DX12 kínálat lesz, így számukra értelmetlen lett volna kiadni egy Maxwell szerű vágott, DX11-re optimalizált, magas frekvencián működő keveset fogyasztó chipet.
Csak azt mondom, visszatekintve semmi káruk nem lett volna belőle... igaz, szerintem simán annyira sokat adtak volna el belőle, hogy Maxwellel gyönyörűen felveszi a versenyt eladási számban... és biztosan hátráltatta volna az explicit API/GCN továbbfejlesztést. Viszont 50-50% market share-l, most nem lenne ez a mindenkinek rossz háború.
AMD-nek nincs pénze fejleszteni, óriási csúszásokat szed össze, NV pedig direkt hátráltatja az explicit apikat és hátradőlve refreshelget+kaszálja az durva pénzeket. AMD válaszul GPUOpen, konzolháború.. stb...Win-win lett volna mindenkinek, ha Vegával+Voltával egyszerre lép AMD és NV a DX12 területre, addig közös megegyezéssel a DX11-re gyúrt szétoptimalizált archokat hajtják. így vagy úgy, még 1-2 évig biztosan ez a purgatórium állapot lesz.
-
proci985
MODERÁTOR
válasz
Petykemano #24211 üzenetére
multiprogramozas nehez. eleve threadkezeles pl C++ban nehezkes volt egy idoben (C++11 szabvanyositotta, elotte meg lehetett oldani de sokkal bonyolultabban). masik, hogy ha kozos cache kell akkor eleve felso korlat lesz arra, hogy mennyi teljesitmenyt lehet nyerni, egyebkent meg felso korlatnak ott Amdahl tovenye.
es akkor meg ott vagyunk, hogy hiaba ott mar a language support, ha a fejleszto nem erti mit csinal, akkor vagy korrupt lesz az adat, vagy (jobb esetben) csak tetulassu / nem fog skalazodni. nehez a terulet es nehez az atallas.
ahol en csinaltam a BSCt kepeznek jatekfejlesztoket is, gyakorlatilag harom masodeves egymasraepulo kurzus utan amibol ketto csak erre fokuszal jutnak el oda, hogy a halozati kodot mukodokepesre meg tudjak irni.
masik oldalrol viszont 2010ben nem hittem volna, hogy hat evvel kesobb meg mindig negy magon allunk mainstreamen.
-
HSM
félisten
válasz
Petykemano #24170 üzenetére
Ez eddig is így volt, hol az egyik, hol a másik gyártó jött elő fejlesztésekkel. De egyértelműen látszott, hogy fejlődik a hardver, és követik az API-k. Volt is, hol az egyik, hol a másik volt előrébb tudásban. Ami hirterlen beugrik, az a DX9-ben, ahol pl egy generációnyi AMD-ből hiányzott az új shader modell (X1000-ek ha jól rémlik), aztán az DX10-nél az Nv-kből hiányzott a DX10.1, aztán DX11-re helyrejöttek a tudásszintek (5000-es széria+Fermi), majd az AMD ismét fejlesztett hardveresen 2012-ben a GCN-el (főleg Tahiti), viszont az Nv egy egészen más irányba indult a Keplerrel (energiatakarékos működés), na és innetől akadt el a téma, és ragadt be a DX11 évekre. És ez egyértelműen keresztülhúzta az AMD számításait, akár procik, akár VGA-k terén. Az FX procik a relatív gyenge egyszálú sebesség miatt szívtak, a GCN Radeonok meg a DX11-hez feleslegesen bonyolult architektúra miatti pluszfogyasztástól, és emellett kihasználatlanul hagyott teljesítménytől.
-
VTom
veterán
válasz
Petykemano #24170 üzenetére
Szerintem az AMD most mindent egy lapra tett fel, azzal, hogy a konzol architektúrához hasonlóra tervezi a kártyáit, arra számít, hogy a dx12-re írt portok jobban fognak teljesíteni az akkor már régebbi, olcsóbb kártyáikon. Ezért nem indítanak a csúcskategóriában semmit. A dx12-re írt játékokban a régebbi szériás AMD kártyák is arányaiban többet gyorsulnak, mint NV-n.
Az már más kérdés, hogy ettől még mindenki Pascalt vesz, mert összességében még így is gyorsabbak.
Én bízom abban, hogy mindkét dolog bejöjjön nekik, mert levermé a vga árakat is, és jobb minőségű PC-s portok is jönnének. -
#Morcosmedve
veterán
válasz
Petykemano #24165 üzenetére
-
TTomax
félisten
válasz
Petykemano #24165 üzenetére
Az a baj,hogy az amdnél nem nagyon van semmi,ha lenne akkor kinn lenne a 1080 ellen.Az hogy készül,az világos.Sokan örvendeztek anno,hogy az amd megnyerte a konzolokat,csak sajnos a pénzügyi jelentésen ez már nem annyira látszik.Az a baj,hogy a DX12 is inább arra van használva,hogy a hanyag pc portot méghamarabb kitolhassák kevesebb pénzböl,ez sem igazán tesz jót az amdnek,a mi pénztárcánknak meg föleg nem...
-
HSM
félisten
válasz
Petykemano #24165 üzenetére
"az archtektúrájukat hozzáigazították ezen apik működéséhez"
Pont ez az,a mi példátlan, és a játékos társadalomnak szvsz nagyon rossz. Ilyenre nem is tudom mióta nem volt példa, hogy az architektúra kövesse az API-t és ne fordítva, az architektúrák fejlődését az API. -
válasz
Petykemano #24165 üzenetére
Te jó ég, most olvasom, hogy etika témában futjuk a köröket. Basszus, ez nem családi körben játszott csapd le csacsi a gyerekekkel.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #24102 üzenetére
Ne számíts semmi komolyra, mert jön még a Vega11 is a Polaris10 helyére. Igaz később, mint a Vega10.
-
válasz
Petykemano #23961 üzenetére
Jelen esetben a legfőbb partner én magam vagyok, és én ku..ára nem örülök, hogy egy gpu-t dupla áron sóznak rám, mint amit valójában ér.
Egyik oldalról ott a nyomás, hogy ha a jövőben majd dx12-vel akarok játszani, akkor jobban járok, ha nem vga kártyát veszek, hanem konzolt (dx12 a pc gyilkosa), másik oldalról meg ott a nyomás, hogy láthatóan imádnak lehúzni.
Nem csoda, hogy úgy éreztük, hogy a vga kártyák ára eszetlenül felment az utóbbi időben az értékükhöz viszonyítva. Mert így is történt. Teljesen abszurd és igazolhatatlan az árazás. Csak azért, mert amd totális balf..z, és nem tud árban versenyezni, nvidia pedig addig tolta az árakat, hogy végre amd lélegeztetőgépen, szondás táplálással azért életben maradjon. Pont ugyanaz történt, mint a cpu piacon. A két vezető gyártó tartja életben az amd-t, hogy legalább papíron legyen egy versenytárs (verseny persze nyemá).
-
keIdor
titán
válasz
Petykemano #22894 üzenetére
A GP102-ben eleve van még tartalék, a Titan X Pascal is vágott.
Egy 3840 cuda core-os 2GHz@aircooler/hybrid, 12GB GDDR5X kártyával simán el lennének egész 2017-ben, ez papíron avg. GTX-1080+50% teljesítmény, ami már önmagában 4K-ra is elég. Minimális kompromisszummal. -
Ren Hoek
veterán
válasz
Petykemano #22894 üzenetére
Logikus... hová siessenek? Akkor tudom elképzelni a kis kínai börjakós fazon arcán a félelmet, hogyha kijönne a Vega 2017-ben, és mellé egy rakás gyors kódos meg DX12 full fícsör játék. ... de még így is ha csak 1080 ellen lesz elég a Vega, akkor hová siessenek... nincs értelme kapkodni. 1070-1080-al már most beblokkolták a piacot. Aki a 970-980-290-390X kategóriát szeretné váltani, az valószínűleg már váltott 1070/1080-ra. Talán pár nagyon türelmes AMD szerető ember kivárja a Vegát. Talán... még talán gondolkozok. de fogy a türelmem. (MSI 480X még mindig 105K, a Giga 1070 meg 134K.)
-
válasz
Petykemano #22894 üzenetére
Akár linkelhetted is volna. Egyébként ezt itt senki nem tudja, a wccftech is csak pletykaként kezeli.
-
válasz
Petykemano #22709 üzenetére
Túlkombinálsz. Sokkal inkább érdemes most kiadni a 1080 Ti-t, mondjuk pontosan az 1080 és a Titan X ára közé belőve, aztán majd csökkentik az árat, ha olyan lesz a Vega. Egyébként ha lesz 4096 számolóegységes Vega, akkor szerintem nagy örülhetünk ha egyáltalán az 1080 szintjét tudni fogja.
-
Venyera7
senior tag
válasz
Petykemano #22698 üzenetére
Èrdekes, hogy a VideoCardz nem hozta le, szerintem fake. Pláne a GDDR5...
-
core i7
addikt
válasz
Petykemano #22700 üzenetére
Pascal=Nvidia
Vega=AMDVagy a Voltát(Nvidia) és a Vegát(AMD) kevered?
-
FLATRONW
őstag
válasz
Petykemano #22700 üzenetére
Félrebeszélsz.
Ez Nvidia, nem AMD. És még mindig Pascal, nem Volta (kevered az AMD-s Vega-val). -
válasz
Petykemano #22700 üzenetére
-
imi123
őstag
válasz
Petykemano #22698 üzenetére
Mármint a 1080Ti képességei.
-
Ren Hoek
veterán
válasz
Petykemano #22627 üzenetére
Szerintem ez csak definíció kérdése. Én mindent bukónak veszek, vételi ár-eladási ár és kész. Emiatt nem is pejoratív értelemben mondom, 20-30K teljesen bennevan az eszköz értékcsökkenésében 1 év alatt. "Eljátszottam" ezt az értéket...
de afelett, mondjuk megveszel egy Titan-t, aztán kijön a Ti, vagy esetleg most a Ti-k, vagy a Fury-k (Fury-kon volt egy undorító bukó) ... dehát minél drágább egy termék, ez annál több. Jobb ezzel nem is foglalkozni, mert akkor semmit se vesz az ember jóformán. (Főleg nem új kocsit pl
)
Pascal egészen a Voltáig szerintem jól fogja tartani az árát. Talán Vega rondít majd bele... de a kisebbiket kb 120-ért kéne adni, hogy megérje.
-
válasz
Petykemano #22647 üzenetére
Lószar x 2 az két lószar.
-
vader108
tag
válasz
Petykemano #22647 üzenetére
Valójában egy kutatás.. Fix Q2-ről tudjuk h 70-30 arány volt (ami már a q1-hez képest növekedett) Október elején már megtudjuk úgyis a q3-at. Akkor kiderül.
Bízom benne, hogy emelkedik, hátha jobb árverseny lesz
-
válasz
Petykemano #22647 üzenetére
Még jó, hisz tett érte (Polaris) és van is honnan feljönnie.
-
válasz
Petykemano #22350 üzenetére
Amit abu technohalandzsázik fényezve az AMD frekvencia-feszültség stabilizációs és modulációs képeségeit, valójában nem mást jelent, mint azt, hogy az nvidia chipek valójában sokkal jobbak, csak a variancia miatt kénytelenek a leggyengébbhez készíteni a specifikációt.
... sokkal jobbak, és ezért úgy tudják belőni a teljesítményt és a fogyasztást is, ahogy a legcélszerűbb a piaci érdekek szempontjából. Vajon miért lehet az, hogy az 1070-es és az 1080-as FE-k 1700-1750 körül boostolnak, az 1060-ak pedig bőven 1800 fölé? Szerencséjük volt az 1060-nal, nem?
(#22356) FLATRONW: na ez jó hír, a Wattmannal nem volt éppen öröm monitorozni...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #22350 üzenetére
Úgy fogalmaznék, hogy sokkal jobbak lehetnének, ha lenne rájuk egy korszerű DVFS fejlesztve. Egy nem szoftveres. De igen a lényeg ez, és ez nyilván mérnöki szemmel egy probléma.
(#22349) Szaby59: Mondom a proci egy kicsit más, mert nagyon csalóka azoknak a rendszereknek a kihasználása. Azok sokkal homogénebb feldolgozók, mint egy GPU, ami sok szempontból igencsak heterogén.
Az Intel sem tudná 4,5 GHz-en adni a Skylake-et, mert a belső teszteken megbukna az órajel. De a Kaby Lake-et igen, mert az már a második generációs node-on készült. Valószínűleg lesz is úgy 4,4-4,5 GHz körüli boost.(#22337) stratova: Nézd a gyártás leginkább az Intel esetében lényeges, mert ők még a nem kiforrott node-ra is rámennek. Az AMD és az NV esetében nincs igazán jelentősége, mert csak a kiforrott node-okat keresik. Ma láthatod, hogy egyértelműen nem csinálnak pipe cleaner lapkákat. Meghagyják az örömöt az Apple-nek, Qualcommnak, Samsungnak, stb.
Samsungnál biztos tudnák, mert ugyanaz a node. TSMC-hez bármi leportolható, de oda át kell vinni a tervezőkönyvtárakat is.A fogyasztásnak csak közvetve van köze az alkalmazott DVFS/AVFS-hez. Ahhoz eleve szükséges egy architekturális alap. A DVFS/AVFS csak az alap hatékonyságát tudja javítani, de ha az alap fogyasztása más, mint a konkurens alap, akkor azon nem segít semmilyen hasonló funkció. Ahhoz, hogy a fogyasztást az AMD lejjebb vigye le kell butítani az architektúrát. Jó példa itt a mobil GPU-k fogyasztását megnézni, hogy azok mennyire hatékonyak bármelyik asztali verzióhoz viszonyítva. Egyszerűen nem tervezték olyan szintre, mint az asztali verziókat.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #22065 üzenetére
A Fury X teljesítménye átlagosan kisebbet esik. Általánosságban azért esik a DX12 teljesítmény a DX11-hez képest, mert egy rakás optimalizálás nincs engedélyezve. Egyszerűen nem stabilak. Most is panaszkodnak a DX12 kód stabilitására, ha engedélyezték volna az alpha állapotban lévő optimalizálásokat, akkor egy percig sem lenne stabil. Ilyen a fejlesztés.
Új driver nem kell a DX12-höz. Ahhoz kell, hogy a gyors kódokat futtassa, és ne a szabványos lassú kódokat, amiket futtat ma. Még ha szállítanák is a bétában a gyors kódokat, a benne lévő függvényeket az fxc-hez írt fordítóimplementáció nem ismerné fel.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #22059 üzenetére
Ha a Fury X-re gondolsz, akkor az. Ezért lehet majd ezen a VGA-n a nem szabványos GPU-driven pipeline implementációt futtatni. De ehhez kell egy olyan meghajtó, amelyben benne van a pass-through shader fordítás, ami megkerüli a DirectX fordítási lépcsőit. Ez a meghajtó viszont még nincs kész. De szerintem a béta programban eleve nincsenek benne a nem szabványos shaderek.
-
#00137984
törölt tag
válasz
Petykemano #21911 üzenetére
Rádcáfolt az élet.
A hardver miatt veszünk egyik-másik oldalról kártyát. Amelyik a játékban jobb teljesitményt nyújt és a tesztekben vezető szerepe van, az a nyerő. Egy rossz start vagy pár kibukó hiba esetén a tömegek a másik oldalról kezdenek vásárolni, de jó erdmények esetében sem garantált a siker. A hardver mellé driver és szoftver támogatás jár. Ha a driverek miatt a játékokban grafikai meg egyéb hibák jelentkeznek, a driverek miatti elégedettlenségtől eladják a kártyát és megnézik a másik oldalon mi a helyzet. Ha jó véleményük alakult ki, akkor generációkon keresztül nem váltanak újra és meggyözödésből elitélik a másik oldalt a hibáik miatt. Viszont ha már a hardverben is hibák fordulnak elő, akkor egy gyártó örülhet ha mégis sokan megveszik a kártyájukat és legalább a kedves felhasználóiknak a drivereket időben és hibamentesen jelentessék meg. Nvidia erőből oldja meg a teljesitménykérdést, de a fogyasztás és egyéb körülmények kielégitőek évek óta, ezért a felhasználók többsége a magas árazás ellenére is megvásárolja a kártyáit. AMD a hardverkben rejlő részletekben kiegyenlitheti a kevesebb erőforrásból elérhető jó teljesitményt, de ehez a szoftveroldali támogatásra is jobban rákényszerűl a driver és játékok felől. Ha sikerül jól összehangolt képletet összehoznia, akkor a teljesitmény és a játékosok elégedettsége megvan. Ha gond adódik a képletben, akkor a felhasználók vagy kivárnak és közben aggodalmaskodnak, vagy eladnak és megint mást vesznek. Nem csak a versenyzés számit, hanem a játékélmény közben. Nem csak sima aszfaltcsikon kell jót menni, hanem utcai és terep körülmények között is. Mindenhol kiegyenlitett teljesitményt kell nyújtani, minden körülmények között. Nvidia erősebb DX11-ben és az AMD meg javult közben, viszont az AMD meg DX12-ben jobb. A játékokra marad a végső döntés, mert ott eldöntheted melyik kártya mihez is elég.
-
#00137984
törölt tag
válasz
Petykemano #21905 üzenetére
Mibe fog nekünk ez kerülni...!
Körbenézek, mert nekem már a Polaris mainstream is sokba fájt. Amolyan átmeneti megoldásnak szántam, de lehet ez hosszabb ideig fog tartani mint gondoltam. Mire egy AMD-s GTX1070 teljesitményű kártya elérhető ársávban lesz kapható...2018.
-
válasz
Petykemano #21877 üzenetére
Ez most egy az egyben ráhúzható az AMD vásárlókra, de nem tudom, mennyire általános a megállapításod, ha más termékeket, piacot nézünk.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #21580 üzenetére
A szoftveres csoport, aki ezen dolgozik nem fogja mérlegelni, hogy mi kell az eladáshoz, mert nekik olyan feladatuk van, hogy tegyék a PC-s játékfejlesztést elfogadhatóvá a legtöbb stúdió számára. Olvasszák össze a multiplatform kutatásokat, így a konzolra kifejlesztett kódok is használhatók lesznek PC-n. Ez a szoftveres csoport a GPUOpenben csak erre koncentrál, és láthatóan nagyon jól végzik a dolgukat. Fél év alatt igen sokat tettek azért, hogy a PC-n is elérhetők legyenek bizonyos konzolos képességek. Ennek nagyon fontos költségcsökkentő hatásai vannak, mert úgy sem fog senki direkten PC-s kutatást végezni. Ez az elmúlt évekből már kiderült. Ilyen szempontból egyébként a GPUOpen nem más, mint egy reakció egy problémára. Sőt, a GameWorks sem más, csak más oldalról közelíti meg a problémát, de egyértelmű, hogy az NVIDIA is ugyanazt látja: nincsenek direkt PC-s kutatások.
A GPUOpen és a GameWorks ilyen formában még ki is egészíti egymást, hiszen más a célcsoport is. A GPUOpen a top stúdiókat tudja megszólítani, míg a GameWorks a függetleneket.A hardvereladás más lapra tartozik. Nem a GPUOpenben résztvevő programozóktól függ, nem is kell foglalkozniuk ezzel.
Marketing oldalról egyébként általánosan nehezebb bánni a GPUOpennel, mert az tulajdonképpen nem ad mást, mint hozzáférést a hardverhez. Tehát az ideális marketingje az, hogy a fejlesztő kap dokumentációkat, eszközöket, forráskódot, mindent, ami a fejlesztéshez kell, és a konzolos optimalizálást áthozhatja. Ennek az eredménye sebesség vagy extra effekt lesz, de nem tudsz kiemelni semmit, mert tök általános az egész, minden partner olyan innovációt hoz, amilyet akar. A GameWorksszel sokkal könnyebb bánni, mert az pont nem ad hozzáférést semmihez. Kínál pár előre megírt effektet és kész. Ha egy fejlesztő ennél többet akar, akkor ... nos akarni sok mindent lehet. Viszont a marketing teljesen kötött, mert a fejlesztő nem csinálhat mást, mint amire az NV lehetőséget ad, és az rendkívül szűkös, tehát nincs végtelen opció az innovációra, és arra pár lehetőségre ami van rá lehet építeni az egész marketinget.
De nyilván ez az egész nem ennyire fekete-fehér, mert például a GPUOpen adja meg a lehetőséget az AMD-nek arra, hogy az eddig megjelent Win32-es AAA DX12 játékokból hármat a Gaming Evolveden belül jegyeznek, és ugye csak egyet jegyez az NV. Tehát vannak itt előnyök a hátrányok mellett, ahogy az AAA játékhiány a GameWorks oldalán egy egyértelmű hátrány. -
válasz
Petykemano #21552 üzenetére
Pár hétig Abu nem ír semmit, és már rögtön megy a spekuláció.
Amúgy szabin van.
-
Habugi
addikt
válasz
Petykemano #21533 üzenetére
A játék jelenlegi állapotát annyiban lehet summázni, hogy az összes létező VGA lassul benne DX12 mellett, ha ez nem meríti ki az end of sztory kategóriát és nem ad maximálisan kimerítő választ a kérdésedre, akkor semmi más sem fog!
Kb annyit ér ez a teszt most, mint véletlenül rápillantani random felületen, 38ezredik alkalommal is Kiszel Tünde egészségesen bozontos szemöldökére, tudtuk.., láttuk már, kb várható is volt de ettől függetlenül még mindig váratlanul éri az embert.
-
mlinus
őstag
válasz
Petykemano #21533 üzenetére
talán - day 1 patch ps4-en biztos lesz. driver már nv oldalon van.
-
#65755648
törölt tag
válasz
Petykemano #21077 üzenetére
Lehet ezért csinálja és írja 04ahgy a teszteket... Ha nem tűnt volna fel. Olvassátok végig pl a legutóbbi RX 470 tesztet és mondjátok meg őszintén: bele tudtok kötni akár egyetlen mondatában is?
Nekik nem az fáj, hogy Abu-nak tetszik az Amd jövőbe mutató technológiája. Még csak nem is az fáj, hogy a tesztek teljesen objektívek, sőt az utóbbi időben láthatóan szinte nem mernek pozitívat írni a tesztekben az Amd kártyákról - lásd a Tpu jobb értékelést adott az RX470-nek, mint a Ph.
Nekik az fáj, hogy a Ph nem elfogult az Nv irányába és addig nem tudnak nyugodni míg el nem kezdi a Ph is a zöldek fenekét nyalni, mint egynéhány másik oldal.
És engem aggaszt a gondolat hogy ezt el is érhetik. Az utóbbi időben hagyománya van annak hogy az idióta, de annál hangosabb kisebbség megtévessze a középső, bizonytalan többséget, ráerőltesse az akaratát és ezzel kárt okozzon nekik: Brexit, Trump stb. -
Abu85
HÁZIGAZDA
válasz
Petykemano #21077 üzenetére
Nem így van.
Az a lényeg, hogy mindig van egy hangos kisebbség, akiknek valami sosem tetszik, de valójában azt, aminek hangot adnak, sosem tudják bizonyítani. Hiába kéred, hogy emeljék ki a problémás részeket az írásokból. Ennyi. Ha valaki nem csak károg, és hoz valamiféle értelmes dolgot, akkor azt nyilván mindenki meghallgatja, még én is.
(#21079) miklosss2012: Már le is tesztelték a srácok. Szerintem hétfőn megjelenik, de én szabin vagyok szóval erről nem dönthetek.
-
do3om
addikt
válasz
Petykemano #21077 üzenetére
Elég lenne ha leszokna az előre borítékolható hülyeség tényként való közléséről.
Tegnapi nevetséges kijelentése: az év végére dx12 és vulkán támogatású játékokkal fognak tesztelni!!
Vulkán!!! van 1 EGY db játszható játék, amiből év végere gyanítom szintén ugyan ez a szám lesz mérvadó.
De nem baj majd valami jön valami kínai tamagocsi játék rá amit egekig magasztalhat és bekerülhet a tesztbe.
Szeret nagyot mondani jön egy csomó dx12 AA játék, amikor rákérdezel hol van felsorol egy tucat fost, aminek a feléről nem is hallottál. Na ezek a nevetséges dolgok. -
cyberkind
félisten
válasz
Petykemano #21003 üzenetére
Az ugye fel se merül, hogy az a később kb akkor lesz amikor ezek a kártyák bármely oldalon papírnehezékké fognak válni teljesítményben, de igaz, csak egy 980TI tulaj vagyok akinek nem kell a PH mantra és csak játszani akar most is normálisan nem csak egyszer a jövőben, jókat tudtok írni.
(#21006) Malibutomi
Tökéletes példa lesz erre a Deus Ex, feltéve ha olyan lesz mint várjuk, de nem hinném.
Azt meg se említem, hogy Quantum Break, minőségi DX12e-s meg UWP-s cucc lett, én konkrétan eddig egy játékban vettem észre, hogy a DX12-nek hála jobban megy, ez a Tomb Raider. -
Abu85
HÁZIGAZDA
válasz
Petykemano #20999 üzenetére
A hardverek nem oldanak meg mindent. Amire szükség lenne a GAB és az ARB számára az egy hardver oldali egységesítése előírása. Ez sokat segítene a fejlesztőknek abban, hogy milyen kódot írjanak az alkalmazásba. Erről egyébként szó van a háttérben. Ugyanakkor egy ilyen egységesítés lassú folyamat, mert egyes cégeknek az architektúra teljes leváltásával járna. Rövidebb távon ez gond, hosszabb távon persze megoldja magát a probléma, mert igazodni fog mindenki az API-k működéséhez. Ez már látszik is, mert a GCN mellett az új Bifrost Mali is nagyon jól illik a Vulkan ajánlásaihoz. De a Rogue is ilyen az Imaginationtől.
-
Oliverda
titán
válasz
Petykemano #20999 üzenetére
Az Nvidiának származott már valaha is komolyabb piaci hátránya attól, hogy a jövő helyett inkább a jelen igényeinek próbált megfelelni? Én nem emlékszem ilyenre. Ezzel szemben az AMD sem az első elkapkodott DX10-es, sem pedig az első DX11-es sorozattal nem tudott hosszabb távú előnyre szert tenni, ami ezen a grafikonon is látszik. Valószínűleg most is hasonló fog lejátszódni, mint az említette esetekben. Amire az új API-k már komolyabban befolyásolnák az összképet, addigra az Nvidiának is lesz hozzá megfelelő, akár az AMD aktuális megoldásánál jobb hardvere (Volta), eközben pedig a Radeonok kompromisszumok mentén egyensúlyoznak a jelen és a jövő között. Pár éve a heterogén mantra volt az indok, most pedig rá lehet fogni az egészet a konzolokra, de ez a PC-s gamereket szerintem nem nagyon hatja meg, a bevétel és a piaci részesedés alakulása nem hazudik.
-
cyberkind
félisten
válasz
Petykemano #20999 üzenetére
Azonkívül, hogy elvileg gyengébb hardver is elviszi a játékot 12-ben grafikailag nem igazán látni előrelépést, engem meg ez érdekelne, különben még mindig tökéletes a 11.
-
válasz
Petykemano #20999 üzenetére
Szerintem már most is ez a helyzet
-
válasz
Petykemano #20805 üzenetére
Az nVidiánál adódik egy egyszerű magyarázat: továbbra is crossbar memóriabuszt használnak, és ennek a komplexitása a kontrollerek számának növelésével egyre nehezebben kezelhető. Mivel 512-bites buszt egyetlen GPU-n csináltak eddig, és az a történelmük egyik legrosszabb terméke volt, gyanítom, hogy a 384-bites méret van a kényelmes kezelhetőség határán. Ezért inkább a GPU-t is sávszél-takarékos irányba fejlesztették. Persze lehet, hogy más is van a háttérben.
Az AMD-t és a ROP-jaikat én sem értem, számos kártyájuk sokkal jobb lett volna erősebb backenddel, és azok a termékeik lettek a legjobban sikerültek, ahol valamilyen okból a szokottnál több ROP-ot használtak. Még anno az X1900-as szériával álltak rá erre a vonalra, a 2900XT-nél folyamatosan abban hittek a fanok, hogy rövidesen eljő a magas számítási kapacitás uralma - de aztán nem jött, vagy legalábbis nem úgy, hogy abból ezek a termékek profitálni tudtak volna.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #20617 üzenetére
A Sony nem váltott. Nagyon nehéz kiigazodni a szerződésen látatlanba, de úgy néz ki, hogy az AMD csupán lapkaverziókra köt OEM szerződést. Ez azt jelenti, hogy minden új lapka külön semi-custom megrendelésnek minősül, külön szerződéssel. Emiatt az MS és a Sony számára mindig az első verzió marad a legolcsóbb, mert annak az árát nem tárgyalhatja újra az AMD.
Másikra: [link]
-
Abu85
HÁZIGAZDA
válasz
Petykemano #20599 üzenetére
Gondolom az MS a legolcsóbb átállást választotta, vagyis nem kérte az AMD-től, hogy tervezzék újra az egész lapkát. Valószínűleg benne van a szerződésben, hogy az AMD milyen átállásnál milyen árakat szabhat meg, és úgy kérte az MS a váltást, hogy ne növekedjen túl nagyon a lapkák ára.
Tekintve, hogy az így készült 16 nm-es lapka kb. 50 mm2-rel nagyobb, mint lehetne normális tervezés esetén, valószínű, hogy az AMD csak egy 28 nm-ről portolt dizájnkönyvtárat használt. Ezt más bérgyártóhoz nehezebb lett volna portolni. -
válasz
Petykemano #20384 üzenetére
Szerintem is ez már csak vihar a biliben... A többség pont nem foglalkozik már ezzel.
-
nubreed
veterán
válasz
Petykemano #20065 üzenetére
Na pont ez, azaz árverseny, veszteség kompenzálás az nVidiától ami megölheti az AMD-t valóban. Mert az nVidia simán megteheti anyagilag, hogy ezt megtámogassa minden gond nélkül. Az más kérdés, hogy mennyire etikus.
-
válasz
Petykemano #20038 üzenetére
Mármint a bonyulultabb, de rugalmasabb megoldás és ezáltal a kevésbé magas órajel pl?
Á, ez sokkal régebbi dolog... ez a GPGPU irány miatt van AMD oldalon (és amiért anno felvásárolták az ATI-t), meg a heterogén CPU+GPU (APU) integrálás miatt, ami még mindig nem jött el igazán PC fronton (a piaci felosztás/gyártók helyzete miatt), bár a mostani konzolok nagyon közel vannak már, csak ugye az egy elég spéci területre (játék) van jelenleg használva. PC-n ugye ennél egy sokkal szerteágazóbb hasznosításra lenne lehetőség. De meg kell várni sajnos amíg az intel is eljut arra a szintre... az meg nagyon lassan és nyögvenyelősen megy.
Ez az irány megkövetelte az összes dolgot amit beleraktak a hardverbe (preempció, dinamikus erőforrás kiosztás, stb stb), ez gyakorlatilag egy "központi processzor" is kéne egyben legyen... cserébe sajnos azzal járt hogy grafikára már nem annyira hatékony az egész, ezért marad benne (relative) sok/több kihasználatlan képesség és erőforrás. És valószínűleg van pár dolog amit kénytelenek leemulálni is, ezért a driver sem mindegy mit csinál, illetve nem tud olyan hatékony lenni, mint a másik oldalon.
+ az utóbbi években már az AMD "filózófia" szintjén mindigis alultervezte a kimondottan grafikus végrehajtásra való részeket, a compute általános részeket meg felül. Ezért kicsit mindig aránytalan (és kihasználatlan) volt eddig ez a része.A VR és a DX12/Vulkan/Mantle dolog, az már csak egy amolyan "végterméke", ennek az iránynak, félig meddig kényszerből is... ami mellesleg jókor is jött az AMD-nek (nyilván az API-s dolgot meg ők "kényszerítették" ki).
NV meg ugye egy sokkal inkább célhardvert csinált, erős a grafikában, arra van kihegyezve az egész, és az "általános" compute/GPGPU jellegzetességeket sokkal lassabban (szándékosan?) teszi bele. Ezáltal egy jóval egyszerűbb és spórolósabb/hatékonyabb GPU-t tudott a játékospiacra hozni, főleg a Maxwellel, amin szinte alig változtattak (egy két nagyon kötelező dolgot leszámítva, lásd preempció, dinamikus erőforrás kiosztás) a Pascalban.
-
válasz
Petykemano #19952 üzenetére
Na hát ez az, hogy miért optimalizálnál a mára, ha neked gondolni kell a jövőre is... Mi van ha következő GPUk tök máshogy fognak működni? A szabványosság/"semlegesség" pont azért jó, mert biztosítja azt hogy a programod mindenen futni fog.
Egy konzolnál ez nem probléma, mert a szoftvert kukázod a hardverrel együtt.
PCn ez nem működik, így nem jó behozni... Mindenképp kell egy semleges fallback kód minimum, ami tuti mindenen fut.
Egy tesztnek ezt kell elsősorban bemutatni, hogy egy ilyen kódból mit lehet kihozni.
Ezt ki lehetne egészíteni igen, gyártóspecifikus ezzel azzal, de akkor viszont az már mást mutat és másról szól.
Pont ezért mondom hogy lesznek akiknek lesz erre ideje meg pénze, meg lesznek kiknek nem.
De ha mondjuk te egy Frostbite engine-t terveznél, amire több éves fejlesztéssel, az összes játékodat alapozod mint mondjuk az EA, akkor te behoznád a fenti rizikót egy kis sebesség reményében, vagy a semleges szabvány kódra alapoznád a motor fő komponenseit?
Persze emellett, ha van rá módod, időd meg pénzed, akkor beteheted a nem szabvány optimalizált utad is, de abba benne van hogy kihal és bizonyos szinten felesleges lesz, lásd mondjuk szintén a Frostbite esetén a Mantle... -
válasz
Petykemano #19935 üzenetére
Nem tudom olvastad e mit írt a Future Mark... vagy láttad e ezt: [link]
Alapvetően a hardver szállítók, a Microsoft és a játékkészítők visszajelzései szerint csináltak egy ésszerű szétosztást a 3D/Grafikai/Direct queue és a Compute, Copy queue között megjósolva egy átlagos jövőbeni PC játékmotor viselkedését... (ahogy DX11 alatt is ez történt anno, ezért többé kevésbé leképezi ott is az erősorrendet és a játékmotor képességeket a Firestrike.)
Nyilván most is és a DX11 alatt is vannak és lesznek ettől jóval eltérő terheléstípust generáló játékmotorok, de átagosan jól szimulálja a "jövőt".A grafikus és egyéb munka is esszerint van szétosztva a queue-k között a Time Spy alatt. Nincs ezzel semmi baj szerintem. És biztos vagyok benne hogy nem úgy nyerhető a legtöbb ki ahogy Abu írta (hogy minden grafika egy queue, és némi egyéb compute mellé)... főleg hogy a compute (akár grafikai effekt, akár más), egyre dominánsabb, tehát ha az összes (akármilyen) feladat van jól szétosztva az optimálisabb lehet.
Azt már a driver és a hardver dönti el, hogy ezeket a queue-kat milyen sorrendben és hogyan dolgozza fel. Ha tud teljesen dinamikusan, akkor úgy, ha csak preemptiven (ahogy az NV megoldását tippelik), akkor úgy... ha meg sehogy (Maxwell), akkor szép sorban. De ez már nem a játék/program feladata, ő beteszi a queue-kba a feladatokat és átadja a driver/hardver részére.
A malmozó részegységek mennyisége ami rendelkezésre áll meg relativ... ha sok pl a grafikai számítás, akkor kevés lesz gyártótól függetlenül. Az AMD azért tud (részben) annyit gyorsulni, mert eddig nem tudta munkára bírni az összes feldolgozóját sok esetben... tehát vannak ilyen üresen járó részek, az angol ugye "bubble"/buboréknak hívja. Az NV meg jóval kevesebb feldolgozót és máshogy használva tervezte a GPU-t, ezért ki tudta hozni belőle jobban a maxot, ezért nem gyorsul annyit, mert nincs annyi felesleges végrehajtó.
De látható pl a DOOM Vulkan alatt is, hogy az NV is tud ettől még gyorsulni, ha jól van megcsinálva az egész.
-
Ren Hoek
veterán
válasz
Petykemano #19918 üzenetére
Itt írta, hogy azt nem lehet megoldani úgy, hogy az NV ne lassuljon ugyanezzel a kóddal. Érthető, külön kódút kell.
Szerinted egy tesztben megengedhető, hogy gyártóspecifiikus kódot írjanak? Nem. Akkor nem lenne egységes teszt. Mintha a maratonon egyik versenyzőnek adnak egy lovat, másiknak meg biciklit, aztán döntsd el melyik, jobb.
Tény, hogy így meg baromság a teszt, ráadásul igencsak NV-nek kedvező. Szerintem fizettek is érte. Ezeknek a teszteknek egyre kevésbé van értelme. Kb lassan olyanok lesznek, mint a Compubench. Annak játékra vetítve semmi értelme.
-
válasz
Petykemano #19918 üzenetére
He?
Lehet nekem van késő, de te érted is amit írsz?
"csinálnának egy olyan tesztet is emellé, amelyik grafikus futószalag mellett futtat aszinkron compute -t."
Szerinted a mostani mit csinál?
-
Ren Hoek
veterán
válasz
Petykemano #19874 üzenetére
Nem... Erről korábban is volt szó, több compute szál is mehet asyncron. Csak játékban fut mellé pl egy grafikai is.
Ha jól rémlik, AOTS-ban is simán lehet 10 compute futószalag.
Az átlapolás a lényeg, ezért async.
-
válasz
Petykemano #19874 üzenetére
Az async compute nem csak más részegységek felhasználásáról szól, azért nem.
Az async lényege az hogy ki nem használt "fölösleges" erőforrásokat fogjunk be munkára az elvégzedő fő feladat(ok) mellett... és azért async mert függetlenül végrehajthatóak a többi mukához képest (nem kell szinkronizáció az indításukhoz, futtatásuk közben, más futó folyamatokkal).
Tehát a Time Spy egy teljesen jó teszt erre.
Async = nem kell szinkronizálni ("egyeztetni" egymással)... szinkron és aszinkron is mehet valami párhuzamosan.
-
Laja333
őstag
válasz
Petykemano #19673 üzenetére
Ez még dx11.
-
Ren Hoek
veterán
válasz
Petykemano #19397 üzenetére
Eddig úgytudom driver és arch vegyesen. Látszik, hogy a 480 már nem gyorsul akkorát asynctól. Mert ott már fejlesztettek ezen.
Fury elég rendesen vissza van fogva... 480 már kevésbé. Ez azt is jelenti, hogy alapból ez tényleg egy középkategóriás chip, nem fog már akkora ugrást produkálni mint a több CU-t tartalmazó egységek. Persze ez csak spekulácó.
-
válasz
Petykemano #18960 üzenetére
volt már példa mindkettőre. nem is olyan régen derült ki, hogy más voltak az órajelek a sajtónak kiküldött asus és gigabyte 1070eseken, mint ami a retail példányokon volt. "véletlenül" OC állásban ragadt a bios.
az 1 kártya különböző chipekkel c. történetet pedig azt hiszem, hogy az nv sütötte el utoljára talán a 960nal. az oem verzió gm204ből készült, a retail meg gm206ból. -
gV
őstag
válasz
Petykemano #18960 üzenetére
... olyat meg pláne nem, hogy egy kártyanevet többféle chippel forgalmazzon.
NVIDIA csinál ilyet: GT730
-
#00137984
törölt tag
válasz
Petykemano #18927 üzenetére
4 db ref RX 480 a bekapcsolás után mennyi másodperc múlva fogja szénné égetni az alaplapot és a gépet. AMD Gamer Hell Power.
-
cyberkind
félisten
válasz
Petykemano #18927 üzenetére
Attól a MS-tól vársz csodát akik kiadták a DX12-t és azóta is kb csak van?
-
#85552128
törölt tag
válasz
Petykemano #18927 üzenetére
Nagyszerű, MS esetleg demonstrálhatná ezeket a saját DX12-es konzolportjaival, amelyek egytől egyig multi-GPU support nélkül jelentek meg
-
Abu85
HÁZIGAZDA
válasz
Petykemano #18667 üzenetére
Nézd meg a Radeonok teljesítményét DX12-ben. Ezért éri meg nekik. Például a legújabb esetet vizsgálva a végleges Warhammer patch-ben az AMD gyorsul, míg az NV lassul, ez elsődlegesen annak köszönhető, hogy az AMD-nél ott a knowhow arra, hogy miképp kell gyorsulni.
Azt sem tartom kizártnak, hogy a knowhow nem jár ingyen, bár ez már erősen üzleti alapú. Annyi biztos, hogy az AMD tapasztalata kell a fejlesztőknek, tehát nagyon előnyös a tárgyalási pozíció arra, hogy a fejlesztők beépítsenek exkluzív dolgokat is, ahogy például a Doom fejlesztői is Radeon-exkluzív eljárásokat raknak a Vulkan leképezőjükbe. Lehet, hogy megtennék maguktól, de az is lehet, hogy csak azért foglalkoznak vele, mert az AMD odaígérte nekik a tudást, és ezt kérték cserébe. -
->Raizen<-
veterán
válasz
Petykemano #18392 üzenetére
Az r9 390-et vette target-ba az meg gtx 970 szint, szóval azt célozta.
-
válasz
Petykemano #18072 üzenetére
cpu marad intel
-
mcwolf79
veterán
válasz
Petykemano #17514 üzenetére
Igen, ez az ami az AMD-t életben tartja. A user-ek reménykedése, hogy majd villantanak valamit.
De sajnos az elmúlt jópár év csak a csalódásról szólt,ha az AMD-ről volt szó -
nubreed
veterán
válasz
Petykemano #17514 üzenetére
Szerintem nem egyszerre fog rajtolni. Sőt, amennyi nekem lejött az eddigiekből, először valószínűleg csak a 480/480x lesz elérhető, a 490/490x valamivel később jön. (Vagy RX 480/490, már a franc se érti mit kavar az AMD az elnevezésekkel). A 480x -től szerintem nem valószínű, hogy várhatunk 1070 körüli teljesítményt, túl szép lenne, egy jóval olcsóbb kártyától. A 490x talán a közelében lehet.
-
válasz
Petykemano #17514 üzenetére
Ha minden igaz, a 1070-nél egyszerre lesz a FE és a AIB start, hamar lesz olcsó hetvenes.
-
válasz
Petykemano #17509 üzenetére
Ezt az egész problémakört megoldják a custom kártyák. A felárazott FE kártyák kissé elkapkodottan lettek bevezetve, lehet, hogy ilyen last minute ötlete volt valamelyik
főparasztnakszépügyesokos marketingesnek, de azt leszámítva a termékek a helyükön vannak.Úgyhogy az AMD a hallgatással egyedül azt éri el, hogy jó sokan vesznek 1070-et. Nagyon kell vmi kommunikáció, legalább egy ügyes teaser.
-
#85552128
törölt tag
válasz
Petykemano #17107 üzenetére
Ne a Furyhoz hanem a 390X-hez mérd: még eggyel régebbi arch, alacsonyabb órajel, csak "2816" sp.
Már nem olyan rózsás a helyzet...
A "referencia" 1050 MHz-es 390X-szel számolva gyakorlatilag +20% órajel -22% SP és csak 6%-kal gyorsabb tőle, tehát a tiszta nyereség 5% körül van max. 10% és ez a 3 éves architektúrához képest.A Fury ebben a tesztben elvérzik a kevés Rop miatt, a 390X-hez képest is kevesebb mint 10%-kal gyorsabb csak. Ennyire kevés különbség még a "Ropos" játékokban sincs köztük, szóval játékok többségében a Fury jobban elhúzna.
-
#85552128
törölt tag
válasz
Petykemano #17105 üzenetére
"4th Generation Graphics Core Next" aka GCN4 Már ha feltétlenül a marketing slidewarekre hagyatkozunk...
Attól, hogy változott az elnevezés az alaparchitektúra még ugyanaz csak tovább javítva, ahogy az a Pascal esetében is történt. -
hugo chávez
aktív tag
válasz
Petykemano #17002 üzenetére
A+C.
-
válasz
Petykemano #16994 üzenetére
Because nVidia is greedy. And because they can.
Amúgy tényleg szomorú, hogy megtehetik, hogy a Tier2-es chipre épülő kártyát 700 dollárért árulják...
-
#25237004
törölt tag
válasz
Petykemano #16794 üzenetére
A 380x meg a 970-et és ott van a 980 nyakán
-
SpongyaBob
veterán
válasz
Petykemano #16794 üzenetére
Az mellékes..
-
stratova
veterán
válasz
Petykemano #16627 üzenetére
Nem egészen, az a hülyeség ellen nem véd. Az átdolgozott front endben primitive discard accelerator elvileg a lehető leghamarabb megszabadulna a nem látható geometriatól (meshektől).
Erre többféle megoldás létezik, itt úgy néz ki a GPU kapna egy dedikált gyorsítót a feladatra.
Ha a kép közepén ott díszeleg egy beton korlát ott max a hátoldali, az adott nézőpontból nem látható háromszögekkel már egyáltalán nem végezne számításokat. Ha jól értelmeztem a témában eddig olvasottakat. Nyilván ez is nyereség, de ilyen húzás ellen esetleg driverben lehet korlátozni a max.tesszelláció mértékét. -
sutyi^
senior tag
válasz
Petykemano #16627 üzenetére
Valóban, de ez a Crysis 2 megjelenésekor nem volt téma, egyszerűen így vágták a fát az akkori AMD zsugák alatt amik hátrányban voltak nagy mértékű tesszelláció esetén.
-
Dark KillerX
addikt
válasz
Petykemano #16602 üzenetére
Azért nem kell temetni az AMD-t, itt ugy gondolom vmi driver bug lehet, és ezért szerepelnek ennyire gyengén
-
Abu85
HÁZIGAZDA
válasz
Petykemano #15940 üzenetére
Nem ágyaz meg semminek, mert még ha két IGP is lesz a lapkában, akkor is ugyanazt a memóriát érik el. Egyszerűen nem lesz más logikai nézetben, mint a konzoljátékoknál ma is sűrűn használt statikus particionálás, csak a fejlesztőnek lesz két fix teljesítményű partíciója, amit természetesen továbboszthat.
VR-nek valóban jó, de a PS4-re készülő VR játékok eleve úgy készülnek, hogy IGP/2 logikailag elosztva, és akkor mehet a két szemnek külön.Bizonyos dolgok sosem lesznek átmenthetők konzolról, jöhet a PC-be akármilyen low-level elérés. A statikus particionálás ilyen. PC-ben a sok hardver miatt dinamikus particionálás kell, de annyira nehéz ezt belőni, hogy inkább nem használnak semmilyent.
Az NV egy helyen nem tudja majd tartani a lépést. Ezek a DirectX kiterjesztések. Hiába hoznak például ők is Ballot kiterjesztést a DX12-höz, ahogy az AMD, az NV kiterjesztése nem kompatibilis a konzolokra írt kóddal.
Nekik azt kell elérni, hogy a SPIR-V-t használják a fejlesztők, mert abban van Ballot és ReadFirstLine-hoz hasonló szabványfunkció. Ez sem kompatibilis a konzol kóddal, de legalább szabványos, tehát lehet azt mondani, hogy írjátok az alkalmazást arra, mert a konzolos kód csak az AMD kiterjesztésein fut. A rossz hír, hogy a Vulkan API-ban sincs swizzle, illetve manual barycentric. Utóbbit kvázi mindenki használja a konzolon különböző analitikai AA-kra, és ezt a HSLS shadert májustól elég csak bemásolni a PC-s portba és Radeonon automatikusan fut. Ilyenekre egyébként tudna írni támogatást az NV, csak nem sok érdeklődő van iránta. Az AMD-nél is csak az teszi ezeket a kiterjesztéseket izgalmassá, hogy copy-paste módon szállíthatók. Ha hozzá kellene nyúlni a kódhoz, akkor az AMD kiterjesztései is hidegen hagynák a fejlesztőket. -
rocket
nagyúr
válasz
Petykemano #15918 üzenetére
Reszvenyeskent valamiben muszaj hinni, es elore kell inni a medve borere
Kinai licensz dij sokat nyomott az biztos, megkerdeznem azert az Amerikai kormanyt mit szolnak a dealhez -
daveoff
veterán
válasz
Petykemano #15516 üzenetére
Nem, ezeken a problémákon, amiket én írok, a Pascal se fog segít, szerintem.
-
válasz
Petykemano #15477 üzenetére
Azért nagyon viccesek ezek az eszmefuttatások, mert jellemzően kiindulnak egy valós alapról (ie. hogy az nVidia GPU-k jobban kihasználják a részegységeiket, több az FPS / tranyó, stb.), aztán ráépítenek egypár erősen fals, de legalábbis ellenőrizhetetlen állítást - jelen esetben azt, hogy náluk ez már annyira jó, hogy nem is igazán lehet rajta javítani. Amiért nem lehet egyértelműen rásütni, hogy baromság, az pont az, amit az AMD-nél mérnek - ha ott 10-20%-ot javul a teljesítmény, akkor az eleve magasabb kihasználtsági szintről induló nVidia esetében mennyi a potenciál? És valóban mennyi értelme van foglalkozni vele?
Itt két alapvetően eltérő irány van:
a) Az nVidiás csávónak van igaza, a GPU-k optimálishoz közelítően használják ki a számítási erőforrásokat, és az AMD a saját (nem túl komoly) hatékonytalanságát fedi el az aszinkron compute-tal
b) Nagyon komoly a kihasználtsági deficit mindkét oldalon, de annyira nem egyszerű hozzáférni ezekhez a szunnyadó erőforrásokhoz, mint ahogy a kezdeti hurráoptimizmus sugalltaÉn majdnem biztos vagyok benne, hogy a b) a valóság, viszont az nVidia ki fog tartani az a) mellett, amíg az üzleti érdekük azt sugallja, vagy legalábbis nem lesz megcáfolhatatlan bizonyíték a b)-re.
Az aszinkron compute egyébként elvileg nem csak a buborékokat használja ki, hanem az adott ciklusban le nem foglalt ALU-kat is, vagy még inkább a le nem foglalt ALU-tömböket, sajnos a lehetséges granularitásról fogalmam sincs. Ez utóbbiban bőven van potenciál, viszont ütemezés szempontjából egy rémálom lehet - az sem kizárt, hogy ha elég jó a hardveres ütemező egy ilyen feladatra, akkor az arra fordított tranzisztorkeretből érdemesebb további ALU-kat építeni. Végső soron a VLIW5-nek hasonló volt a filozófiája.
-
válasz
Petykemano #15477 üzenetére
Azért ez ennél sokkal bonyolultabb és ne nyeld be a marketing választ.
Persze hogy azt mondja az NV amíg nem tudják, hogy nem jó semmire... aztán meg ők lesznek a legnagyobb úttörői a technológiának. Nem ez lenne az első ilyen eset.Van abban ráció, hogy pl amíg a GPU compute kódot számol, addig pl mellette párhuzamosan a memóriába töltsd a következő képhez szükséges adatokat... mivel teljesen más részeit használják a GPU-nak.
Stb stb.
Tehát nem csak buborékokról van szó, hanem arról is azért hogy a GPU több részegységét egyszerre lehessen dolgoztatni "függetlenül", vagyis növekedjen a kihasználása a benne lévő képességeknek egyszerre egyidőben. -
Malibutomi
nagyúr
válasz
Petykemano #14774 üzenetére
Nem igazan latom a lemaradast a jelen jatekaiban. Egy ket kirivo kivetelen kivul (pl Project Cars) teljesen jol teljesitenek az AMD kartyak DX11 alatt is.
A Fury nem valtotta be az elozetes hypeot, de azon kivul minden szegmensben teljesen jo a teljesitmenyuk (sot ugye a lassan harom eves hawaii 390/390x tartja a lepest a 970-980-al).A driver overhead valos hatrany, de jellemzoen a nagyobb teljesitmenyu kartyak mellett nem ket magos procikat vannak a gepekben.
-
válasz
Petykemano #13657 üzenetére
Lehet ez is, viszont miután több játékban a 390X is jelentősen megugrott a 290X-hez képest (ott a fő különbség a memória órajele), a sávszél tuti nem "ártatlan".
-
#85552128
törölt tag
válasz
Petykemano #13657 üzenetére
A memóriavezérlő is alig éri el az átlag 60%-ot 1080p-n és 500-as memória mellett, de még 4K-n is igen gyenge a kihasználtsága.
-
válasz
Petykemano #13393 üzenetére
Ezért: "Starting with a new API can involve a lot of work as common utilities may not yet be available."
A fejlesztők pedig eddig állítólag lángoló hajjal, égnek emelt kézzel imádkoztak a low-level API-kért, aztán meg lehet nézni, hány játék jött ki eddig egyáltalán bármilyen támogatással (ugye legalább kill CPU-overhead), nem beszélve egy új elvek szerint felépített motorról, aszinkron kutyfülével meg minden. Vagy a fejlesztők vágyai lettek aránytalanul felnagyítva, vagy tényleg ez volt a kis szívük minden vágya addig, legalábbis addig, amíg csak szövegelni kellett...
-
MiklosSaS
nagyúr
válasz
Petykemano #13389 üzenetére
Csak varni kell hozza az uj
drivertmustart mert a mostanival forrosodik -
Sir Ny
senior tag
válasz
Petykemano #13270 üzenetére
Ez egy szatíra. (azaz vicc, csak szar)
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Ubiquiti hálózati eszközök
- Villanyszerelés
- Formula-1
- Android alkalmazások - szoftver kibeszélő topik
- Linux kezdőknek
- Ingatlanos topic!
- Vélemény: nem úgy tűnik, de Lip-Bu Tan most menti meg az Intelt
- Kerékpárosok, bringások ide!
- Milyen légkondit a lakásba?
- Kecskemét és környéke adok-veszek-beszélgetek
- További aktív témák...
- Bomba ár! HP EliteBook 840 G5 - i5-8G I 8GB I 128GB SSD I 14" FHD I HDMI I Cam I W11 I Gari!
- KAMATMENTES Részletfizetés Alienware DELL monitor
- HATALMAS AKCIÓK! GARANCIA, SZÁMLA - Windows 10 11, Office 2016 2019 2021,2024, vírusírtók, VPN
- Eladó szép állapotban levő Huawei P30 Pro kék 6/128GB 12 hónap jótállással!
- Bomba ár! Dell Latitude 5310 - i5-10GEN I 16GB I 256SSD I HDMI I 13,3" FHD I Cam I W11 I Garancia!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest