- Épített vízhűtés (nem kompakt) topic
- Milyen alaplapot vegyek?
- OLED TV topic
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- 3D nyomtatás
- Azonnali notebookos kérdések órája
- Nyugdíjazza a tuningra szabott, első Raptor Lake-eket az Intel
- Ízlésesre sikerült a Galax alacsony profilú GeForce RTX VGA-ja
- Milyen SSD-t vegyek?
Hirdetés
-
Nem bírják kiszolgálni az AI energiaigényét
it Az amerikai elektromos hálózat nem bővül elég gyorsan ahhoz, hogy az AI nagy energiaigényét kiszolgálja.
-
Lenovo Essential Wireless Combo
lo Lehet-e egy billentyűzet karcsú, elegáns és különleges? A Lenovo bebizonyította, hogy igen, de bosszantó is :)
-
The Witcher - Jön az 5. évad, ezzel együtt pedig elkaszálták a sorozatot
gp A negyedik szezon forgatása a napokban kezdődött el, kíváncsian várjuk mikor láthatjuk a végeredményt.
Új hozzászólás Aktív témák
-
GodGamer5
addikt
Nagyon jók lettek az új radeonok. Öröm volt olvasni ezt a sok architekturális változást.
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
-
Yutani
nagyúr
válasz robertosz91 #2 üzenetére
De, jó. Ezt nem észrevenni egyszerűen vakság.
[ Szerkesztve ]
#tarcsad
-
GodGamer5
addikt
Ha elolvasod az új radeonok tesztjét és nem vagy full kezdő a témában, akkor láthatod, hogy elég jók lettek és olyan problémákra reagáltak az új architektúrával, ami nagyon hasznos változás már most is, a GCN-ek után meg főleg...
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
-
Egon
nagyúr
Ha a pozitívumokat nem észrevenni egyszerűen vakság szerinted, akkor az utolsó bekezdésben szereplő limitációt nem látni micsoda?
Ahogy fentebb írták, ennyi technoblablából látni azt, hogy az adott gpu-ra alapuló tényleges termékeknek milyen lesz a teljesítménye, kb. ugyanolyan nehéz mint megtippelni a lottóötöst.
Pláne hogy Abu írásait az elmúlt 10 év tapasztalatai szerint el kell osztani kettővel..."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
GodGamer5
addikt
A Vegát is istenítették anno, a gyakorlatban meg sokak szerint egy nagy szar kártya lett, aztán ahogy jöttek a dx12-es játékok érdekes, hogy egyre jobb lett a teljesítménye. Nem akarom védeni Abut, de arról nem ő tehet, hogy nem használják ki évekig az adott kártya feature-jeit.
[ Szerkesztve ]
"Többször látsz Game Over képernyőt, mint Michelle Wild f@szt." "It's not a Loop, it's a Spiral"
-
Ribi
nagyúr
Akkor nem fogalmaztam jól.
Nem a teszt eredményekre gondolok mint mérőszám.
Hanem az egyes változások okozta változásról. És ez az amit kb. senki sem tud.
Egyes változások, csak pl akármilyen cache méret növelés az olyan mint GDDR2 ramból 2 helyett 4-et rakni a GT710 VGA-ra, vagy ténylegesen van értelme.
Mert senki sem tudja lemérni az egyes változásokat, csak összességében megnézni.
Innentől kezdve viszont nem tudni, hogy mit hoznak az egyes változások.
Én erre gondoltam.
Pl zen2-ben duplázták az L3 memót. Mindenhol ezt mondják, hogy ez mekkora hűdejó. Tudja valaki mennyit hoz? Van egyáltalán teszt felezett L3 memóval? Régi AMD-nél töredéknyi cache méretek voltak Intelhez képest mégis jól elvoltak. És akkor ez egy amúgy mérhető dolog lenne.
Mondja valaki, hogy tudja mit hoznak a két VGA közötti változások...Első kérdésem ugyan úgy szólt robertosz91-nak is, hiszen igen valószínű, hogy ő sem tudja mit hoztak a változások. Csak bemondásra "leszarozta".
[ Szerkesztve ]
-
-
Kansas
addikt
Érdekes nézőpont... Nem gondolom, hogy van egyáltalán értelme komponensenként nézni, hogy az egyes változtatások egyenként mit hoznak. Gyanítom, hogy vannak köztük olyanok, amik önmagukban igazából kb. semmit, de a többiek "keze alá" dolgoznak... egy rendszer nem csak a részeinek az összessége, a köztük levő kölcsönhatások is fontosak. Valahol írták pl, hogy a Zen2 magok megnövelt cache-e azért kellett, hogy a memóriahozzáférés ne legyen bottleneck. Hogy önmagában mennyit ér, az talán hamarosan kiderül, mihelyt kijönnek a Zen2-es Athlonok - azok tipikusan számottevően kevesebb cache-t szoktak kapni.
Az architektúra önmagában semmit nem jelent, csak és kizárólag a rajta futtatott feladatok tükrében derül ki hogy jobb vagy rosszabb mint egy másik(esetleg másban jó/rossz), egyelőre azt tudni nagyjából, hogy a jelenleg elérhető terhelések hogy viselkednek rajta, a jövőbelieket csak sejteni lehet.
CPU oldalon legalább azt tudni, hogy majdnem biztosan fel fognak futni a párhuzamosított feladatok, hisz mindkét nagy procigyártó(de még az ARM is) egyre több magot kínál, vizont órajel-növekményt nem jelentős mértékben(azt se tudjuk, hogy pl. az Intel 10nm az fog-e menni 5GHz-t, vagy lejjebb esik az elérhető órajel, esetleg tovább nő).
VGA oldalon kb. annyit tudni, hogy a köv. generációs konzolok Zen magokat(Zen2 v. Zen3) és RDNA grafikus részt fognak tartalmazni, elvileg DXR-képességgel együtt - ebből következően sanszosan kapnak némi optimalizációt a PC-oldali hasonló hardverre is, a mértéke persze kérdéses.Ezzel együtt nem gondolom, hogy misztifikálni kéne, meg 99.999%-ozni. Biztos vagyok benne pl., hogy Yutani se az archi doksi elemzéséből szűrte le, hogy jó az RDNA architektúra a GCN-hoz képest, hanem a tesztekből, de ettől még nem lesz se jobban se kevésbé érvényes a kijelentése.
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Dr. Akula
nagyúr
Ha dokumentációk helyett egy 2080Ti verő kártyát adna ki, annak több értelme lenne.
(#1) GodGamer5: Abban régen is jó volt az AMD, csak teljesítmény nem tartozott hozzá akkor se. Mindig elolvastuk hogy mennyire maradéktalanul teljesít mindenféle szabványt, míg az Nvidia csak csalással, "falura jó lesz az is" módban, viszont a fejlesztők mindig csak a közös nevezőt használták ki, így az AMD featurek mindig csak papíron maradtak. Viszont mivel fps az nem tartozott hozzá, állandóan csak azt lehetett nézni hogy a Geforceosoknak hasít a játék, nálunk meg szaggat. Hát előbb-utóbb azért csak vált az ember, és hagyja a papírfeature-öket a csába.
[ Szerkesztve ]
-
Kansas
addikt
válasz Dr. Akula #12 üzenetére
Lesz itt még RTX2080Ti Super, ne aggódj...
Egyébként ebben az ársávban a tesztek szerint a nyers lóerő is megvan - az meg, hogy mennyire fognak az AMD-re optimalizálni a fejlesztők, attól függ, mennyi piaci részesedést tud az AMD nyerni... ha 40% környékére tudnának jutni, akor már tuti nem maradnának parlagon az AMD feature-ök ... lásd RTX - meglepődnék, ha a felhasználók akár csak 25%-ának lenne RTX-képes kártyája - igaz, eddig csak 3 játékról tudok, ahol érdemben használják, mégis mindenki azon sápítozik, hogy a Navi bezzeg nem tudja.[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
#06658560
törölt tag
válasz Dr. Akula #13 üzenetére
Ezt tudom, ezzel érveltem elég sokszor. Illetve nem is feltétlen lustaság, hanem a profit/befektetés arány nagyon nem mindegy. Kérdés mekkora a célcsoport az adott munkához, mennyi idő van rá, mennyi architektúrára kell optimalizálni.
#14 Kansas: Nyers erőben korábban is jobb volt minden szegmensben a GCN. Tényleges feladatban nem.
[ Szerkesztve ]
-
Kansas
addikt
válasz #06658560 #15 üzenetére
Valódi feladatról beszéltem - az RDNA architektúra "jóságát" mutatja, hogy úgy a Vega 56 és 64 mint a Radeon VII, mind erősebbek nyers FLOPS-ban, mint az eddig bemutatott két Navi kártya, de valós fps-ben többnyire gyengébbek, van hogy az 5700XT még a VII-nél is jobban teljesít, pedig az FLOPS-ban mérve úgy másfélszer "izmosabb", a Vega 64-et pedig a kisebbik Navi is a tesztek jó részében felülmúlja.
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
cskamacska
addikt
válasz Dr. Akula #12 üzenetére
Én a papírfeature-ökkel is vitatkoznék. 2012 óta erősen azt nyomta Abu, hogy a GCN oda vissza viszi a DX12-t, hiszen rá írták. Aztán a vége megis csak az lett, hogy talán a GCN3 már DX12-es, de erősen esélyes, hogy az "igazi" DX12 inkább Vega+ bohóság. Oké, van ez így, de akkor mire volt jó az 5+ évnyi nagyképű fölényeskedés a fan tábortól? Vega összes papírfícsöre kamu volt, 2 év csodavárás után a DSBR, NGG, primitive shader elvileg RDNA-ban már támogatott, meglátjuk használják-e. Amit vártam, a TrueAudio-t, úgy kukázták, hogy írmagja nem maradt, driverből is kivették. TrueAudio Next elvileg kurrens, de arról pletykák sincsenek, nem hogy használná valami, legalább demó szinten..
[ Szerkesztve ]
"Para mis amigos todo, para mis enemigos la ley"
-
robertosz91
tag
Nem szaroztam le semmit. Azt írtam amit gondolok. Ezt akárhogy nézzük is, ennyi idő után ez kevés. 7 nanon, fogyasztás nem túl jó, még mindig le van maradva a konkurenciától. Most a driveres feature chill-t magyarázza Abu, hogy lehet paraméterezni a fogyasztást stb. Na az engem már nem érdekel. Vártam évek óta hogy valami igazán értékelhetőt tegyen le az asztalra. Nem tett. Innentől úgy engedem el a Radeon vonalat mint a sicc. Amíg a Vegám megy, addig használom, utána majd meglátjuk.
Az élet jó, csak meg kell tanulni lebegni a sz@rban.
-
K0vasz
aktív tag
én laikusként annyit látok, hogy kb. fél év spéttel az AMD-nek sikerült kihoznia egy olyan középkategóriás "szériát" (azért az idézőjel, mert gyk. 2 db kártyáról beszélünk), ami 7 nm-en pontosan azt tudja, mint az nv kártyái 12 nm-en, mínusz a dedikált ray-tracing magok
persze az elmúlt évekhez képest már ez is elég nagy előrelépés, de amikor az nv majd fél év múlva kihozza a mostani kártyáknak a 7 nm-es változatát, akkor majd megint látszani fognak a tényleges erőviszonyok
-
Kansas
addikt
Viszont azt semmi nem garantálja, hogy azok a "tényleges erőviszonyok" az NVidiának fognak kedvezni, inkább, mint most. Egyelőre kijöttek a Super-ekkel, amik(minő meglepetés) többet fogyasztanak a Naviknál, és bár javarészt erősebbek is, nem azon az 5-10%-on fordul meg a világ, különösen, hogy mellette drágábbak is.
Amit érdemes átgondolni, hogy a Navi kártyák Vegákhoz képesti erőfölénye nem annyira a 7nm-ből fakad, hanem inkább az RDNA-ból, legalább is nekem erősen úgy tűnik. Ne feledjük, a Radeon VII is 7nm-en készült...Emellett azt se vegyük készpénznek, hogy ha egy architektúra 12nm-en versenyképesebb egy másiknál, akkor 7nm-en is az lesz, különösen, hogy már nem az ellen versenyez, ami ellen 12nm-en eredetileg tette.
Két további megjegyzés:
- az AMD első 7nm-es kártyája nem volt akkora előrelépés, mint azt sokan várták, alighanem épp azért, mert ezzel szereztek első tapasztalatot a gyártástechnológiával - miből gondolja bárki, hogy az NVidia megússza a "tanulópénzt"?
- abban a fél évben, elvileg az AMD még kijön nagyobb és kisebb Navi kártyákkal is, nem kizárt, hogy már finomított steppinggel - nézzük meg a versenyzőket előbb, mint hogy eredményt hirdetnénk...Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
feregember
csendes tag
"Pl zen2-ben duplázták az L3 memót. Mindenhol ezt mondják, hogy ez mekkora hűdejó. Tudja valaki mennyit hoz? Van egyáltalán teszt felezett L3 memóval?"
Lekérdezhető a CPU-tól, hogy a program indítása óra mennyi "L3 cache miss" volt. Ez megmondja hányszor kellett a procinak várakoznia a fő-memóriára azért, mert az éppen szükséges adat nem volt a proci cache-ben. Kód optimalizációnál eléggé alap ezt elemezgetni.
GPU-knál is vannak hasonló számlálók, pl lehet mérni hogy egy kép kirajzolása közben adott rész-számítás meddig tartott.
-
xNAGOYAx
tag
válasz robertosz91 #18 üzenetére
Annyit nem értek csak, hogy ha így látod mért vártál 7 évet egy jó vga-ra mért nem vettél olyat ( nvidiat ) ami szerinted jó és ha a az AMD kijön az "általad" is csúcskártyának tartott hardverrel akkor veszel radeont. Kicsit a megfogalmazásból úgy jön le nekem mintha te azért vettél volna radeont mert itt a PH-n azt mondták, hogy az jó kártya és majd még jobb lesz idővel stb..... ez így van vagy csak én látom bele?
-
robertosz91
tag
Csak te látod bele. Mert amit csinálnak, hogy egyszer a dgpu részleg, egyszer a cpu részleg fut, az már unalmas. Együtt valahogy nem megy nekik. Én is látom, hogy az új architektúra sokban javult, nem véletlenül keni el a kis 5700 a vega 64 száját. De ennyi idő után, és 7nanon ez már alap. Ha a konkurencia azonos csíkszélen lesz, szerinted mi lesz? Kezdődik megint elölről, mert nem tudnak versenyezni vele.
Az élet jó, csak meg kell tanulni lebegni a sz@rban.
-
Kansas
addikt
válasz robertosz91 #26 üzenetére
Vagy nem... nem akarom megismételni az egészet, de korántsem törvényszerű, hogy az NVidia azonos csíkszélességen mindig jobb lesz.
Nincs 12nm-en RDNA, nincs 7nm-en NV GPU, szóval nincs direkt alap arra, hogy ilyeneket ex cathedra kijelents. Nem voltak annyival gyengébbek a Vegák az NV oldali konkurenciájuknál(GTX 1070/1080), amennyivel most a Naviknál gyengébbek.
Meg kéne várni a nagyobb Navikat is, mielőtt ilyen sommásan értékelsz...Lehet, hogy jobb lesz a 7nm-es NV, lehet hogy nem, én nem foglalok állást egyik mellett sem. Azt mondom, hogy jelenleg nincs elég információ se AMD se NV oldalról ahhoz hogy bármelyiket alátámassza(ami egyébként már önmagában nem kis teljesítmény az AMD részéről az elmúlt évek után).
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Ezt se megerősíteni, se cáfolni nem tudom...
Őszintén szólva nem nagyon érint, mit tud majd a nagyobb Navi, ha jön, az tuti hogy többe fog majd kerülni annál, amit én videókártyára szánok(örülök, ha egy custom 5700XT belefér majd a keretbe), attól az én kártyám nem lesz se jobb se rosszabb, hogy a nagytestvére elkeni-e az NV száját... esélyes, hogy még csak olcsóbb se.
Annak azért örülnék, ha a nagy arcú NV fanoknak kicsit befogná a száját, de igazából arra se látok nagy sanszot...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Pkc83
őstag
Ezt se megerősíteni, se cáfolni nem tudom... Mission Impossible
Az engem sem én is egy normális Msi rx5700 xt-re várok!
Viszont az áraknak azért jót tehetne ha megszünne az egyeduralom a trónon!
Van azért szerintem esély befogni vagy akár oda is verni a 2080ti-nek , mert
ezeket a navikat(5700/xt) a felső közép kategóriába szánta az Amd és nem sokkal
maradnak el a sima 2080-tól! Tehát erre már "csak" olyan 30%-ot rápakolnak
és kész is! -
Kansas
addikt
válasz #32839680 #31 üzenetére
Tudnál forrást megjelölni a chipletes GPU-k kapcsán? Tudtommal az AMD CPU-kat gyárt chipletes design-nal, és még a CF-et is kukázta.
Jelenleg a chiplet a GPU-khoz csak úgy kapcsolódik, hogy ha egy CPU chiplet helyére GPU-t tesznek, abból lesz az IGPItt van egy egész érthető magyarázat, mi a gond GPU-k esetén a chipletekkel.
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
válasz #06658560 #33 üzenetére
Addig rendben van, de tudtommal soha sehol nem volt szó róla, hogy a chiplet design-t valaha is alkalmazni akarják GPU-k összekötésére, csak az ilyen reddit-es fantáziálós topikokban(de ott is hamar elmondja valaki, hogy miért nem jó ötlet). Egyszerűen az interkonnekt(pl. IF) túl nagy késleltetést okoz ahhoz, hogy egy GPU-ként jól működjön, a multi-GPU-s setuptól(akár SLI akár CF, akár hibrid) meg per pillanat mindenki menekül, mert nem skálázódnak jól és macerás a driver- és játék-támogatása.
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
Új hozzászólás Aktív témák
- Elektromos (hálózati és akkus) kéziszerszámok, tapasztalatok/vásárlás
- Formula-1
- Kertészet, mezőgazdaság topik
- gban: Ingyen kellene, de tegnapra
- Környezetvédelem
- Épített vízhűtés (nem kompakt) topic
- Milyen alaplapot vegyek?
- Renault, Dacia topik
- Xiaomi Redmi Note 5 Global
- BestBuy topik
- További aktív témák...