Hirdetés
- Dedikált NPU-t tervezne az AMD?
- És akkor egy fejlesztőstúdió rájött, hogy vissza is élhetne a felskálázással
- 4 billió dollárt ér a Microsoft, 500 milliárd dollárral lőttek ki az AI-cégek
- Jól áll az ARM-os Windows helyzete, de a játékoknál nem jön az áttörés
- Kínai kézbe kerül a MediaMarkt áruházak tulajdonosa
Hirdetés
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
awexco
őstag
válasz
Petykemano #43298 üzenetére
Anyira még nem indult be a pénz nyomda ...
-
Z10N
veterán
válasz
Petykemano #43296 üzenetére
"De most, hogy a ryzen név jól cseng, egy AMD cpuhoz eladja magát egy AMD gpu."
Arra a ketto darab sku-ra verik a melluket? A szomszednal 11 van, de super nelkul is 8! -
Petykemano
veterán
válasz
awexco #43295 üzenetére
Azt, hogy az amd GPU eladásait leginkább a mimdshare határozza meg, arra meg legalább ugyanakkora, de inkább nagyobb hatással van az általa kínált CPU-k megítélése.
Vagyis azért láttunk a technikai paraméterekkel és árazással kevéssé magyarázható hatalmas szakadékokat az nvidia és AMD kártyák eladásai között, mert épp gyengélkedett a CPU. Senki nem akar egy lenézett, kifutófélben lévő csapathoz tartozni, ezért ha cpuból a. Igel volt a nyerő, ahhoz senki nem akart egy rossz márkájú gput venni.
De most, hogy a ryzen név jól cseng, egy AMD cpuhoz eladja magát egy AMD gpu. -
awexco
őstag
válasz
Petykemano #43292 üzenetére
Mit mondanak röviden tömören ?
-
Fred23
nagyúr
Most álltam neki én is a részletesebb informálódásnak...
Simi37: Köszi, mintha valamikor már hallottam volna ezt, de már elfelejtettem!
+1:
-
Pécsi gyerek
addikt
válasz
Petykemano #43287 üzenetére
Hát itt azt írják hogy gtx 1660 alatti teljesítményű lesz valószínűleg.
[link]
Ha alatta lesz picivel,akkor az ára is kevesebb lesz remélem. -
Petykemano
veterán
-
Z10N
veterán
válasz
Petykemano #43287 üzenetére
Csak az a baj, hogy 2019-ben amint a szavazas is mutatja ezert $150-180-nal (4/8GB) tobbet mar nem adnek. A legkisebb Navi-ert pedig $100-nal tobbet. Persze ahogy mondod ebbol $200-230 es $150 lesz a vegen ($50).
-
Fred23
nagyúr
válasz
Petykemano #43287 üzenetére
Nem vagyok teljesen képben, ez a Navi 14 ugye a leggyengébb Navi? (Eddig tudtommal a nagyobb szám jelentette a kisebb teljesítményt, vagyis a Navi 12 az erősebb kari.) Ha igen, tippre olcsóbb és gyengébb lesz, mint az 590. Mondjuk RX 580 teljesítmény és 175-180$.
Miből gondoljátok, hogy minimum olyan erős lesz, mint egy 590?
-
Petykemano
veterán
Coreteks azt jósolja/sejti/sejteti, hogy a navi 14 versenyképes áron fog nyitni. Versenyképes: rásimul majd a navi14 ára az nvidia árgörbéjére. Azonos teljesítmény azonos áron.
Az 1660 $219. Ennél picit gyengébb az 590. Ha 590 teljesítmény jön, akkor $199 lesz, ha picit erősebb, akkor $220-230.De a lényeg, hogy nem fogjuk hanyattdobni magunkat, eldobni a polarisokat és hanyatthomlok rohanni a boltokba cserélni.
-
Z10N
veterán
válasz
Petykemano #43285 üzenetére
Ez meg elvileg kozepkategorias kartya lenne es az 570/580 is 256bites. 128/96biten ez belepo lenne akkor, de a "CU"-k nem adjak ki, hogy az legyen. A gddr5 tovabb csokkentene az arakat. Egyaltalaln van benne vezerlo?
7nm-n minden draga
A gddr6 meg plane
-
Petykemano
veterán
Gondolod, hogy 7nm-en be fognak tenni 256bit GDDR5 vezérlőt?
Így is böszme nagy a navi10-ben a 256bit GDDR6
Én azt gondolnám, hogy 128bites lesz a navi 14
A vágott meg 96bit-es.Kérdés, hogy mi kerül többe, 30mm2 7nm lapkaméret, vagy az, hogy GDDR5 helyett GDDDR6-ot használsz 3-4GB kapacitás terén. Előbbi a fogyasztás tekintetében is kedvezőbb.
-
Z10N
veterán
válasz
Petykemano #43282 üzenetére
Igen, lehet osszekevertem a vegen. Mindenesetre a 3GB/192bit koltseg csokkento megoldasnak tunik.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #43282 üzenetére
A multiprocesszort jelzi. Az mindegy, hogy az AMD mit tekint CU-nak (persze megmagyarázhatják, akár logikusan is), valójában a multiprocesszor tekinthető egy külön elemnek, és az RDNA-ban a WGP a multiprocesszor.
-
Z10N
veterán
válasz
Petykemano #43280 üzenetére
CF:
CL_DEVICE_MAX_CLOCK_FREQUENCY
1900
CL_DEVICE_MAX_COMPUTE_UNITS
12Kerdes, hogy ez workgroup-e, mert akkor meg van a 24NCU. 192bit, erdekes. Marmint a C1 a cutdown. A C1-nel 4GB van.
Nice catch Petyka!
-
Petykemano
veterán
7340-CF
3GB VramVs 7340-C1
Cutdown verziónak tűnikVs 5700
5700-nak kevesebb mint fele
Bizonyos számokban durván.kevesebb -
Z10N
veterán
válasz
Raymond #43275 üzenetére
SKU-ra ertettem, mint tenyre. Nyilvan nem arazasra. 3 ev utan a polaris mar unalmas, bar az AMD-nek ugy latszik nem. Ha "24NCU"-val hozzak majd a 36CU-t (590), akkor "16-18NCU"-val az 570 32CU-jat remelhetoleg csak be tudjak erni $100 kornyeken. Jot tenne a hasznalt piaci araknak is. Mar csak ebben remenykedem.
-
Raymond
titán
Hat nem tudom, en meg mindig ugy latom hogy abban az arkategoraban nincs ertelme az RX580 8GB-n kivul mast nezegetni. Ha 180-190EUR a Pluse es Nitro+ (van mas modell ezalatt is) akkor ott max a sima 1660 lenne konkurencia az meg mar 220EUR+ igy ha a 150-170EUR 1650 es a 220-240EUR 1660 koze be is jon egy 1650Ti az nem sok vizet fog zavarni.
-
Petykemano
veterán
válasz
hokuszpk #43270 üzenetére
Rosszul írtam. Helyesen: papíron az FP16 képessége duplája az FP32-nek
A Mi60 és a V100 is FP32-ben 15tflops-ot tud. FP16 pedig akkor 30tflops.
a Mi60 az INT8 képességeiről kapta a nevét.a dia a 120-as értékkel a V100-ra vonatkozik. Más források 30tflopsra teszik a V100 FP16 képességeit. De ez nyilván nem független attól, hogy hogy használod, meg mire, és használod-e a tensor magokat.
-
hokuszpk
nagyúr
válasz
Petykemano #43259 üzenetére
"Papíron FP16 képessége fele az FP32-nek, tehát 30tflops."
altalaban 1 fp32 egyseg ugyanazon ido alatt 2fp16 -ot tud, szvsz a dia a jo a 120 -as ertekkel.
-
Z10N
veterán
válasz
Pécsi gyerek #43264 üzenetére
Az mar bejelentes. A leak elotte jon, nemde?
-
Petykemano
veterán
- 3950X
- navi 14 (~augusztus-október)
- navi 12 (~október-december)
- arcturus (MI100)
- threadripper
- Renoir
(- talán egy vágott 32CU navi)Szept 7
Okt 7
Nov 7
Dec 7
Jan 7A szeptember 7 a 3950X-nek foglalt. Persze még pár nem X proci, kérdés, hogy azt ide, vagy későbbre tartogatják
Mindenesetre egy 3950X szerintem önmagában kevés, és más kisebb skukkal sem nagy dobás.
Navi 14-ről volt már leak, ezért én szeptember 7-re várom ennek.bejelentését. (vö. Computex) nem tudom, ezt vajon a polarisok eltűnése előrejelzi -e, vagy az már örökké velünk marad. Igazából mivel a navi 14 drágább lesz a polarisnál, akár meg is férhetnek egymás mellett.A navi12 és a threadripper is olyan termék, amit jó volna betenni a karácsonyfa alá. Októberre a threadrippert várnám és a navi14 elérhetőségét. Novemberre a navi12 bemutatóját. És december 7-én az Arcturus leleplezését a navi12 elérhetőségével együtt. Aztán Renoir 7 CES.
Persze nem vagyok jós. 😃
-
Pécsi gyerek
addikt
válasz
Televan74 #43265 üzenetére
Azt tudom hogy így van.Csak arra akartam kijukadni hogy 7-én jöhet valami hír kártyáról.(vagy ugye nem kártyáról hanem másról)Szóval 7-e előtt nem valószínű hogy lesz valami konkrét tény.De én is várok egy kis navit még.Ha októberben nem lesz piacon,vagy rossz árazása lesz akkor veszek egy 1660/1660ti-t.
-
Televan74
nagyúr
válasz
Pécsi gyerek #43264 üzenetére
De az lehet CPU(szerver is) vagy akár egy új SSD széria is. Senki nem mondta hogy csak GPU lehet!
-
Z10N
veterán
A het vegen mar szeptember es meg semmi Navi leak...
-
Petykemano
veterán
válasz
#82819712 #43260 üzenetére
Najó, de az AMD mindent egyfajta hardverelemmel old meg. CU. Abban vannak SIMD egységek.
Ez tudna vajon nyolcadakkora lenni,.ha nem végez FP64, FP32, számításokat, csak bfloat16-ot?
De ez nem tud kisebb lenni, ha ugyanaz végzi az FP32-t és a bfloat16-ot. Máskülönben viszont afféle fixfunkciós elemként kell benne lennie a CUban, csak épp mivel kicsi, sok elfér belőle. -
#82819712
törölt tag
válasz
Petykemano #43259 üzenetére
Ez érdekes ám főleg minapi Lisa interjú után:
"-Mit kompenzál ebből a bfloat16 képesség?"
- SOKAT.one sign bit, eight exponent bits, and seven mantissa bits. This is different from the industry-standard IEEE 16-bit floating point, which was not designed with deep learning applications in mind.
With fewer mantissa bits than FP16, the bfloat16 multipliers are about half the size in silicon of a typical FP16 multiplier, and they are eight times smaller than an FP32 multiplier!
Deep learning models are known to tolerate lower numerical precision...
Surprisingly, some models can even reach a higher accuracy with lower precision, which research usually attributes to regularization effects from the lower precisionÚgy látszik AI specializáltságai kicsit máshogy működnek mint amit a logika diktál, érted ebben az anomáliát ugye ?
Kürt KFT-nél dörzsölhetik a tenyerüket eladhatnak sok tanfolyamot már ha van rá igény hogy MO-on is akarjon valaki AI-t programozni. -
Petykemano
veterán
(src)A V100 képességeiről megoszlanak a vélemények. Papíron FP16 képessége fele az FP32-nek, tehát 30tflops. Ezen a képernyőképen mégis 120tflops szerepel, ami biztos valamilyen tensor-hasznosításból ered.
Ehhez képest a Mi60 az AMD-től hasonló képességekkel bír, csak tensor magok nélkül, tehát 30tflops FP16
Vajon hol fog landolni a Mi100-ként emlegedett vega-leszármazott Arcturus? Feltehetőleg 50tflops FP16
Ez még mindig soványkának tűnik.Mit kompenzál ebből a bfloat16 képesség?
-
proci985
MODERÁTOR
válasz
KillerKollar #43252 üzenetére
2013-2014rol beszeltem foleg, illetve legkesobb 2017rol.
a metro exodus eleg extrem, igaz a metro 2033-2034 is siman csovon hajtatta a ket 290Xem harom kijelzo mellett. az exodus is kb techdemo volt, a 2033nal a physX volt ugyanaz az effekt, amit ki kellett kikapcsolni mert a porba lassitotta a jatekot.
rage2ot en se neztem, de az alapjan, hogy a just cause 3 mennyire vegyeslimites volt, az alapjan siman lehet,, hogy ez nem a VGAn mulik.
egyebkent persze, volt a project cars 2 VR is amire az 1080TI is keves volt, de az alapvetoen low-med beallitasokkal is gyonyoru volt egy rifttel.
Anthemrol mondjuk nem nagyon hallottam, Avalanche jatekok meg eleve elso honapokban vallalhatatlanul futottak. meg meg ott volt a Dishonored2 is, de az talan egy 2080TIvel mar 4Kban is elfogadhato. az alatt meg egy moddolt idTech5 volt, ami motor meg szinten kozismert arrol, hogy az egadta vilagon semmin nem fut jol
-
Puma K
nagyúr
válasz
KillerKollar #43252 üzenetére
Anthem béta:
Ugyanúgy bezuhant az FPS nyílt részeken 30-40 FPS közé 1440p-ben is i5 9600K és i7 4790K mellett egyaránt, úgy hogy GTX 1080 Ti volt mellérakva.
Bármilyen grafikai részletességet állíthattál vagy bármilyen erős géped lehetett mindhiába mert ugyanúgy beesett az FPS. Ez a játék grafikusmotorjának a sajátossága volt... azt hogy javították-e vagy sem azt nem tudom, mert amúgy siralmasan üres az a játék... pedig lenne benne potenciál.
A maximum grafika mint ahogy Envo_ is írja teljesen felesleges és legyilkolja a gép teljesítményét. Rá kell szánni egy kis időt, hogy megtaláld mi az a beállítás-FPS egyensúly amit bír az adott gép. Az Extreme-Ultra-Very High rendszerint felesleges szokott lenni adott beállításoknál, mert nem kapsz olyan pluszt látványban, mint amennyivel csökkenti az FPS-t. Nem ritkán érdemes High-ra belőni a grafikát és ha van feljebb adott beállításnál, akkor lehet állítgatni és nézni van-e különbség valamint mennyi FPS-t kér azaz egy adott beállítás.
Pepecselős munkának tűnik, de megéri.
-
Envo_
aktív tag
válasz
KillerKollar #43252 üzenetére
Ez a max beállítás mánia annyira értelmetlen számomra. Minden játékban van egy-két olyan beállítás ami jelentősen megcsonkítja az fps-t és azt a pár dolgot mediumra levéve, vagy kikapcsolva ugyanaz az élmény fogad 2x fps-sel. Most aki 4K-n hajkurássza az ultra beállítást az mit vár? És minek kell? Ez ilyen belső késztetés, hogy "maxon viszi", vagy időhiány, hogy megtalálja az optimális beállítást? Szinte biztos vagyok benne, hogy a 2080Ti-vel tökéletesen be lehet állítani minden játékot 60hz-re kompromisszumokkal úgy, hogy ne legyen minőségromlás ultrához képest. Főleg azért sem, mert smoothness élmény sokkal inkább függ a Hz-től, mintsem bármi mástól.
-
KillerKollar
őstag
válasz
proci985 #43251 üzenetére
"multiGPU meg arra volt jo, hogy 2013-2014ben a 290X CF / 980 SLI 4K@60Hzre eleg volt (780/780ti nem skalazodott rendesen), amire az elso egykartyas megoldas 2017 marciusaban jott az 1080TI kepeben. viszont jelenleg mar nincs olyan problema, hogy egy kartyaval keptelenseg meghajtani a csucs monitorokat."
Ez sajnos nem igaz...
Nekem volt 1080 Ti-m, most pedig 2080 Ti-m van és elmondom 4K-ban ha maximum beállítások mellett szeretnél játszani legalább 60 fps-el akkor nem mindenhova elég a 2080 Ti sem (akkor sem ha ki van kapcsolva a ray-tracing), nemhogy a 1080 Ti.
Mondok pár példát:
Anthem béta (teljes játékkal nem játszottam mert annyira nem jött be a béta, így nem vettem meg, lehet azóta optimalizáltak rajta), 4K max (ray tracing + AA off), ahol csak mászkálsz, hogy felvedd a küldetéseket ott megvan 60-70 fps, de ahogy kimész a nyílt térre azonnal beesik 60 alá, sok helyen 40-50 között mozog.
Metro Exodus, 4K, max, ray tracing off, alapban szinte fix 60 fps-em van (érdekes mert a Vsync ki van kapcsolva és elvileg nincs koráltozva de olyan mintha lenne, ilyen 59 és 62 között mozog), viszont vannak olyan területek, ahol brutálisan be tud esni, volt rá példa, hogy 40 alá is beesett.
A 3-adik példa a Rage 2 amivel nem játszottam, de láttam benchmarkokat, teszteket és nincs meg a 60 fps még áltagban sem a 2080 Ti-vel, nem hogy stablian, abba sincs ray-tracing.
Ha ray-tracingot akarsz akkor az már megint egy másik kategória, erre találta ki az Nvidia a DLSS-t, hogy visszanyerd azt az fps-t amit a ray-tracing miatt elbuksz, csak az ezzel a baj, hogy nem igaz, amit az NV állít, hogy észrevehetetlen a különbség, mert sajnos nagyon roncsolja a képminőséget, így inkább játszok énis pl Battlefield V-öt natív 4K-ban DLSS és RTX off-al mint DLSS + RTX on-al. Az a játék pl így elfut 4K-ban 70-100 fps-el és rohadt jól is néz ki. A 1080 Ti-nél meg most így hirtelen a Mass Effect: Andromeda jut eszembe ami kb 30-35 fps-el futott 4K-ban max grafikán. De a 1080 Ti-nél értelemszerűen sokkal több olyan játék volt, amit nem bírt el 4K-ban. Persze, ha leveszel mindent low-ra és csak a felbontást hagyod 4K-n akkor igen, úgy már ennél gyengébb kártyák is talán ki tudnak csikarni 60 fps-t a legtöbb játékból, de annak mi értelme? A legtöbben akik játékra vesznek 4K monitort, azok azért teszik, mert jobb képminőséget akarnak, de amit megkapsz az élesebb felbontásnak hála, azért fel kell áldoznod a textúrák/effektek minőségét. -
proci985
MODERÁTOR
válasz
paprobert #43242 üzenetére
csomo para volt a driverrel fejleszto oldalrol is (frametime pacing), osszeakad par megoldassal fejlesztoi oldalon. VR gyakorlatilag egyaltalan nem megy vele. kivetel a Croengine, de azt meg egy 1060 / 580 is szepen viszi egyedul is. ja meg a steam sajat benchmarkja, ahol a 295x2 veri az 1080TIt VRben, igaz jatekok alatt mondanom se kell ez mar nagyon nem igy van.
felhasznalokent a ket 200$os kartya megveri az 1000$ost megvolt (7850 OC CFfel vertem az aktualist Titant), de maceras a hotermeles mar 130W koruli kartyakkal is. 200-250W folott kotelezoen Fortress02 / HafX / NZXT h630 kell, de leginkabb viz. 300W folott pedig full coveres viz.
multiGPU meg arra volt jo, hogy 2013-2014ben a 290X CF / 980 SLI 4K@60Hzre eleg volt (780/780ti nem skalazodott rendesen), amire az elso egykartyas megoldas 2017 marciusaban jott az 1080TI kepeben. viszont jelenleg mar nincs olyan problema, hogy egy kartyaval keptelenseg meghajtani a csucs monitorokat.
forumon egy idoben eleg sokan multigpuztunk, amikor lehalt par honapja a masodik kartyam (majd 6 ev multiGPU utan), mar kb egyedul voltam. persze, jo lett volna a 230euros ref vega56 akcios 120 euros blokkal (700 eurobol), meg vizkorom es tapom is lett volna, de az utobbi 2-3 ev szenvedese utan nekem se lesz mar tobb multiGPUm. pedig volt hangulata, amikor az akkor 4+ eves GPU alrendszerrel kimaxolva 50 fpst tudott a Far Cry 5 5760x1080ban. forumon volt egyebkent vega56 cf, kb neki is az volt a tapasztalata mint nekem a ket 290Xel: amikor megy a CF akkor siman a jelenlegi csucskategoriat hozza, viszont tulzottan hullamzik a teljesitmeny jatekfuggoen ahhoz, hogy erdemes legyen vele szorakozni.
-
proci985
MODERÁTOR
-
#82819712
törölt tag
válasz
Petykemano #43239 üzenetére
Mélyvíz nem trolloknak:
Hogyan hat a gyorsítótárak mérete a fogyasztásra és előkerül Petyke rajza is...na meg a Samsung.
AMD hints at how RDNA could beat Qualcomm’s Adreno GPU -
Cyberboy42
senior tag
Ha már ennél a hot spot-nál tartunk... van már Vegán is host spot, de ott nem attól alítódik a frekvencia/feszültség, csak ha már tényleg nagyon magas (105 fok), és ha jól tudom a több tíz mérőpont legmagagasabbika adja meg az eredményt, vagy valami hasonló, de attól még ott van a sim GPU temp, amitől a kártya a ventillátorokat, meg miegyebet vezérel. A kérdésem az lenne, hogy van az hogy a gpu temp, meg a hot spot között néha 15-20 fok eltérés is van? Nem olyan rég írtad hogy tipikusan 5-6 fok az ami egy átlag eltérés lehet régebbi kártyákon. Akkor a Vega kivétel, vagy máshogy működik?
(#43245) Payphone :Tipikusan processzorlimit... a rendszered a gyenge keresztmetszet, a VGA malmozik mert nincs min dolgoznia gyakorlatilag
Simán állíthatsz nagyobb grafikai beállításokat játékokban, had dolgozzon a picike
-
#82819712
törölt tag
Kitaláltam az Új AMD varázsszót figyeljetek:
"koherens memória-meghosszabbítását"Payphone: ez 570 topicba való de kb olyan mintha vennél egy 4 hengeres BMW-t de csak 3 gyertyát vennél bele mert annyira telik
-
Payphone
tag
Sziasztok!
Kis dologban kérném segítségeteket.
Most lettem tulajdonosa egy Rx 570-nek (8gb). Igazából minden a legnagyobb rendben van vele, egy dolog szúrja a szemem hogy a mérőprogramok által a teljesítmény ingadozik amit FPS-ben nem veszek észre. A hőfok sem megy túl magasra. Játék közben azt látom hogy a GPU kihasználtság 99-ről simán leugrik 0%-ra majd vissza 40, 25, 27, 96% stb stb. Röviden a lényeg hogy fel alá ugrál a kihasználtság értéke, de ezt csak egy nagyon nagyon minimálisan veszem eszre az FPS-en. Szóval olyan nem történik hogy mondjuk hogy az FPS 70-ről leugrik 15-re. de meg 10 FPS sem megy el.
Van bármi tippetek, találkoztatok hasonlóval? Táp probléma lehet? Az én kártyám pont 8 pinnel megy, viszont nekem csak 6-os van a tápon ennek esetleg lehet hozzá köze?
-
Abu85
HÁZIGAZDA
Van a Wattmanban cél és maximális hőmérsékletre való beállítás. De eléggé ki kell tesztelni, hogy a custom dizájnoknak mi az optimális, hol érik el az ideális perf/wattot.
(#43237) paprobert: Nem úgy állították be. Ennek megvannak a tipikus működési normái, hogy mikor és hogyan marad stabil a hardver.
(#43238) Ribi: A hogyan kérdése leginkább attól függ, hogy hogyan lesz stabil a hardver. Ez részben tapasztalati módszerrel lesz meghatározva. Szóval nem kötelező így működnie, de így van beállítva. Bizonyosan jó okkal.
(#43243) sutyi^: A régi hardverek sokkal szarabbak voltak, mint a Navi. De a Navi esetében már lehet így is működtetni, hogy előnyt kaparj ki belőle. Azzal, amit az AMD alkalmaz manapság, el kell felejteni minden régi kötöttséget, amit a DVFS jelentett. Az innentől kezdve kőkorszaki technológia, ezért lett lecserélve AVFS-re, ami sokkal rugalmasabb. Csak az AVFS-t nagyságrendekkel nehezebb megcsinálni, nem véletlen, hogy az AMD is 15 év alatt jutott el ide.
(#43239) Petykemano: Vega 20
-
sutyi^
senior tag
"Ha a hardver power limitbe ütközik, akkor a feszültség változik először és azt követi az órajel. Ha hőmérsékleti limitbe, akkor az órajel változik először, és azt követi a feszültség."
Órajel váltások legjobb tudomásom szerint így nem működnek..
Lefelé váltásnál először az órajelet veszi el, aztán a feszültséget. Felfelé váltásnál először a feszültséget adja meg mielőtt rácsavarja az órajelet. Különben beleborul a
kártyaGPU tetszőleges része ha nincs elég feszültség az adott órajel lépcsőhöz.Nem hiszem hogy van értelme az órajelhez szükséges nagyobb VID-en tartani a GPU-t ha vége a power limitnek. Szvsz ez ugyanúgy működik mint az NV esetén, addig tolja a delejt amíg a power limit engedi vagy el nem melegszik.
-
#82819712
törölt tag
Megkérdezték Lisát a Hot chips-en hogy mi van a crossfire támogatottsággal ezt válaszolta:
"To be honest, the software is going faster than the hardware, I would say that CrossFire isn't a significant focus".
Bár ha MCM-ről kérdezik lehet jobb lett volna. -
#82819712
törölt tag
válasz
Petykemano #43239 üzenetére
Engem a mixed precisionnál mindig elfog egy fura érzés :felvetődik hogy akkor miért is nem áll meg a Hiybrid szó a talpán ?
Nemrég volt megint egy cikk arról hogy 20-ban jön a Navi 21 23 az RDNA2-vel.Na olvasójegy: volt egy Hot Chips 31 szimpózium és akkor olvashatunk Lisa mama interjúkat és az Intel, AMD és NVIDIA mesterséges intelligencia stratégiájáról CIKK
-
Ribi
nagyúr
Leírtait alapján, pont hogy a power limit esetén lenne takarékos a kártya. Mert ha power limitbe ütközik akkor a fesz változik először, lefelé. Vagyis a fesz lesz kisebb frekihez mérten, temp limitnél meg ugye a freki lesz kisebb adott feszhez. Szóval mondanám, hogy felcserélted a két dolgot.
Ahogy paprobert írta, miért nem lehet mind2 esetben perf/W-ra menni? Miért nem lehet mind két limit esetén a feszt csökkenteni először és utána a frekit? -
paprobert
őstag
-
Ribi
nagyúr
válasz
Raggie #43235 üzenetére
Szerintem a gyári hűtő ennyit tud ilyen hangerőn.
Még tovább hergelik a ventit, az nem sok jóra vezet. Így meg ha bírja a gpu akkor bírja.
De custom hűtőknél tényleg kellene valami automata thermal throttle pont állítási lehetőség, hogy ott is meglegyen ez a fogyasztás csökkentés lehetősége. -
Ribi
nagyúr
Néztem, hogy valaki lentebb vette az egyik custom kártyán a venti fordulatot és azzal is visszacsökkent a fogyasztása 250W-körülről 200W alá, mint a gyárinak. Cserébe az is vagy 10 fokkal melegebb volt és vesztet 3-5% teljesítményt.
Nem lenne sokkal egyszerűbb a thermal limitet állítgatni, hogy így legyen mindig jobb a fogyasztás? Viszonylag kézenfekvőbb mintsem magát a hőmérsékletet engedni magasra, hogy a beprogramozott limitet elérje. Eredmény ugyan az lenne. Mondjuk ezt csak custom hűtővel lehet, mert a gyári így is retek hangos. -
Abu85
HÁZIGAZDA
Ha a hardver power limitbe ütközik, akkor a feszültség változik először és azt követi az órajel. Ha hőmérsékleti limitbe, akkor az órajel változik először, és azt követi a feszültség. Nagyjából negyed milliszekundum az a maximum időtartam, amíg a hardver képes átvészelni stabilan azt, ha csak az egyik paraméter változik. Bármelyik lehet. Viszont ha az órajel nő először és nem a feszültség, akkor azzal nagyobb perf/watt jár. És bár a negyed milliszekundum nem hangzik soknak, de a Navi 10 nanoszekundumonként tud órajelet és feszültséget váltani, ezért jelez a hardver vissza egy átlagos órajelet és feszültséget, mert maga a monitorozás másodperces szintű, tehát az előző másodperc órajeleit és feszültségét átlagolja a hardver, és azt adja vissza a szoftvernek. Ennek igazából akkor van előnye, ha a program beleütközteti a hardvert a hőmérsékleti limitbe. Ha nem, akkor a referencia esetében is a power limit lesz a döntő tényező, ahogy a custom esetében is, így a feszültség fog előbb változni.
-
#82819712
törölt tag
Érdekes hogy mennyit pörögtök ezen a témán pedig egyszerű.
Sokkal több állapot van ami miatt a 8% selejtet le tudják 2%-ra szorítani.
Az OEM-nek ref kell és az új finomabb órajel kezeléssel tudja maxon pörgetni, amivel tud példázódni.
Amellett hogy a customoknak is jó ez teljesítményben,
csak sikerült átlépni a 2 GHz-es gyári custom határt.Z10N által linkelt RNDA fehérkönyvről aka dokumentációról meg senki nem beszélget (petyke visszajöhetne már a szabiról
)
Azért linkelek róla egy cikket hátha katalizátorként hat... -
Ribi
nagyúr
Na de mi mit követ?
Freki emelés mellé kell emelni a feszt is, vagy terhelést kap és koppra fagy az egész. Vagy hiába emeled meg a frekit, amíg nem melegszik addig a feszt sem kell emelni? Vagy mi az a paraméter amikor úgy gondolja a rendszer, hogy az emelt freki mellé/után emelni kell a feszt is és mikor nem?
És normális hűtés mellett miért kell emelni a feszt? Mert ha nem a hőmérséklet miatt, akkor miért kell emelni a feszt hosszú távon és miért nem kell rövid távon? -
Nem ertitek. A Navi kvantumgpu, es nem ervenyesek ra a termodinamika torvenyei
Ujabb fejezettel bovult az "Abu-AMD legendak" almanach...
-
korcsi
veterán
-
Egon
nagyúr
Nem melegszik túl. Ugyanannyira melegszik fel, mint minden korábbi, csak már mérni is tudja.
A szemcsézettség nem lépcsőnkénti órajelugrást jelent, hanem DPM szintenkéntit. A DPM nem egyenlő az órajellel.
A feszültség független az órajeltől, tehát ha sűrűn ugrál az órajel, akkor be tudsz úgy állítani magas órajelet, hogy lehet a feszültségnek ezt nem kell követnie, mert arra a kis időre megoldotta a hardver a feszültség növelése nélkül is. De ehhez persze marha jó rendszer kell ám, nem fog ez működni minden hardveren.Megint nem a kérdésre válaszoltál, mellébeszélsz ezerrel folyamatosan. Ha normális hűtés van a vga-n, akkor nem dobálja az órajelet. Ergo az helyett, hogy lenne normális gyári hűtés, megoldották, hogy a gyári hűtés elégtelensége miatti hatások (feszültség- és órajel csökkentés) finomabban, jobb hatásfokkal menjen végbe, és te ennek tapsolsz...
Ez kb. olyan, mintha egy autónak rossz lenne a futóműve, ami miatt folyamatosan félrehúzna, és a gyártó erre bevezetné a sávtartó figyelmeztető automatikát... -
Abu85
HÁZIGAZDA
Már nekik is megírtam.
(#43225) Pkc83: Inkább úgy kellene fogalmazni általánosan, hogy attól, hogy a program kiír valamit, még lehet, hogy a GPU egy másik ponton forróbb. Hogy mennyivel az nagy kérdés. Általában azért 10°C-nál nagyobb hőmérséklet különbség nem szokott lenni egy kisebb kiterjedésű lapkán, a mért és a legforróbb pont között. A tipikus maximum eltérés inkább 4-6°C. Persze kérdés még, hogy jól mér-e a dióda, de általában azért sokat nem téved.
-
Pkc83
őstag
Olvasgatom tegnap óta a kérdéseket és válaszokat és látom
sokan nem értik ahogy én sem!Tehát végülis az lenne a lényeg , hogy az én rx580-am is simán lehet bizonyos
pontokon akár 110 fokos is csak az én kártyám ezt még nem tudja mérni
és ezért nem tudok róla én sem , míg az új navik már tudják mérni
és ezért azt is irják ki a mérő programok? -
Abu85
HÁZIGAZDA
válasz
korcsi #43220 üzenetére
Tartanak egy rakás briefinget az év során. Meghívásos alapon szelektálják az újságírókat. Nem mindet persze, úgy olyan 20-30 fős a technikai briefingekre a meghívottak száma, tehát kb. a világ IT újságíróinak a krémje. De amúgy vannak a product briefingek is. Oda jóval többen mennek, akár 300-400-an is.
-
Abu85
HÁZIGAZDA
válasz
paprobert #43213 üzenetére
A Zen 2 és az RDNA hardverek mindig a lehető legmagasabb órajelet alkalmazzák a lehető legalacsonyabb feszültség mellett. Azért nem lehet őket igazán húzni, mert a hardver képes arra, hogy ezt megtegye saját magával, méghozzá a felhasználó beavatkozása nélkül. Régebbi technológiákra épülő hardvereket azért lehet húzni, mert nem képes arra a hardver, hogy önmaga beállítsa a lehetséges maximum órajelet a lehetséges minimum feszültség mellett. Most már annyit léptünk előre az elmúlt 10-15 évben, amióta az AMD fejleszti az AVFS-t, hogy már tudnak ilyen lapkákat gyártani.
Igen, ez az előnye, ha ugráltatod az órajelet. Nem csak alacsonyabb lesz a órajel, hanem a visszaeső hőmérséklet miatt magasabb is, viszont a feszültség nem követi ezt szorosan. Tartós órajel mellett viszont muszáj követnie.
Ha lenne tízezer elkülönített lépcső, akkor jobb lenne, de amíg nincs, addig igazából mindegy.
(#43214) tom_tol: Attól függ, hogy a GPU milyen órajel-szabályozást használ.
Nem melegszik túl. Ugyanannyira melegszik fel, mint minden korábbi, csak már mérni is tudja.
A szemcsézettség nem lépcsőnkénti órajelugrást jelent, hanem DPM szintenkéntit. A DPM nem egyenlő az órajellel.
A feszültség független az órajeltől, tehát ha sűrűn ugrál az órajel, akkor be tudsz úgy állítani magas órajelet, hogy lehet a feszültségnek ezt nem kell követnie, mert arra a kis időre megoldotta a hardver a feszültség növelése nélkül is. De ehhez persze marha jó rendszer kell ám, nem fog ez működni minden hardveren.(#43217) Ribi: Nem a freki a lényeg, hanem a feszültség. A frekvencia növelését később is tuja követni a feszültség növelése, de ha időközben már visszaesett újra az órajel, akkor nem kell követnie. A tartós hűtéssel viszont muszáj igazodni a feszültség tekintetében, mert ott tartósan marad az órajel, nem lehet azokra a kicsi peakekre optimalizálni, amikkel ugyan sebességet nyersz, de rövid ideig tartanak. Összességében nem lesz jelentős a különbség. Pár watt maximum.
(#43218) Z10N: Ami elég nagy faszság. Semmire nem jó, hogy összeadod a cache-ek adatátviteli teljesítményét, már abból előnye van a Navinak papíron, hogy háromszintű a cache, tehát három számot adsz össze kettő helyett. Lehet játszani a számokkal, csak ez hülyeség. A /flop is az. Ott a regiszter sávszéljéhez kellene ezt mérni.
-
Z10N
veterán
válasz
Petykemano #43192 üzenetére
A total cache bw is jelentos es a /flop utemezes.
De milyen erdekes, hogy hazon belul a Vega64-hez hasonlitjak.
Egy fele akkora lapkat, aminek a Polarist kellett volna valtania... -
Ribi
nagyúr
válasz
tom_tol #43214 üzenetére
Visszaolvasva sejtem mire gondol Abu, de ez egy elég idióta szemléletmód AMD részéről.
Alapból ahogy írtad legyen 1800MHz vs 2100MHz. Viszont nem 250W tartozik mind2 esethez, hiszen 1800MHz-hez jóval kevesebb feszültség kell. Emiatt elviekben lehet igazság abban, hogy a kb 1800MHz-en folyamatosan trotylingoló vga mindig pontosan csak annyi feszt ad a karinak mint a működéséhez kell. Ezzel szemben a folyamatosan 2100MHz körül működő karinak arányaiban több fesz kell, hiszen frekivel mint tudjuk egy idő után igen meredeken emelkedik a szükséges fesz igény.
A gond csak ott van, hogy ez a szép és jó elmélet. A valóság szerintem az, hogy ugyan úgy szétfeszeli a pékbe a GPU-t ahogy a procinál is ezt látjuk, hogy rohadtul nem a megfelelő feszt kapja és erre még rájön a hőmérsékletből adódó hatásfok romlás is.
Habár előfordulhat, hogy jobb a hatásfoka, de az abból adódik, hogy sokkal alacsonyabb frekin megy. Viszont ha hasonló frekin megy a jól behűtött és a folyamatosan trotylingoló kari, akkor bizony a magas hőmérséklet miatti hatásfok romás telibeveri a perf/w értéket. Mert ha igaz lenne a hűde pontos szabályzás, akkor a max fogyi limit mellett is csak annyi feszt kap ami kell neki. De ezt ki kellene mérni melyik győz. Nem a marketingeseknek hinni. Mert azt tudjuk mennyit ér. -
-
Ribi
nagyúr
válasz
Raggie #43209 üzenetére
Eddig is ezt csinálták, ahogy az 590-et is szétfeszelték és fogyaszt mint a veszedelem. Az sem egy perf/W bajnok.
Szimplán annyira kitapossák a belét amennyire csak tudják. Nem perf/W-ra mennek, hanem perf/cost-ra.
Mert a játékosok nagyrésze azt se tudja mennyit eszik a gép, a bótban úgyis beledobták a 600-as tápot, me az kell, onnantól meg nincs mit kérdezni. Elhanyagolható embertömeg méricskél fogyasztást. Mindenki csak a grafikont nézi, hogy X pénzért hosszabb csíkot kap-e mint NV-ből. Enji. -
tom_tol
addikt
Adott egy GPU. Kuka hűtéssel tud 1800 Mhz/250 Watt. Ha lehűtöm tud 2100 Mhz/250 Watt. Melyik a jobb perf/watt ? Azt akarod beadni, hogy korszakalkotó ficsör ha a GPU túlmelegszik ledobja az órajelet csak nem 12 MHz-es lépcsőkben hanem mondjuk 2 MHz-ként? Miért jó ha össze-vissza ugrál az órajel?
-
paprobert
őstag
Köszönöm a választ.
Ez számomra mindent megmagyarázott.Meg kellene egyeznünk abban, hogy a kártya szét van húzva, a komfortzónán kívül van járatva gyárilag is. Ez a kiindulópont.
1. Az autoOC csak ront a hatékonyságon. A Ryzennél is arányosan sokkal többet fizetsz fogyasztásban az utolsó pár 100 MHz-ért, nincs ez másként ennél a kártyánál sem.
2. Így egy hőlimit által kierőszakolt throttling rögtön ésszerűbb órajelet enged meg, és egy kevésbé szétfeszelt állapotba kerül a kártya a másodperc töredekére. Ez az áltagfogyasztást csökkenti, a teljesítményt csökkenti, a hatékonyságot növeli.
Ellenben:
3. Ennek van egy inverz következménye is. A referencia kártyánál csak nagyon-nagyon rövid ideig, de látunk magasabb órajelet mint a custom kártyáknál. Az ehhez felvett feszültség csak rövid ideig, de abban a pontban nagyon rontja hatékonyságot.
4. Ha ezt az egész játékot 110 helyett 70 fokon csinálná a kártya, a szivárgás is kevesebb lenne, az unblock hatékonyság is jobb lenne.
Konklúzió: A referencia kártyával: az átlag órajel kevesebb, az átlag feszültség kevesebb, és az átlag teljesítmény is kevesebb a throttling miatt. Mivel már rég nem optimális tartományban jár a kártya, bárminemű extra OC csak alig gyorsít rajta, de a fogyasztás nő. Így a referencia órajel-vesztesége sem fáj annyira.
Nincs itt semmi látnivaló.
-
Abu85
HÁZIGAZDA
válasz
paprobert #43211 üzenetére
Nincs már fix tábla egy ideje az AMD-nél AVFS van DVFS helyett.
Azért kell a hőmérsékletre vonatkozó limit, mert ilyenkor nyúl a hardver az órajelhez, és az alacsonyabb órajelhez alacsonyabb feszültséget számol, majd állít be. A power limit esetében sokkal következetesebb limitről van szó a hőmérséklethez képest, tehát nem lesz annyira agresszív az órajel és így a feszültség szabályozása.
-
Abu85
HÁZIGAZDA
válasz
Raggie #43209 üzenetére
Ma már ez rég nem attól függ. A chipek többsége a beállítottnál is magasabb órajelen lenne képes üzemelni, csak túl nagy a határ a szabályozólépcsők között, vagyis mindenképpen egy kisebb órajelre kell ugraniuk. Ezt korrigálja a Navi finomszemcsés rendszere, de valójában ez sem olyan finom szemcsézettségű ám, hogy a fizika közbeszóljon. Közbeszólhat a fizika az AMD szerint is, de ahhoz legalább tízezer megkülönböztetett állapot kell, az pedig overkill a tervezés szempontjából. A legtöbb chip például 8 állapotot különböztet meg, a Navi pár százat. Tehát a jelenlegi órajel-szabályozási megoldásokat tekintve elképesztően messze vagyunk attól, hogy a fizika jelentse a problémát.
-
Raggie
őstag
Sajnos attól még hogy leírod, hogy nincs köze a fizikához attól még van.
Magasabb hőmérsékleten üzemelő chipek kisebb órajelet tudnak stabilan tartani azonos feszültséggel, vagy átfogalmazva azonos órajelhez magasabb feszültség kell."De ha mondjuk a BIOS-ban 70 fokra rakják a limitet, akkor ugyanúgy fog működni, mint a Navi 10 110 fokon."
De ha 70 fokra tették volna a limitet, akkor még jobb perf/watt arányt érnek el a fenti fizikai jelenség kihasználásával. Ezt nem érti senki, hogy miért kell egy alapvetően jó stratégiát egy annak kedvezőtlen helyen használni? -
Abu85
HÁZIGAZDA
válasz
tom_tol #43206 üzenetére
Egyrészt tök mindegy, hogy mit ír ki a szoftver. A Navi 10 előtt egyetlen GPU sem olvasta ezt ki pontosan. Másrészt egyetlen korábbi GPU sem alkalmazott finomszemcsés órajel-szabályozást.
Ha 110 fok a limit és 70 fokon jár az adott GPU, akkor ugye sosem éri el a hőmérsékletre vonatkozó limitet, tehát a power limit határozza majd meg az órajelet, viszont így az órajel nem fog le-föl ingadozni, amit nem követ majd a feszültség ingadozása sem, tehát egy 70 fokon működő GPU magasabb átlagfeszültségen működik, mint egy 110 fokon. De ha mondjuk a BIOS-ban 70 fokra rakják a limitet, akkor ugyanúgy fog működni, mint a Navi 10 110 fokon.
(#43207) Raggie: A fizikának ehhez kevés köze van. Az AMD azzal nyer hatékonyságot, hogy az órajelet visszaveszi a hardver, és akkor feszültséget csökkenthet, tehát a referencia a normál működése alatt, ha az alkalmazás eléri a 110 fokos limitet, akkor alacsonyabb átlagos feszültségen működik, mint egy custom, ahol a power limit az órajel konstansabban van tartva, tehát a feszültség sem csökken vissza pillanatokra.
-
Raggie
őstag
Ennél konkrétabb választ tehát nem adott az AMD.
Ez sajnos kevés.
A fizika nekik is fizika. Magasabb hőmérsékleten magasabb szivárgás.Arra nem válaszolt a magyarázat, hogy miért itt van a legjobb perf/watt arány, amikor ez ellentmond a fizikának. Pontosabban miért nem lejjebb állítják be ezt a pontot, ahol még jobb perf/watt arányt tudnának tartani, legalábbis a fizika törvényei szerint?!
edit: Az már csak a ráadás, hogy az mindenképpen ballépés volt, hogy ezt az értéket kiírathatóvá tették. HA így van ahogy mondják, akkor a user felé semmilyen plusz hozadéka nincsen ennek az információnak csak negatív. Mivel eddig nem is tudtuk ezt és jó volt, most is jó lett volna, csak most még lehet aggódni is egy minden eddiginél magasabb hőfokon, ami a GPU-ból jön...
-
-
Abu85
HÁZIGAZDA
válasz
Fred23 #43204 üzenetére
A vásárlók egy részének most is annyin működik, csak nem tudja a hardver kimérni. Ez a boldog tudatlanság effektus, amit nem látsz, az nem létezik. Ugyanakkor a valóságban létezik, csak kapsz róla adatot. Egy csomó user még ma is szoftveresen mért hőmérséklet alapján nyugtatja magát. Holott azért ezek a szoftveres mérések nem a pontosságról híresek.
-
Abu85
HÁZIGAZDA
válasz
Raggie #43202 üzenetére
Ezzel a beállítással érik el a legjobb perf/watt arányt. Ennyi volt benne a koncepció. A szilícium bőven bírja, bírná a 140°C-ot is. A szilíciumnak ezek nem problémás hőmérsékletek, a kötéseknek azok lennének, ezért nem viszik 110°C fölé, ami tipikusan az elmúlt években kiadott lapkák általánosan maximum működési hőmérséklete volt.
Egyébként a Navi 10-nek nincs magasabb hőfoka, mint a régebbi lapkáknak. A különbség az, hogy a régebbi lapkák nem tudták kimérni a legforróbb pontot, ezért vissza se tudták jelezni. Viszont a tesztelés során ki lehetett ezt tapasztalni, és be lehetett állítani egy olyan működést, amivel hiába nem tudja a hardver mérni, azért a legforróbb ponton nem volt a szilícium 110°C fölött. A Navi 10 esetében annyi csak a különbség, hogy ez már ki is tudja mérni, tehát nem kell tesztelgetni egy olyan beállítást, amivel hiába mérsz mondjuk 90-95-öt, a valóságban a legforróbb pont így is megvan 110°C.
-
Raggie
őstag
Abu tényleg érdekelne minket, hogy mi az a tényező, vagy mik azok a tényezők amik miatt előnyös ezt a 110 fokot tartani és nem egy kisebb hőmérsékletet?
Ezt megmagyarázta normálisan az AMD vagy csak annyit mondott, hogy ott a "legoptimálisabb"?Értjük, hogy az eddigi tapasztalatok már nem alkalmazhatóak egy-az-egyben a Navi-ra, de azért a magasabb hőfokon történő magasabb szivárgás a fizikából következik és azt nem változtatja meg a GPU dizájn. Szóval valami komolyabb magyarázat szükséges ahhoz, hogy a kicsit hozzáértőbb közönség elfogadja azt, hogy ez ténylegesen egy tervezői döntés és nem egy "szokásosan elbaltázott blower hűtés".
-
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- LG 55G3 - 55" OLED evo - 4K 120Hz 0.1ms - MLA - 2000 Nits - NVIDIA G-Sync - AMD FreeSync - HDMI 2.1
- Game Pass Ultimate előfizetés azonnal, élettartam garanciával, problémamentesen! Immáron 8 éve!
- LG 55C3 - 55" OLED evo - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox!
- DELL Latitude 7340 i7-1365U 16GB 1000GB 13.3" FHD+ TouchScren 1 év garancia
- Gamer Notebook! Csere-Beszámítás! Asus Tuf F15 FX506H / 11400H / RTX 3050 / 16GB DDR4 / 512 SSD
Állásajánlatok
Cég: FOTC
Város: Budapest