- ASUS ROG Ally
- Milyen cserélhető objektíves gépet?
- Philips LCD és LED TV-k
- OLED TV topic
- Computex 2024: még két Socket AM4-es Ryzen jön
- Computex 2024: az AMD idén az asztali és a szerverpiacon is frissít
- Melyik tápegységet vegyem?
- Ventilátorok - Ház, CPU (borda, radiátor), VGA
- Sony MILC fényképezőgépcsalád
- Autós kamerák
Hirdetés
-
Olcsó USB WiFi AC adapter
lo Egy olcsó WiFi AC USB adapter jó szolgálatot jelenthet, ha az új router csak elvileg támogatja a 2,4 GHz-es átvitelt.
-
Computex 2024: még két Socket AM4-es Ryzen jön
ph Az AMD nem tett le az ötödik generációs, Zen 3 magokat használó dizájnjairól.
-
Letartóztatták, mert AI segítségével csalt az egyetemi vizsgán
it A török hatóságok letartóztattak egy diákot, amiért egy egyetem felvételi vizsgáján AI segítségével válaszolt a kérdésekre.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Malibutomi
nagyúr
Hu jut eszembe Abu a 390 tervezésénél a HDL màr használatban lehet?
-
Abu85
HÁZIGAZDA
válasz Malibutomi #10301 üzenetére
A HDL már lassan 5 éve használatban van. Egyébként pont hogy a HPL-lel kísérletezik az AMD, ami jobbnak tűnik a GPU-kra, mint a megszokott HDL.
Például a Carrizo egy érdekes hibrid tervezés. A CPU-ja HDL, míg az IGP-je HPL. A Kaverinél pont fordítva volt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
válasz Malibutomi #10297 üzenetére
Jelentőset most, de az irányt már sokkal hamarabb (480/580 fiaskó megint és a tegra miatt a mobilitás)... a 680 már nagyobb teljesítményt adott jobb fogyasztással, mint a 7970/GE mikor megjelent ahogy írtam (úgy hogy nagy GPU volt!).
Az AMD pedig azóta sem tudta a GCNt gatyába rázni ezen a téren... jöttek a nagyobb újabb chipek meg generációk, de ez a mutató nem javult.Persze igen nV oldalon is a Maxwell hozta meg a megváltást, de ennek az volt az ára mégegyszer, hogy rengeteg funkciót és flexibilitást kidobtak és csak azt tartották meg ami tényleg kell és úgy vonták össze hogy a grafikára/játékra legyen optimális. A compute meg kuka bizonyos értelemben, meg a flexibilitás.
Az AMD oldalon meg épp fordítva van, a compute és a nagyobb flexibilitás a cél, sokkal több emiatt a belekerülő logika és huzalolás, stb stb. Mind csak növeli a komplexitás és a tápigényt.
Persze itt is lehet pl olyan kompromisszum valahol hogy belepakolsz mégtöbb végrehajtót pl, de cserébe kisebb órajelen hajtod, ezért a teljesítmény/fogyasztás mutató javulhat... cserébe nő a méret és a költség (valamit valamiért ugye).
Pont lehet a következő megaGPU AMD oldalon erre az irányba mozdult (aka CPU oldalon az órajel helyett a multicore... ugye).Amugy nagyon érdekes hogy mikor elindult ez a GPU dolog akkor az nVidia volt azon hogy CUDA meg jobb és jobb programozhatóság, nagy fogyasztás nagy gazdaságtalan GPU. Az AMD meg a grafikára koncentrált és tolta a sweet spot VLIW5-4 generációkat, ami hatékonyan azt csinálták amit kell.
Aztán most meg megfodult a világ.. az nVidia kezdett grafikára hatékony "sweet spot" megoldásokat adni és a compute nem annyira érdekes... az AMD meg compute centrikus lett és minden azért áldoz be.Ki tudja lehet utána meg megint fordul majd a DX12 miatt... vagy megtalálja mindkét gyártó a közös optimális utat.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
Z10N
veterán
EZ volt mar? Varhato csuszas.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
HSM
félisten
válasz Malibutomi #10304 üzenetére
Igen, én nem erre a HDL-re gondoltam. Így már tiszta, köszönöm.
(#10305) NetTom: A 7970-eknél az igénytelen energiamenedzsment volt csak a gond. Pofátlanul bírták amúgy az alulfeszelést, főleg a Ghz csipek, amik egy friss revíziók voltak, és hamar átvették a sima 7970 csipek helyét is. 1,2-1,25V-ról simán le lehetett menni 1Ghz-es magórajel mellett 1,1-1,15V-ra, és igencsak megdobta a teljesítmény/fogyasztás mutatót.
Valamiért amúgy a 290-eknél is sikerült ezt az AMD-nek benézni, ott is jóval kisebb fesz elég lenne a GPU-nak, mint amit adnak neki. Ezt tartom én jelenleg az AMD legnagyobb bajának, túlzottan a biztosra mennek a csipek feszültségét illetőleg, és rengeteg tartalékot hagynak benne, akár 40-50W-okat a 7970, és mégtöbbet a 290-ek esetén.
Ami amúgy a Fermit illeti, tényleg nagyon jó compute GPU volt, viszont akkoriban játékra még teljesen felesleges volt annyira komoly cuccot kiadni, így kisebb bukó lett belőle, és ez vitte sikerre az amúgy nem mellékesen sokkal olcsóbb "sweet spot" GPU-kat.
Most viszont egy teljesen abszurd lépés volt a DX12/Vulcan API küszöbén, és az egyre bonyolultabb játékmotorok debütálása előtt bedobni egy ilyen kissé lecsupaszított GPU-családot. Persze, látni benne a rációt, DX11 alatt piszok gyors, és olcsón gyártható, valamint a fogyasztása is nagyon jó, de kérdéses, mennyire fog boldogulni a későbbi, várhatóan a jelenleginél jóval komplexebb játékmotorokkal. Főleg a vékonyka memóriabusz és belső memóriaszervezés okán.
Bár aki ezt megszívhatja, az nem az Nv, hanem a vásárlóik....[ Szerkesztve ]
-
hugo chávez
aktív tag
Uraim! Megint megy a csodavárás, meg a túlzott (és légbőlkapott) elvárások, aztán, ha nem úgy alakulnak a dolgok, akkor fél év múlva a csalódott (és/vagy NV-fan) emberkék meg tolni fogják a hülyeséget, hogy "nem ez volt az ígéret". Miközben nem is ígért senki semmit, csak pár, erősen fakegyanús "teszt" volt eddig...
#10247) daveoff:
"Pontosan ugyanezt olvashattuk tőled a Mantle megjelenése előtt, aztán jöttek a Mantle támogatott játékok, és nem változott semmi, minden ugyanúgy maradt, a kihasználtság, az órajelek, stb."
Már ne haragudj meg, de mi olyat mondott Abu, ami nem igaz (a megfelelő körülmények esetén)? És mit mondott a Mantle-ös játékok előtt? Ha azt, hogy rögvest ez lesz a helyzet az első ilyen játékoknál is, akkor kérlek, ezt linkeld már be!
Egyébként meg, a jövőre nézve: [link] És innen a PH!-ról valószínűleg ő ért a legjobban ehhez a témához.
(#10268) HSM:
"Abu azt írta, mit lehet elérni az API-val, nem azt, mit fognak az első támogatók ebből megvalósítani. "
Ez az, hogy nekem is így rémlik! Ezért szeretném, hogy ha valaki, aki amellett kardoskodik, hogy nem így volt, végre alá is támasztaná...
(#10257) TTomax:
"A sweet spotnak pedig vége szakadt a GCNel..."
Így van.
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
TTomax
nagyúr
válasz hugo chávez #10309 üzenetére
No hat azért voltak eddig itt captain jackes-es slideok rendesen...sokan védték is. Amúgy az nem lenne gond ha a 390X nem veri meg a Titant,csak kulturáltan müködjön ,értem ez alatt,hogy hajszárítóból most ne merülőforraló legyen.No és persze kapjon egy nagyon vonzó árcédulát,és elég VRAMot,részemröl azonnal benevezek egy párra előrendelve...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
hugo chávez
aktív tag
válasz TTomax #10310 üzenetére
Hát, az AMD néha kicsit elragadtatta magát, az tény, különösen a Bull(fail)dozer estén... De mostanában már nem rémlik hasonló, illetve, csak afféle esetlegesen megtévesztő, bár nem teljesen konkrét dolgok (up to 45%, meg társaik).
Egyébként az egy GPU vs. két GPU-s érveléseddel is egyetértek, nagyon nem lehet egy lapon említeni őket. Szerintem amúgy, a 390X-nél valószínűleg low level API-nál fog kijönni az előny igazán. Bár én drukkolok, hogy sikerüljön hoznia egy jó 40-50%-ot a 290X-hez képest mindenhol.
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
daveoff
veterán
Mivel egy átlagos 290-ben kb. 50-80MHz tuningpotenciál van, így kétlem, hogy annyira túllőtték volna az alapfeszt, ha alacsonyabb lenne, akkor 0 lenne bennük a tuningpotenciál, és még az alapórajeles instabilitás is előfordulhatna. A 7970-nél volt inkább jellemző amit mondasz.
hugo chàvez: most nem fogom előkeresni Abu több ezer hozzászólásából, remélem megérted....
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
7time
senior tag
Persze, látni benne a rációt, DX11 alatt piszok gyors, és olcsón gyártható, valamint a fogyasztása is nagyon jó, de kérdéses, mennyire fog boldogulni a későbbi, várhatóan a jelenleginél jóval komplexebb játékmotorokkal.
Nem hiszem hogy ez az Nvidiát túlzottan érdekli, akinek nem fog tetszeni az majd vesz újabbat.
-
nagyúr
válasz hugo chávez #10309 üzenetére
Csak egy kis korrekció: Abu jellemzően nem úgy fogalmaz, hogy "ez meg ez lehet", hanem úgy, hogy "ez meg ez lesz". Nekem is rémlik amúgy, hogy a már a BF4-re is be volt lógatva az órajelcsökkenéses scenario.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
hugo chávez
aktív tag
válasz daveoff #10312 üzenetére
"most nem fogom előkeresni Abu több ezer hozzászólásából, remélem megérted...."
Persze, hogy megértem. Ráér akár pár héttel később is.
(#10314) gbors:
Abu meglehetősen idealista. Erősen tech oldalról nézi a dolgokat, a valós piaci-gazdasági tényezőket pedig talán gyakran nem veszi kellő súllyal figyelembe. Viszont én komolyan nem emlékszek olyasmire, hogy konkrétan azt állította volna akár a BF4 Mantle renderére, hogy az majd biztosan annyira kihasználja a GPU-t, hogy ott órajelvisszaesés lesz... De persze tévedhetek is simán, meg nyilván nem olvastam és nem is emlékezhetek itt mindenre, ezért is kértem meg immár 2 embert, hogy, ha ők jobban emlékeznek, akkor linkeljenek. A google-operátor (site:prohardver.hu) hasznos lehet, ha emlékeznek legalább egy kulcsszóra.
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
daveoff
veterán
válasz hugo chávez #10315 üzenetére
Pedig én tisztán emlékszem, hogy arról volt szó, hogy ez már a BF4 így lesz. Azzal ment a példálózás, hogy Johan Andersson @repi gépében is már így működött a 290X, persze nála gondolom érvényesült az "up to 45%" is....
Igazábol nekem aztán mindegy, csak egyszer lássunk már valamit gyakorlatban is, ne csak pr slideokon.
Majd előkeresem neked, csak most mobilról vagyok, de egyébként sem változtat semmin, ha megkeresem....
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
smkb
őstag
válasz hugo chávez #10315 üzenetére
Szerintem erre gondolt daveoff:
http://mobilarena.hu/tema/amd_radeon_tm_r9_290_290x/hsz_3358-3358.html
"Tehát, ha az Afterburner engedné 1.3 voltra feltenni a feszültséget, akkor jelen esetben az is csak egy maximum lenne, amit órajeltől függően állít be a VGA?
Nézzünk egy benchmarkot, mondjuk Valley Extreme-t. Nálam végig 1100-on teker a 290X, alapfeszen. Ha tegyük fel 1.3 voltot állítanék maximum értékként, 1300 Mhz-cel, akkor gyanítom végig 1300-on menne és 1.3 voltot adna neki, amivel stabil. Vagy nem? De írhattam volna BF4-et is, ami VGA-limites."itt pedig a válasz Abutól, amiben természetesen kijelentőmódban ott az órajelcsökkenés és terhelés:
http://mobilarena.hu/tema/amd_radeon_tm_r9_290_290x/hsz_3359-3359.html
"Felesleges ezt úgy tuningolni. Be kell állítani a CCC-ben amit bír és ennyi. Többet a Mantle miatt sem érdemes erőltetni, mert ami stabil DX-ben az nem lesz az Mantle-ben. Ott szinte kizárt, hogy 800 MHz-nél nagyobb órajelen menjen ez a kártya, de lehet, hogy 700 MHz körülire is csökken az órajel. Azért nem mindegy, hogy az áramkörök 40%-a NOP-ot futtat vagy nem.
A tuningnak igazából a Mantle-lel vége. Mert ez egy olyan API, ami képes a rendelkezősére álló erőforrásokat párhuzamosan hasznosítani, tehát még az alapórajelet sem bírják majd a VGA-k. A PowerTune majd leszabályozza. Ezért nem mond semmit Repi a sebességelőnyről, mert azt tudja, hogy az API mit ad, de azt nem, hogy ebből majd a kártyák órajelcsökkenése mennyit vesz el"
-
7time
senior tag
Sehol sem látom hogy irt volna valamit is a BF4 -ról csak a Mantle jött szóba de arról sincs semmi hogy ezt a fázist mikor éri el a Mantle, azt azért látom hogy erősen kettős mércét használtok mert elvárjátok hogy a Mantle 1 év alatt megoldja azt amin a DX 10 éve szerencsétlenkedik.
-
Drizzt
nagyúr
"Most viszont egy teljesen abszurd lépés volt a DX12/Vulcan API küszöbén, és az egyre bonyolultabb játékmotorok debütálása előtt bedobni egy ilyen kissé lecsupaszított GPU-családot. Persze, látni benne a rációt, DX11 alatt piszok gyors, és olcsón gyártható, valamint a fogyasztása is nagyon jó, de kérdéses, mennyire fog boldogulni a későbbi, várhatóan a jelenleginél jóval komplexebb játékmotorokkal. Főleg a vékonyka memóriabusz és belső memóriaszervezés okán."
Persze, már a HD2900-ak előtt is mindenhonnan a PH-n az folyt, hogy az Alu:tex arány miatt majd a közeljövőben a HD2900 mindenkit lealáz. Aztán természetesen megjelenésekor semmi extrát nem nyújtott, mire meg bármi előnye lett volna az architektúrájából, már rég kevés volt mindenre. Akkoriban tanultam meg, hogy aki a találgatásokra hallgat, nagyon rossz ajtón kopogtat. Most ugrik be, hogy utána talán a következő nagyon hype-olt dolog errefelé a tesszelláció volt. Naponta jöttek róla a kommentek/hírek, hogy ez lesz az új csoda. Egészen addig, amíg az NV ki nem jött sokkal gyorsabb tesszellátorral. Na onnantól kezdve a tesszelláció hibáiról kezdtek szólni a cikkek. De ha összeszedném magam, valószínűleg tudnék még poéldákat hozni. A csodavárást mindenestre meghagyom másnak, mert soha nem lett belőle eddig se semmi, ezután se lesz. Azt kell megvenni, ami az aktuális dolgokban épp a leggyorsabb. A közeljövőben a kép mindig csak picit árnyalódik, mire bármit is számítana a felépítésbeli különbség, már rég 2-3 generációval előrébb fogunk járni.
I am having fun staying poor.
-
hugo chávez
aktív tag
És daveoff
Oké, köszi. Bár itt sem egyértelmű a dolog, ugyanis van egy ilyen, hogy "mert ami stabil DX-ben az nem lesz az Mantle-ben.", de aztán már "Ott szinte kizárt...", szóval ebből azért le lehet szűrni (persze nyilván utólag már könnyű okosnak lenni ), hogy csupán egy lehetséges forgatókönyvről van szó.
A második részre meg annyit, hogy Repi a Mantle fejlesztésében eléggé részt vett, tehát ő is inkább az API lehetőségeiről beszélt, nem egy konkrét implementációról. De igazatok van, ez így eléggé szerencsétlen megfogalmazás és valóban azt sugallja, amit mondtatok is.[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
mcwolf79
veterán
válasz daveoff #10316 üzenetére
Én is emlékszem, mikor Abu azt mondta, hogy a tuningot Mantle alatt el lehet felejteni, sőt még az alapórajel is necces, mert a low-level API olyan terhet fog róni a GPU-ra, hogy egyszerűen nem fogja bírni normális TDP-vel és hőfokkal.
Én is azért tértem vissza a zöldekhez, mert qrtára semmi nem lett a nagy ígéretekből, amit bő 1,5 éve az AMD prezentált.Xbox Series X GT: Mcwolf79xy PSN ID: x_mcwolf_79_x
-
hugo chávez
aktív tag
válasz mcwolf79 #10322 üzenetére
Hát akkor, azt annyiban módosítani kell, hogy a "low level" API-kra írt játékok okozhatnak (amennyiben úgy írják meg őket, hogy tényleg kihasználnak minden elérhető lehetőséget) akkora terhelést, ami miatt akár alapórajel alá is eshet egy GPU órajele.
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
letepem
aktív tag
válasz FollowTheORI #10305 üzenetére
Elfelejted, hogy azóta a 7970 jóval többet gyorsult, mint a 680! Újabb tesztekben felette van nem is kicsivel, míg a 680 sem fogyaszt kevesebbet.
látok, hallok, érzek és gondolkodom.
-
nagyúr
És lehet be sem következik ez, mert ígyis elég lesz.
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
Crytek
veterán
válasz FollowTheORI #10325 üzenetére
Az AMD láthatóan sokkal többet profitál a DX12-vel.
NV 2.5x-ös gyorsulás
AMD 5.16x-os gyorsulásNext PC Upgrade: 2022
-
félisten
válasz FollowTheORI #10325 üzenetére
Ez a bechmark azért sem túl valósághű, mert DX11-ben sem tükrözi a valós erőviszonyokat.
Vajon mennyire reális, hogy a 750Ti majdnem háromszorosan ráver a 290X-re DX11-ben?Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
nagyúr
Abban a felállásban amit a teszt szimulál (vagyis hogy a DX11 API CPU limitál pl, amin a DX12 segít), valós hisz ott van látod.
Ez egy spéci teszt nyilván ami a DX12 (meg persze a Mantle is ebből a szempontból) előnyeit hivatott bemutatni.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
7time
senior tag
válasz FollowTheORI #10328 üzenetére
Majd a játékok megmutatják a valós képet az ilyen tesztek általában semmit sem érnek, olyan mint mikor az F1 motorokat 1 éven át tesztelik a laborban minden 100% és mikor berakják az autóba már semmi sem működik, lásd McLaren Honda szenvedését.
[ Szerkesztve ]
-
nagyúr
válasz letepem #10330 üzenetére
Mivel CPU limit van egyértelmű nem?
nVidia oldalon is együtt vannak, csak ugye ott picit jobb a helyzet mert optimálisabb a DX11 driver kód erre szitura... ők több időt szántak erre az optimalizálásra (hogy kisebb legyen a CPU overheadjük/hatékonyabb legyen).
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
-Solt-
veterán
válasz FollowTheORI #10325 üzenetére
Abu leírta már itt a topikban, hogy ez miért nem mérvadó, de nem tudom neked megkeresni, mert összeomlik az oldal állandóan. A lényeg, hogy erre ne alapozz...
www.smart-bus.hu
-
HSM
félisten
válasz daveoff #10312 üzenetére
A tuningpotenciál egy dolog. Az, hogy mennyi fesz kéne neki alapórajelre, az meg egy másik.
(#10314) gbors: Azt mondta, hogy az OC kártyákkal baj lehet, és sanszosan kisebb órajeleket fognak bírni úgy a kártyák, ami szvsz meg is valósult.
(#10320) Drizzt: Én ezzel nem értek egyet. Annak idején is megvettem a tesszelálásban béna 5850-es Radeont, jó is volt 3 évig. Sejtettem, hogy ha gondot is fog ez valaha okozni, 1-2 általam úgysem túlzottan kedvelt effektet kell csak lejjebb vegyek és kész is vagyok. Nem kellett.
Ugyanakkor kis előrelátás nem árt, ha valaki nagyobb gödröket el akar kerülni. Remek példa erre régebbről az FX5800-as Nv és 9700-as Radeon esete. Megjelenésekor még tartotta magát az Nv valamennyire, aztán úgy lemaradt egy-két éven belül, mint a borravaló. A 9700-assal meg remekül el lehetett lenni évekig.(#10327) Bici: Már meg lett beszélve, mi ezzel a baj.... Iszonyat béta még benne minden driver, valamint különböző korú kódokból vannak a módok. Pl. a Mantle egy évvel régebbi a StarSwarm-ban, mint a DX12, nyilván a friss optimalizálások nélkül.
-
félisten
válasz FollowTheORI #10328 üzenetére
Kissé kétségeim vannak, de mondjuk elképzelhető, hogy itt az AMD driver elvérzik, és emiatt adódik ez a helyzet. Ez esetben az AMD-nek nagyon jól fog jönni a DX12, mert drasztikusan csökken a lemaradása dx12-ben.
Abu, Oliverda: A legközelebbi nagyobb GPU teszt alkalmával nem akartok proci terhelést, CPU overhead-et mérni pár játékban? pl. A Titan X és a 390X összemérésekor? Szerintem itt a nagy API mizéria közpette erre kifejezetten kiváncsi lenne a nép.
Addig van idő felkészülni.[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
daveoff
veterán
A tuningpotenciállal próbáltam arra következtetni, hogy mire elég az alapfesz. Ha emelsz 50MHz-et az órejeken, az nagyjából ugyanaz, mintha csökkentesz 50mV-ot a feszültségen, érted mire gondolok? Ha ennyire kicentizték volna az alapfeszt, és nem hagytak volna rá ennyi tartalékot sem, akkor mégtöbb BS-es kártyával szembesültek volna vásárlók. Egyébként nekem 8db 290-em volt, egy-kettőnél probáltam az alulfeszelést, volt olyan, ami azonnal dobta BS-t. Neked ilyen szempontból szerencséd van, mert mindig olyan kártyát fogtál ki, aminél bevált ez a dolog.
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
HSM
félisten
válasz daveoff #10335 üzenetére
Persze, mert az alulfeszelésnél egyből csökkented az Offset mód miatt az üresjárati feszt is és igen, repül a BS, üresjáratban. Ugyanakkor nézted, mit tud a GPU, ha kikapcsolod a PowerTune-t és az energiatakarékos opciókat? Van egy elképzelésem, hogy nem.
Nekem sem volt szerencsém, mert -20mv-nál nagyobb negatív offset-el nem volt stabil már, BS-elt, ugyanakkor a GPU jóval nagyobb csökkentést is elviselt volna a terhelés alatti feszültségeiből a 950Mhz-es alapórajelen."Ha emelsz 50MHz-et az órejeken, az nagyjából ugyanaz, mintha csökkentesz 50mV-ot a feszültségen"
Értem, mire gondolsz, de nem egészen így működik. Magasabb órajelnél jóval nagyobb mértékben kéri a plusszfeszt, tehát ebből nem feltétlen lehet az alulfeszelhetőségre következtetni. -
daveoff
veterán
Azt nem próbáltam, de ha ilyen szinten belenyúlsz a kártya működésébe az már nem egyszerűen alulfeszelés. Akkor AMD-nek is le kellet volna tiltani a powertune profilt, meg az energiatakarékos szolgáltatásokat, az alapfesz csökkentése érdekében? Ezek a funkciók kellenek a megtervezett működéshez, és így az általuk beállított fesz is. Nem?
Nem is gondoltam, hogy teljesen ugyanaz, oda is írtam, hogy nagyjából, legalábbis vannak közös pontok. Az alulfeszelés/alulórajelezés is tuning...
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
nagyúr
Specifikus teszt nélkül szerintem ez igen nehezen kimérhető.
Nem tudom hány olyan játék van ahol DX11 API CPU limit van ilyen szinten (vagy előidézhető ennyire)... talán az ubisoft játékok?
(Ja és persze ne legyen benne valami gyártó specifikus optimalizáció plusszban...)[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
félisten
válasz FollowTheORI #10339 üzenetére
Játék futtatás közben CPU terhelés monitorozás (szükség esetén fix cpu órajelen)?
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
HSM
félisten
válasz daveoff #10338 üzenetére
Miért kellett volna az AMD-nek tiltani a PowerTune profilt?
Nekik egyszerűen a terhelt feszültséget kellett volna pontosabban beállítani a csip szükségleteihez.Csak nekem kell letiltani, ha utólag tesztelni akarom, ténylegesen mennyi fesz kell a csipnek terhelt állapotban, hogy a PowerTune ne csökkentse le, mert oda már kevés lenne, amit egy nagyobb Offset adna és azonnal BS.
-
-Solt-
veterán
válasz FollowTheORI #10339 üzenetére
Például ArmA3... maximum grafikán van olyan szituáció, ahol 20%-s a CPU, és kb 30%-s a GPU kihasználtság, és mindehhez kb 25 FPS párosul. Csak annyi a teendő, hogy a látótávot maximumra kell húzni...
www.smart-bus.hu
-
daveoff
veterán
válasz FollowTheORI #10339 üzenetére
Win10/DX12 startjára elvileg elkészül(vagy már el is készült) a DX11 vs Mantle/Vulcan vs DX12 3DMark teszt, szerintem abból már sok mindent meg fogunk tudni.
HSM: Szerintem olyan nagy tartalék akkor sincs az alapfeszben, hogy érdemes lett volna kockáztatniuk a csökkentésével. Kellet egy olyan pont, amibe biztosan minden csip belefér. Szerintem nagyjából jól eltalálták ezt az értéket.
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
nagyúr
smkb hozott pár példát, marhára nem csak az OCs kártyákról volt szó. Amúgy nem akarom továbbfűzni a dolgot - csak be kellene már látni, hogy a nagy megmondások nem célravezetőek, mert nem nagyon jönnek be.
Az 5850-es példád teljesen jó, de tegyük azt is mellé, hogy a GTX470 is ugyanúgy jó volt sokáig (olyan deja vu érzésem van, nem beszéltük ezt már meg valahol? ). Viszont az FX-es példával érdemes óvatosan bánni, mert 12 éves sztori - túl régi ahhoz, hogy ennek alapján érdemes legyen a jövőre következtetni.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Ami szembeötlő hogy a gyenge CPU jobban megviseli az AMD kártyákat... ez a lényege, ebből pedig következik (elvileg ) hogy a CPU overhead nagyobb. Több és gyakoribb a drop... stb.
Vagy fordítva mondhatnánk azt is az AMD lehet jobb is néha, de erősebb CPU kell alá.Nagyon nehéz ezt méricskélni... ha kitalálnak valamit a PH-sok rá az csak jó.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
HSM
félisten
Persze, a 470/480-ak is ugyanolyan jók voltak. Csak jócskán magasabb áron, és jócskán magasabb fogyasztássat, zajjal. Bizonyos szempontból hasonló a helyzet a mostanihoz, de mégis más. Akkoriban nem kifelé mentünk egy érából, hanem éppen frissen virágzott a DX11... Ott azért lehetett borítékolni, hogy azért olyan nagy compute-forradalom nem várható 1-2 éven belül, ellentétben a mostani trendekkel.
Az FX-es példám régi, mégis jól tükrözi a mostani helyzetet. Az Nv csinált egy olyan architektúrát, ami nagyon gyors volt a jelenben (akkoriban DX7, 8), de nem felelt meg a fejlődési iránynak (DX9), míg a 9700 nem volt annyira gyors, de azt a sebességet tartotta keményen még évekig [link], a wikin is említik az architekturális dolgokat [link].
[ Szerkesztve ]
-
Televan74
nagyúr
Már megint nem ott vitatkoztok ahol kellene.AMD vs NV
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
sayinpety
tag
A fine-grain async task scheduling vagy async compute PCn nem konnyu. Mantle/Vulkan/Direct3D12 alkalmas, am egyik API sem irja le a GPU IP es ASIC reakciojat. Csak az xBox One/PS4 konnyen tervezheto fix hardware, reszletesen dokumentalt ASIC, kiszamithato reakciok, erre megeri a fine-grain async task scheduling. PCn nem mindig. Keves mai enginet terveztek compute-ra. Sajatunk ~50 compute es ~7000 graphics pipelinet futtat. Tudtommal hasonlo mas engine is. Keves a compute pipeline, hogy megerje foglalkozni a fine-grain async task schedulinggel. Sajat enginemet ismerem, async tiled light culling compute lehetseges shadow map mellett, am csak +3%. Tiled light culling nem sok munka, csak 0.3-0.5 ms. GPU compute particles jobb lehetoseg +5-6%.
Next-gen engine sokkal jobb lesz. Prototype mar fut. ~3000 compute es ~5000 graphics pipeline. Sokkal tobb lehetoseg. Csak explicit es low-level APIhoz. Hibas tesselation es hull/domain/geometry shader stagek kidobva. Csak a hatekonysagot rontjak. Helyukon compute pipeline. Fine-grain async task scheduling erosen hasznalva. PS4en hasonlo complex test scene uj enginen 2x gyorsabb a reginel. Optimalizalas utan meglesz a 3x. Raster efficiency vegig 90% avg. Regi enginet a tessellation sokszor 50% ala vitte. Az async compute tessellation sokkal jobb mint a fixed-function tessellation!
PCn a fine-grain async task schedulinggel az R9-290Xem orajele sosem eri el az 1 GHzet az async compute test sceneben. Atlag 880-890 MHz. Minimum 781 MHz. Regebbi HD 7970 rosszabb, nagyobb az orajel valtozasa. Talan regebbi Powertune miatt? A GTX 780/GTX 980 ma meg nem jol mukodik. Alig gyorsulnak a Geforceok, am az osszes nVidia/Intel GPU IP kulsos PC performance engineering team dolga. A core team ezzel nem foglalkozik. Sajnos a kiado csak a GCN IPk optimalizalasat finanszirozza. A tobbi µarch befektetesre nem ajanlott, nem epul rajuk elterjedt console. A Shield console jo otlet. Ha elterjed es ot evig forgalomban marad, talan Maxwellre is kapnank kiadoi finanszirozast.
-
HSM
félisten
válasz sayinpety #10349 üzenetére
Érdekes infók, köszi.
A 7970 kénytelen több órajelet feláldozni, mivel azon nem alkalmazkodik a feszültség a GPU órajeléhez olyan finoman, mint a 290-en. Utóbbin nagyon finom lépcsők vannak, míg a régebbi powertune csak néhány feszültséglépcsőt (kb. 3 vagy 4) használt. Tehát mivel a fesz praktikusan nem csökken, kénytelen többet visszavenni az órajelből, hogy a beállított TDP limitet be tudja tartani.
[ Szerkesztve ]
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen