- Bemutatkozott a Transcend SSD-inek zászlóshajója
- Sugárhajtómű ihlette a Zalman CPU-hűtőjét, de nem az üzemzaj tekintetében
- Félreértések az FSR 4 és a PlayStation 5 Pro körül
- Nem tetszik a Procon-SP-nek, hogy a Nintendo távolról kivégezheti a Switch 2-t
- Megcélozta az NVIDIA-t a 2 nm-es node-jával a Samsung
- Canon EOS DSLR topic
- Hobby elektronika
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Házimozi haladó szinten
- NTFS, exFAT, FAT32 – Melyiket válaszd és miért?
- ThinkPad (NEM IdeaPad)
- Milyen belső merevlemezt vegyek?
- Ventilátorok - Ház, CPU (borda, radiátor), VGA
- Fejhallgató erősítő és DAC topik
- Megfizethető, Pulse szériás Sapphire alaplap DDR5-ös Ryzenek alá
Új hozzászólás Aktív témák
-
válasz
Yutani #46893 üzenetére
Mondjuk nem volt az annyira alacsony azon a kripto árszinten.
Lassabb volt a megtérülési idő, csak ennyi.de nagyon profitábilis volt az RDNA 2 is az alacsonyabb fogyasztás miatt. Ezért nem lehetett azt sem venni, nem azért mert a gamereknek az jutott.
Például a mai árfolyamon :RTX 3090 : Profit per day: 0.67 USD
RX6800: Profit per day: 0.53 USD -
válasz
Yutani #46859 üzenetére
Nem fértem hozzá sajnos a 12 GB verzióhoz.
Ázsiai beszállítás volt a hiány alatt csak ,aztán hozzánk így nem jutott igazán németből. Amúgy jellemző a cégre, mivel feliratkozás volt náluk a skalperek miatt, hogy pár hónap után küldtek egy emailt hogy felajánlanak egy 10 Gigás verziót vásárlásra a 12 GB helyett és mivel 10 éve regisztráltam hozzájuk több vásárlással, így kapok rá 10 % kedvezményt is, de vissza utasítottam mert 12 GB verzió volt a cél.( + nem tudtam hogy vége lesz náluk)
Ezért lett aztán MSI. -
Petykemano
veterán
válasz
Yutani #46848 üzenetére
Szerintem azt ők is érzékelik, hogy a kurrens "big thing" a grafikában a raytracing, a next big thing meg a neural rendering. Jelentsen utóbbi akármit is a gyakorlatban.
De hiába erős a pozíciójuk a konzol piacon, a PC piacon nem ők diktálják a trendet.
A dolog érdekessége, hogy - elvileg - nagyon sok dolgot az AMD (+ a konzol gyártók) dikálnak (az AMD-nek). Szerintem az FSR is valahol egy ilyen dolog. Valahol mintha azt olvastam volna... Nehezemre esne elhinni, hogy ne tudtak volna jobb algoritmust megalkotni - ugye nem egyedül, hanem a MS-tal és/vagy a Sony-val. De vélhetően fontos szempont volt, hogy legyen takarékos az erőforrásokkal.Azon gondolkodtam, el, hogy vajon az AMD tudott-e volna hozni - egy nem a konzol piacról származó, ott be nem vetett - jobb felskálázó megoldást, ami
1.) jobb minőséget biztosít, mint az FSR, aminek persze - mint azt a XeSS esetén láttuk sokszor nagyobb erőforrásszükséglet az ára
2.) A nagyobb erőforrásszükségletet úgy próbálja tompítani, hogy fixfunkciós/FPGA elemeket épít be. (ilyen hardverelemet be lehetne építeni a konzolba is)Szerintem nem lenne lényegesen jobb a helyzet, mint most. Az AMD tulajdonosok - legalábbis a frissebb kártyával rendelkezők - örülnének a jobb minőségnek, amit az új kártyások többletterhelés nélkül élvezhetnek.
De az Nvidia tulajdonosok akkor is vernék a tamtamot, hogy ők nem hajlandók bevállalni sem a rosszabb (hagyományos) FSR minőséget, sem a többletterhelést, ami a jobb minőséggel jár, és amihez nincs megfelelő hardverelemük, hanem igenis a fejlesztő építse be a nekik járó DLSS-t. -
válasz
Yutani #46814 üzenetére
csak épp egy kicsit kellene tovább olvasni :
" NVIDIA Trademark Placement in Applications with a licensed SDK, other than
the DLSS SDK or NGX SDK. For applications that incorporates and/or makes use of
a licensed SDK, other than the DLSS SDK or NGX SDK, you must attribute the use
of the applicable SDK and include the NVIDIA Marks on the credit screen for
applications that have such credit screen, or where a credit screen is not
present prominently in end user documentation for the application. -
-
FLATRONW
őstag
válasz
Yutani #46806 üzenetére
Igazából nem kell az nv logojaval indítani.
Teljes képernyőn elindul a Gaming Evolved, majd a következő képernyőn a többi kiegészítő midleware között, ömlesztve fel lenne tüntetve az NV is.
Engem nem zavar, hogy nem teszik bele a DLSS-t, viszont fordított esetben sem kell háborogni. Ha pedig az Intel nem követel reklámot, akkor az Xees-t simán bele lehetne tenni. -
-
válasz
Yutani #46697 üzenetére
A DLSS-t nem támogatnia kell, hanem engednie. Ez egy fontos különbség.
Mint látod az utóbbi idők "A" kategóriás címeit, amiben van skálázás azokban szinte mindegyik gyártó megoldása jelen van vagy jelen lehet. Kivéve az AMD szponzorált címek nagy részében, amiben véletlenül csak az FSR-t szeretnék a fejlesztők.Ez nekem is eszembe jutott hogy tulajdonképpen Nvidiának jó, ha van FSR a régebbi gen miatt, de igazából az a generáció amiben nincs DLSS támogatás most már a 8. évét tapossa és egy RTX 3060 szintjén jár belőle a csúcs 1080 Ti a többi meg a 3050 és a 3060 8 GB környékén karistol. Már csak ez miatt is érdemes lecserélni egy 1080 Ti-t, meg nekik jó is ha cserélnek.
Szerintem ez már nem hotspot. -
huskydog17
addikt
válasz
Yutani #46651 üzenetére
Persze, hogy lehet, csak nem nagyon jellemző. A FSR nyílt forráskódú, így minden fejlesztő úgy módosíthatja, ahogy akarja. A kérdés itt az, hogy a legtöbb játékban miért nem sikerült ezt a szintet elérni, pontosabban miért marad el képminőségben a DLSS-től. Itt két lehetőséget/magyarázatot látok:
1. Az FSR 2 out of the box (azaz gyárilag) rossz képstabilitást nyújt és mivel a legtöbb fejlesztő csapat nem tud vagy nem akar foglalkozni a forráskód átírásával, így marad úgy, ahogy az AMD kiadta. Ez esetben a Blizzard mérnökei feltehetően átírták az FSR kódját, hogy jó képstabilitást adjon.
2. Az FSR az izometrikus kamera miatt ebben a játékban alapból sokkal jobban működik (talán ez a kameraszög jobban fekszik a kódnak, ki tudja). Ennek alátámasztására (vagy cáfolására) több izometrikus játékkal kéne összevetni, ahol szintén van FSR 2 és DLSS 2 is.Nem csak a CP2077-ben volt rossz az FSR 2, hanem sok más játékban nagyon rossz temporális képstabilitást nyújt. Ezért is tippelek az első felvázolt lehetőségre. Nyilván az igazságot csak a Blizzard szoftvermérnökei tudják, akik a motort írták és beleintegrálták a felskálázó eljárásokat.
-
válasz
Yutani #46653 üzenetére
persze , hogy meg lehet jól oldani.
DLSS 2.0 is lehet volna jó ha foglalkoztak volna vele, meg volt szar is ha nem. emlékezz vissza az 1.0 utáni verziók sem voltak tökéletesek még. A 2.3 tól jött el az hogy nehéz volt rosszul beépíteni. Az FSR 2.1 jó lett a CP-ben. Biztos az FSR 3 is erre az útra lép , mikor a gyenge munka is már elfogadható minőséget jelent, a jó meg kíválót, akár natív fölöttit. -
válasz
Yutani #46651 üzenetére
A CP2077 ben 1.61 frissités óta jól működik az FSR 2.1, saját AMD címekben sem sikerült úgy beépíteni, sőt némelyikben tragikus ahhoz nézve, de így is elmarad a DLSS -től némileg. Szerintem elfogadható még neked is hogy nem egyforma minőségben dolgoznak a stúdiók és jelenleg a DLSS 3 valóban jobb képességekkel bír, azért jön az FSR3...
Amúgy Mindenben példa értékűen dolgoztak a Diablo- folytatáson.. A késleltetések, a textúrák, a Grafika, a tartalom, átvezetők, hangok... Pár apróság van benne hibaként, ami kezdésnél elfogadható. Bárcsak minden mai játék így készülne el. -
huskydog17
addikt
válasz
Yutani #46603 üzenetére
Így van. Azért az durva, hogy még az Intel technikája is jobb képminőséget ad, mint az FSR 2.1, miközben pont az XeSS jött utoljára a három eljárás közül.
Sajnos nagyon sok játékban shimmeringgel az FSR, érdemes megnézni a DF tesztjeit is, azokban is tökéletesen látszik, hogy a játékok többségében az FSR képminőségben meg sem tudja közelíteni a DLSS-t. Nagyon sok példát lehetne felhozni erre. -
FLATRONW
őstag
válasz
Yutani #46588 üzenetére
Korábban itt meg volt osztva egy videó, amiben az volt, hogy összességében az NV-nél van több hiba (szerintem ez betudható annak, hogy jóval nagyobb a piaci részesedés, így több felhasználónál több hiba jöhet elő), ennek ellenére az AMD-nél több a komolyabb hibák száma. Ez azért ad egy alapot annak a kijelentésnek, hogy kevésbé problémás az NV.
Ahogy nektek AMD-vel, úgy nekem sem volt semmi (kisebb gondok sem) probléma az NV-vel. Azonban ha megnézem az ilyen statisztikákat, akkor inkább NV-nél maradok.
És mint írtam is, jelenleg nem csak emiatt döntenék az NV mellett.
De tényleg vegye mindenki azt, ami neki szimpatikus. Engem sosem zavart, hogy mások AMD-t vesznek különböző okokból. Az viszont igen, hogy a másik oldalról burkoltan, kevésbé burkoltan le vagyok hülyézve, hogy NV-t veszek,egyszerűen azért, mert más szempontok szerint határozom meg egy kártya értékét. -
-
válasz
Yutani #46574 üzenetére
Nagyon beléd ültette ezt a kollega
de szerintem te tisztában vagy vele hogy a csúcs kártyák nem lineárisan skálázódnak ár / értékben...
Amúgy 4 K ban a legjobb perf mutatója az 5700 XT nek van .. szóval akkor érdemes azt venni 4 K ra a 4090 helyett ezek szerint?
Az egyetlen kártya az Nvida portfóliójában ami drágulás nélkül adott 60 % előrelépést. Egyik sem tud ilyet .
A 7900XTX 25 % ot ad. a 6950 hez nézve. Milyen konkurens kártya nyújt ugyan akkora teljesítményt ami jobb vagy akár rosszabb perf / mutatóval bír? -
válasz
Yutani #46403 üzenetére
Kijött az újabb Steam felmérés, amelyben megint nagy változások vannak, ami inkább visszarendeződés:
Nagy oldalak találgatják, hogy mi lehet az oka. Az, amire rámutattam múltkor: valahogy nagy arányú kínai gép került be a felmérésbe, az repítette első helyre az RTX 3060-at és a kínai nyelvet. Most visszaállt a GTX 1650 és az angol nyelv elsősége.
-
huskydog17
addikt
válasz
Yutani #46491 üzenetére
Azok a számok sajnos nem tudják megmutatni se a shader compilation akadásokat, se a traversal akadásokat, se a grafkai hibákat, se a pocsék FSR képminőséget, se a katasztrofális menürendszert, se a kritikán aluli CPU kódot (2 thread) és még sorolhatnánk. Úgy gondolom Alex 10 perc videója tökéletesen reprezentálja mennyire foshalmaz egy PC port lett. Performance részletekbe azért nem ment ő bele, mert annyira sz*r az egész user experience a töménytelen mennyiségű akadással, hogy nincs értelme performance-ról beszélni.
-
huskydog17
addikt
válasz
Yutani #46458 üzenetére
Igen, ráadásul ez a játék ugye az AMD egyik saját reklámterméke (szponzorált). Az nagy valószínűséggel az AMD döntése volt, hogy mind az RT-t, mind a felskálázási eljárásokat kiherélik, de arra szerintem még ők sem számítottak, hogy néhány VGA kategóriában a tempó messze elmarad az elvárttól. Ez így számukra egy újabb öngól, mármint ez nekik nem a legjobb reklám, hiszen itt a pirosak abszolút semmi előnyt nem tudnak felmutatni a konkurenciával szemben, épp ellenkezőleg, jelenleg csak hátrányuk van. Egy Day-1 patch már jelentősen növelte a tempót, csökkentve ezzel a lemaradást, gondolom majd további patch-ekkel helyrehozzák a sebességet, ha már szerződésük van rá..)
-
válasz
Yutani #46458 üzenetére
Több ilyen teszt felmerült már egyébként a 4070 hez nézve is. Ahol kisebb CPU val teszteltek az Ampere kártyákban maradt teljesítmény bent maradt míg az új 7000 ryzenek kitolnak belőlük amúgy + 7-10 % teljesítményt. Ezért van az hogy például a 3080 van ahol 5 % kal lassabb( 7950) meg van ahol 5 % kal gyorsabb( 5800X3D) a tesztekben mint a 4070 .
-
Devid_81
félisten
válasz
Yutani #46423 üzenetére
Sejtettuk, hogy azert elobb utobb hasznos lesz a tobb vram.
NVidia mindig is szerette a bare minimum szintet tartani vram szempontbol.
Mindig annyi volt rajta, hogy eppen eppen kibirta next genig, de onnan tutra megvolt a upgradere valo attereles.RTX 3070/Ti tulajok es a leendo RTX 4060/4060Ti tulajok ennek orulni fognak.
-
Petykemano
veterán
válasz
Yutani #46403 üzenetére
Érdekes...
Az elmúlt hetekben cikkeztek arról, hogy jön a CSGO2, ami tulajdonképpen a CSGO frissítése lesz. Új motort kap. Nem mélyedtem el benne, csak találkoztam vele.
március 22-én cikkezték, hogy már tesztelik. [link]
a steamDB alapán a legtöbbet játszott játékok között szerepel a CSGO és a top10-ben is toronymagasan a legtöbbet játszott és emellett az egyetlen, ami az elmúlt 3 hónapban elég meredeken emelkedett játékos szám tekintetében. [link]
Nem lehet véletlen.
Ugyanakkor az ugrásszerű növekedés márciusban történt, miközben a CSGO játékosok száma már januártól elkezdett emelkedni. Ha csupán arról lenne szó, hogy más platformon játszó játékosok vették felő a CSGO-t, akkor szerintem hasonló graduális emelkedést kellett volna látnunk a HW Survey adataiban is.Azt gondolom, hogy a Steam Hardware Survey nem annyira véletlenszerű, esetleges, mint amilyennek gondoljuk.
Szerintem a Steam Hardware Survey-nek nem az a célja, hogy közérdekű statisztikai adatokat biztosíton a publikum számára amolyan érdekességképpen. Ez csupán mellék ág.
Szerintem az alapvető célja, hogy a játékfejlesztőket szolgálja ki technikai adatokkal. Kvázi mint a piackutató/közvélménykutató cégek felmérései. A játékfejlesztő cégek megbízást adnak a Valve-nek, hogy mérje fel az általuk meghatározott, megcélozni kívánt játékosok hardverét, hogy ők arra tudják optimalizálni a játékukat.
Ha történetesen egy-egy ilyen megrendelt felmérés célcsoportba tartozol, máris feldobódik a survey-ben való részvétel.Még én sem olvastam el sosem, de egészen biztosan benne van, hogy a felmérésben való részvétel jóváhagyásával azt is jóváhagyod, hogy valamilyen third party szervezetnek átadják a gyűjtött adatokat, ami feltehetőleg nem csupán a hardverre, hanem használati szokásokra is kiterjed. Na ez már olyan személyes adat kezelése, amit minden alkalommal jóvá kell hagyatni.
Ha a Steam telepítve van a gépedre, akkor azt, hogy a profilod részeként tárolják a gép hardveres elemeit (amit ugye mi is látunk) az ÁSZF-be bele lehetne foglalni és nem hiszem, hogy bárkit is különösebben zavarná, hogy a Steam ezt tárolja, és adatbázist épít. Ehhez szerintem egyáltalán nem lenne szükség külön részvételi jóváhagyásra minden egyes alkalommal. Semmi értelme nem volna a kis létszámú mintavételre sem, vagy tényleg azt gondoljuk, hogy ha a Steam képes többmilliárd profilt kezelni, akkor problémát jelentene ezekhez a profilokhoz hardver-adatokat is tárolni és abból statisztikát készíteni és ezért kénytelen véletlenszerűen beválogatni felmérésbe néhány tíz vagy százezer profilt? Már önmagában a fent linkelt steamDB-n elérhető adatok, hogy ki mikor mivel játszik bizonyítja, hogy hogy ugyan dehogy.
Úgyhogy valószínűleg az történhetett, hogy CSGO2 megjelenésének küszöbén a Valve végzett egy felmérést a potenciális CSGO2 játékosok között és ezek az adatok jelenhettek meg most a steam HW survey-ben.
-
-
válasz
Yutani #46381 üzenetére
Ez egy gyönyörű cikk.
jól látszik hogy Nvidia hadveresen és kialakításban mennyire rágyúrt az Rt re és hogy az L2 gyorsítótárnak milyen nagy szerepe van a GPU hitrátában.
és az mellet cikk szerint pont az Nvidia hardvere programozható és explicit párhuzamos számításokra jobban alkalmas és jól látszik az is, hogy az RDNA3 is szépen azokra a hibákra reflektált ami a 2 nél jelen volt,de Nvidia egy szinttel előrébb tart RT terén. -
huskydog17
addikt
válasz
Yutani #46234 üzenetére
Pedig szerintem teljesen logikus és nyilvánvaló, nem véletlen írja a CB szerkesztősége is ezt a probléma forrásának.
Minden VGA-t a tesztben PCI-E 4.0-n teszteltek. Minden VGA 16 PCI-E sávval rendelkezik kivéve a 6650-est. Ha a textúrákat visszaveszik, akkor a 6650-en is helyreáll a sebesség. Tipikus VRAM elfogy jelenség.
Ha ebben a játékban max grafikán akarsz játszani, akkor nagyon erősen ajánlott a 16 PCI-E sáv. Nem lenne gond a 6650-nek se, ha az AMD javította volna a memóriatömörítést. Ez már jónéhány generáció óta jobb a zöld oldalon, ez csak egy újabb példa rá.
Az RX 5700XT is pont azért gyorsabb picivel a 6650-nél, mert az 16 PCI-E sávot tud használni.
Mivel az AMD VRAM menedzsmentje kevésbé hatékony, mint a zöldeké, így a piros kártyák jobban rá vanna kényszerítve a PCI-E busz használatára. Egyszerűen ennek a motornak kell a 16 sáv.
Ha az általad említett 128 bit+Infinity Cache kombó lenne a bűnös, akkor nem állna helyre a sebesség a textúraminőség csökkentésével. Csakhogy ez esetben helyreáll a sebesség, mert egyszerűen max textúrákkal kifut a 8 GB-ból. -
Petykemano
veterán
válasz
Yutani #46234 üzenetére
Pedig a jelenség nagyon hasonlatos ahhoz, amit az 5500XT 4GB esetén lehetett látni.
Nem láttam ilyen gyártó és felbontásonkénti bontásban prezentált VRAM igény táblázattal, de élek a feltételezéssel, hogy a 8GB-ba épphogy nem fér bele. PIcit kilóg. A picit kilógást a PCIE még tudja kompenzálni, de mivel a PCIe lassabb a kellettnél, ezért a kompenzációs hatás is enyhe.
Ugyanez történt a 4GB az 5500XT esetén is, csak ott a 4GB volt ez a határ. -
Petykemano
veterán
válasz
Yutani #46223 üzenetére
Vajon
- ez a gémer community-t célozza amolyan extra feature-ökkel, vagy ez a gamer közösségen túlnyúló piacra, általános célra irányul?
- Ha utóbbi, akkor ehhez venned kell egy 100.000-500.000Ft-os videokártyát (vagy notebook esetén hasonló értéknövekedéssel kell kalkulálnod), vagy ez majd nemsokára a CPU-k részét képező IGP vagy más AI accelerator meg fogja oldani?
Vagy zárt rendszer lesz és ilyen feature-ökre rá lehet építeni egy Nvidia eszközbrandet? (lásd: Apple)
- És vajon hogy teszik teljesítményfüggővé? Másként megfogalmazva: milyen előnyök (vagy épp hátrányok) érhetnek ilyen felhasználási célok esetén kisebb vagy nagyobb teljesítményű kártya használata mellett? -
HSM
félisten
válasz
Yutani #46100 üzenetére
A Hardware Unboxed-ék is mást mértek, ott sem vészes a Radeonok teljesítménye.
Az egyik teszt helyszínen a 3080 elég csúnyán padlót is fogott az elfogyó 10GB VRAM-ja okán... [link]
A 8GB-os modellek (3070, 3070Ti, 3060Ti) elég nagy bajban voltak már 1080P-n is. Külön érdekes, hogy a 8GB-os 6650XT jobban bírta a strapát.Az is rendkívül érdekes, hogy a végén mesél arról, hogy a 4000-es RTX-eken magától bekapcsolódott a "Frame Generation" (DLSS3), mégpedig úgy, hogy kiszürkítve maradt a menüben [link] !
-
válasz
Yutani #46080 üzenetére
Lehet borzasztó amit írok, de ha belegondolsz jelenleg a 4090 a legjobb vétel az új generációban. Nem igazán drágult az előző 3090 hez nézve, fogyasztása jócskán csökkent teljesítménye brutálisan nőtt, elég Vram van rajt hogy az elkövetkező 3-4 évben minden játékot kiszolgáljon.
Jelenleg én is azt venném, és tőlünk nyugatabbra is így gondolkodnak. A 4080 vicc ennyiért és a 4070 Ti is a maga 12 GB vram mennyiségével sajnos ezért az árért inkább 1440 P kártya, miközben 16 GB vrammal már alkalmas lenne 4 K -ra is. -
Petykemano
veterán
válasz
Yutani #46080 üzenetére
Számomra rendkívül valószínűtlen ez a dolog, hogy ez az új 4090 máris megelőzi a 2 éve piacon lévő csúcs AMD kártyákat.
Engem nem lep meg.
Válságról válságra szűkülnek az erőforrások. A nyertes 10% (esetleg 20%) egyre nagyobb jövedelem és vagyon fölött diszponál (Természetesen a szupernyertes az 1%), a vesztes 80-90% pedig lesüllyed.Nem arról van szó, hogy egyre többen engedhetik meg maguknak a 4090-et, hanem arról, hogy azok, akik eddig is a legdrágább, legerősebb kártyát vették, egyre magasabb árat is megengedhetnek maguknak.
Mindig is volt és lesz is egy olyan réteg, amelyik pénz nem számít alapon a legjobbat vásárolja. Nem biztos, hogy a következő hónapokban ugyanilyen dinamikusan fog növekedni.
Viszont valószínű, hogy a következő, ami meg fog jelenni, az a 4070Ti.
A ciki majd az lesz, ha kétes ár/érték arányú 4080 a 7900XT és 7900XTX együttes részarányát is meghaladja majd.Vígasztaljon, hogy dinamikusan növekedett az RX 6600 és 6700XT részesedése is az elmúlt hónapokban, amik között lehetett találn jónak számító ajánlatot. Persze ez így is csak tizedére elég, mint amit pl a 3050 és 3060 család hoz.
(Ebből kiindulva természetesen ne legyenek illúzióink arról, hogy az előbb említett ciki helyzet be fog állni)
Persze tudjuk, hogy a Steam survey nem reprezentatív és beszámolók tucatjai szóltak már arról, hogy Nvidia kártyával valamiért 4-5x gyakrabban kérdez be a steam, de ettől függetlenül én azon lepődöm meg, amikor Abu ennek ellenére mondja, hogy az AMD több N5 wafert allokált csak GPU-ra, mint az Nvidia. Vajon hol vannak azok a GPU-k és miért nem jelennek meg a steamben?
(Természetesen nagy változást várni még akkor is irreális, ha abunak igaza van, mert a több wafer allokációból legfeljebb a JPR által mérhető piaci eladási részesedés lehet, míg a Steam HW survey piaci penetrációt mér, ami az elmúlt ~10 eladásainak minusz értékvesztés, forgalomból való kivonás eredőjének pillanatnyi állapotát mutatja.)
@bertapet11: Touché!
-
Petykemano
veterán
válasz
Yutani #46069 üzenetére
Egyébként érdekes, hogy volt így is sales a gaming szegmensben. Részleteket persze nem ismerünk, csak annyit, hogy a csökkenő a GPU eladásokat a megnövekedett konzol chip gyártás kompenzálta.
Egyébként annyira nem meglepő, ha így volt, hiszen a elmúlt 1-2 generáció során közel annyival nőttek az árak, mint amennyivel a teljesítmény is, nem is beszélve az elmúlt 2 év kripto-árairól nem is beszélve így valószínűleg elég sokan ugorhattak rá a GPU vásárlásra, amikor az árak csökkenő trendet vettek fel. Persze tudjuk, hogy nem reprezentatív, de a Steam Survey is arról árulkodik, hogy meglehetősen sok az elhalasztott vásárlás (1050-től 2060-ig bezárólag)
-
Petykemano
veterán
válasz
Yutani #46067 üzenetére
a napokban mintha azt is hallottam volna valahol, hogy ez úgy történik, hogy lapkákat tartják vissza az AiB-októl. Tehát nem a kész kártyákat tartják bedobozolva raktárban, csak a alapkákat. Ez abból a szempontból logikus, hogy sokkal kevesebb helyet foglal és mondjuk a bezúzás (leírás) esetén sem a teljes $100-600-os (előállítási költségű) kártya értéke vész el, csak a $10-100-os lapkáé.
-
Raymond
titán
válasz
Yutani #45989 üzenetére
Kivancsi leszek mi jon meg ki ebbol mert ugy nez ki valami nincs rendben az egesz dologgal ahogy az jelentve volt. Nagy felhajtas volt belole 3 napja de azota semmi kezzelfoghato se a reddit-en se az egyebkent eleg AMD centrikus felhasznalotaborral biro Computerbase-nel se. Nem szaporodnak a user-ek igazan es eredmenyek sincsenek tovabbi tesztekrol. Valaki* itt valamit nagyon benezhetett
* az eredeti video keszitoje
Szerk: a 48 hibas kartya kozul az egyik tulajdonosa irja hogy egy November 2020 az AMD-nel vasarol normalisan hasznalt kartya volt. Este kikapcsolta a gepet es masnap bekapcsolaskor mar nem ment [link]
-
-
HSM
félisten
válasz
Yutani #45934 üzenetére
"Ilyen problémás rajtja talán nem volt egy szériának sem"
Hahaha... Hamar elfelejtetted, mennyire pocsék driveres háttérrel nyitott az RDNA1.Konkrétan eltelt majd vagy egy év, mire használható lett az RX 5700....
#45936 Devid_81: "konkretan az RTX 4090 az egyetlen ertelmes VGA"
Az is jól indult az elfüstölt tápcsatlakozókkal és ezzel [link] .Én komolyan hétről hétre egyre jobban becsülöm a kis Navi21-em, amióta bejött az új generáció...
-
HSM
félisten
válasz
Yutani #45881 üzenetére
Ha egy kicsit kritikusabbak vagyunk, nem nehéz belátni, hogy alapvetően a csiptervezők a hőmérő szenzorokat mindig a hotspotok közelébe tervezték, egyszerűen azért, mert akkor látták el a feladatukat (csip megvédése a leolvadástól).
Persze, értem én a dumát, hogy a mai 'nagyonmodern' GPU-k már tizedpontosan megmondják szenzor nélkül is, mennyire meleg a csip tízezer különböző pontján, de ennek semmi jelentősége abból a szempontból, hogy korábban is lehetett már hotspotokat látni, legfeljebb nem láttad ennyire pontosan, mikor olvad le a GPU a legmelegebb pontján, mert nem biztos, hogy az éppen aktuális hotspoton volt a kevés szenzor egyike.Btw, ugyanez a közfelháborodás volt, amikor bejöttek az X58-as procik, és közelebb került a mérés a hotspotokhoz a korábbi Core2-esekhez képest, és hirtelen mindenki ki volt borulva, hogy 60 helyett 80 fok lett a szokásos műterheléses ideális hőfok-plafon. Nem a GPU-k lettek melegebbek, csak jobban belelátni, és megfelelő technikai dokumentációk nélkül ez sokakat megijeszt.
-
HSM
félisten
válasz
Yutani #45879 üzenetére
Nem így hívták, de éppen ugyanez volt a feladata. Több ponton mérve a GPU, ahogy most is, mert különböző terhelésekre különböző részei terhelődtek jobban. Ha jól emlékszem volt egy szenzor a shader tömbön, egy a videó motoron, és egy a memóriavezérlőn a GPU szélén.
Most a hotspottal annyi a különbség, hogy nem 3 külön-külön monitorozható szenzorod van, hanem csak azt látod, ami a legmagasabb értéket adta a szenzorok közül és elnevezték hotspotnak... -
FLATRONW
őstag
válasz
Yutani #45816 üzenetére
Nekem sem tűnnek hamisnak a számaik.
Egyébként volt egy oldal, amit nagyon szerettek itt megosztani, mert szinte azonnal megjelentek náluk a teszteredmények.
Még léteznek, de szerencsére már senki sem linkeli őket, mert ott nagyon látszott, hogy hamis adatokat tettek közzé.
GameGpu az oldal neve. -
-FreaK-
veterán
válasz
Yutani #45803 üzenetére
Okés köszi. Sajnos pont a TPU tesztjeiben nem bízom túlságosan. Most már meg nem mondom fejből hogy milyen konkrét esetek voltak régen, de régen a CPU (és GPU?) tesztjeik mintha interpolált eredményeket tartalmaztak volna és mintha nem is tették volna közzé a pontos tesztkörnyezetet. Lehet azóta már változott, de én azóta nem bízom bennük. (aztán az is lehet hogy alaptalan volt az egész).
Esetleg a Tom's Hardware féle GPU Hierarchy nem lenne megfelelő erre a célra?
-
Obliterátor
tag
-
Dtomka
veterán
válasz
Yutani #45679 üzenetére
Ezeket a hőmérsékletet stock coolerrel érték el? De gondolom egy minőségibb pl: Noctuaval
ennél alacsonyabbak lennének az értékek. Vagy már mindenképpen vízhűtés kellene ezekre a CPU-kra?
Tervem jövőben a 7700k -t egy 13600k -ra cseréljem, mert jelenleg az a legszimpatikusabb. -
Busterftw
nagyúr
válasz
Yutani #45679 üzenetére
jayztwocents videojaban mondjuk tenyleg az volt, hogy a proci betonstabilan 95 fokon jart, de nem volt throttle, erre rakerdezett az AMD repnel es mondtak neki ez igy lett tervezve.
Szoval oke hogy itt-ott mas jon ki, de teljesen valid az is, hogy 95 foknal megy a cucc. -
Petykemano
veterán
válasz
Yutani #45666 üzenetére
Hát a GPU tekintetében ez érintheti az Apple-t, akik ARm magok mellett Imagination IP-t használnak.
VAlamint a Samsung próbálkozott utoljára RDNA2-vel
Nem is beszélve arról, hogy a Qualcomm a saját adreno IP-jét használja.De nem ismerem a részleteket, az Arm license is több rétegű lehet, nem tudom, hogy csak akkor érintett-e egy design, ha a CPU mag közvetlenül az ARM-tól van, vagy akkor is, ha az ISA-t licenszeli, mint pl az Apple.
Ami még érdekesebb az ez:
"According to the updated Qualcomm counterclaim, after 2024, Arm is no longer going to license their CPUs to semiconductor companies such as Qualcomm under technology license agreements (TLAs). Instead, Arm will only license to the device-makers."
Tehát én értem, hogy egy telefongyártó, pl Samsung, aki a chipjét is saját maga tervezi, ezt megtudja tenni. Meg persze tudjuk, hogy a kínai telefongyártók és chiptervezők között szoros kapcsolat van (pl Huawei - HiSilicon) De azért szerintem inkább a Samsung helyezete a kivétel.És mi lesz például azokkal az esetekkel,. amikor az ARM mag nem tölt be központi szerepet? PL az AMD által használt ARM alapú platform security processor?
Vagy pl a Phison, aki tudtommal nem SSD eszközöket, csak vezérlő chipeket tervez?
Vagy az összes "freelancer" Arm szerver CPU tervező céggel?Én értek félre valamit, vagy ez tényleg ennyire képtelenül hangzik?
Jó, egyébként az igaz, hogy a vezérlő cuccokat valószínűleg relatív egyszerűen meg tudják oldani RISC-V alapon. De ez Arm alapú telefon és szerver chip tervező cégeknek betenne. Jól értem?
-
válasz
Yutani #45666 üzenetére
Ezt az élő szerződései miatt nem tudja- elméletileg- végrehajtani. Ami gond lehet , az a jövőbeni fejlesztéseihez való hozzáférés mert ott már korlátozhat több dolgot és partnert.
Mindkét fél erős vádakat fogalmazott meg és már személyes sérelmek is elhangzanak ami nem annyira jellemző ebben az iparágban.
Amúgy Qualcomm-ot sem kell félteni nekik is van vaj a fülük mögött. Volt már pere jó pár nagy céggel, Nokia Apple,Nvidia Xiaomi stb.. -
Petykemano
veterán
válasz
Yutani #45655 üzenetére
Hát igen, sűrű lesz.
Le kellett cserélni a GPU-t 4090-re.
Bár nem gondolnám, hogy mainstream CPU-t tesztelésére ne lenne létjogosultsága $400-700-os GPU-knak is továbbra is.Most le kell cserélni a CPU-t 13900K-ra.
Bár nem gondolnám, hogy mainstream GPU tesztelésére ne lenne továbbra is létjogosultsága egy $200-400-os CPU-nak (pl az 13600K vagy az 5800X3D)De nemsokára jön az RDNA3
De rögtön jön a kérdés, hogy vajon van a Zen4 és az RDNA3 között olyan együttműködési hajlandóság, amivel jobb eredményt érhető el, mint Intel CPU-val?Aztán valamikor jön a Zen4 X3D is
Persze kérdéses, hogy érdemes-e ebbe reményeket táplálni. Nőtt az L2$, ami csökkentette a nyomást az L3$-n. De vajon fog-e 4500Mhz helyett az is 5500Mhz-en ketyegni? Illetve fejlődött-e a CPU-s v-cache hasonlóképp, ahogy a GPU-k esetén van szó arról, hogy az infinity cache új verziója érkezik? -
válasz
Yutani #45609 üzenetére
ez e egyértelmű hogy nem az ő hibájuk ez kizárólag de a két cégnek együtt kell megoldania problémát mert egymással kompatibilitási és működési gondok vannak. Szval mindkettő cég egyformán nem hibás ha lehet ílyen magyartalanul fogalmazni, mert különállóan jól működnek, együtt kisléptékben jól működnek, de ekkora projektnél már nem klappol a dolog.
-
Petykemano
veterán
válasz
Yutani #45594 üzenetére
A GPGPU-s célokat előtérbe helyező GCN alapokra épülő nagyobb lapkák - Fiji és Vega - esetén valami egészen hasonlót láttunk.
Ezt akkor többféle módon magyaráztuk:
- ezt a lapkát már 4K-hoz tervezték (<=Abu)
- órajel limites.
- compute-nehéz, vagyis a GPGPU-s célok miatt a compute erő túl van lőve a többi grafikus részegységhez képest, ami lapkaterületben és fogyasztásban reflektálódik, de teljesítmény nem jön ki. Erre találta ki az AMD az async compute-ot, amit aztán a GCN-nel együtt el is hagytak és a hasonló jelenséggel küzdő Ampere-rel jött elő újra a fogalom.Itt akkor meg is kérdezném, hogy látsz-e esetleg összefüggést aközött, hogy hol teljesít jól A750/A770 és aközött, hogy mely játék épít jobban az async compute-re? (mivel Ampere-rel van összevetve, ami szintén érintett lehet, ezért lehet, hogy csak az AMD marad el)
-
Petykemano
veterán
válasz
Yutani #45579 üzenetére
ömmmm... miközben nem kérdőjelezném meg azt, hogy ebben esetleg lehet igazság...
ugyanakkor ez egy elég érdekes megvilágításba helyezi azt a szabadversenyes kapitalizmus fogalmat, amire a gazdaságot és a civilizációnkat büszkén építjük.
Talán a videokártyákra is ársapkát kéne bevezetni! -
paprobert
őstag
válasz
Yutani #45559 üzenetére
Köszi, én lusta voltam előszedni a die calculatort.
Ez nagyjából összecseng azzal, amit írtam.Annyit hozzátennék, hogy selejt gyakorlatilag nincs, a wafer ára 2019 óta természetes módon már sokat csökkent, igaz, emelt is visszafele a TSMC. A konkrét árral kapcsolatban mindenki csak találgat, de alacsonyabb, mint volt.
#45557
"akkor az elég brutál árrést jelent a hasonló teljesístménnyel bíró és hasonló áron adott, de feleakkora Navi23 esetén."
Aranybánya volt ez a kör mindkét cégnek ebben az árkategóriában, már MSRP-n is. -
_drk
addikt
válasz
Yutani #45510 üzenetére
RTX 3060-on felül azért jól meg kell fizetni a plusz teljesítményt. Persze ebbe benne van, hogy újabbak is jóval mint mondjuk egy 2070.
De a sok drágábbnak kellene lennie számon azért felnevettem.
Ebből igazából az a tanulság, hogy az olcsóbb, legalsó szegmens mint belépő kategória is ugyan úgy túl van árazva, mint a felső fele.De sose érte meg csak a belépőt befizetni, vagy minden pénzt elverni a buliban.
-
Petykemano
veterán
válasz
Yutani #45506 üzenetére
Érdekes, hogy az ETH network hashrate egy ideje megmaradt abban az utolsó 650TH/s vagy 750TH/s állapotban, mint reggel volt.
Vajon időbe telik, míg végigfut a frissítés a rendszeren? Vagy ez már csak ilyen visszhang, valójában már nem is mérik?
Előbbre enged következtetni, hogy nagyjából azt a 300-400TH/s kapacitást sikerült más hálózatokban megtalálni, ami innen hiányzik. Az, hogy 650-750TH/s még a régi rendszerben működik, 300-400TH/s pedig még az altcoinok jövedelmezőségének lemetszésével van elfoglalva, megmagyarázná, miért nincs még a piacon a használtkártya.
(Megjegyzem, én nagyjából erre a forgatókönyvre számítottam, nem is gondoltam, hogy azonnal feltöltődik a használt piac)
-
Petykemano
veterán
válasz
Yutani #45486 üzenetére
Igen, de egyrészt a valamivel rosszabb MH/s/W mutató és az ebből fakadóan az msrp-hez valamivel közelebbi ár miatt, valamint a Q2-es pénzügyi adatok alapján (Intel és Nvidia árbevétele jelentősen csökkent, míg az AMD-é kissé nőtt) azt feltételeztem, hogy az AMD érintettsége kisebb. Abszolút számok tekintetében ez persze igaz is, de a saját forgalmához viszonyítva az AMD eladásai nagyobbat estek.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- ASUS ROG Strix GeForce RTX 4070 Ti OC 12GB GDDR6X 192bit Videokártya
- Garanciális BIOSTAR GeForce RTX 3060 TI 8GB GDDR6
- ASUS Radeon HD6950 DirectCU II 2GB 256bit GDDR5 EAH6950 DCII/2DI4S/2GD5 Videokártya eladó
- Eladó PNY GeForce RTX 4070 Ti SUPER 16GB OC XLR8
- EVGA RTX 2070 XC GAMING 8GB GDDR6 Videokártya!
- Kingmax 1x2GB DDR3-1333 RAM
- Bomba ár! MacBook PRO 13" Early 2015 - i7 I 16GB I 1TBSSD I 13,3" Retina I OS X Monterey I Cam I Gar
- Telefon felvásárlás!! iPhone 13 Mini/iPhone 13/iPhone 13 Pro/iPhone 13 Pro Max
- 124 - Lenovo Yoga Pro 7 (14IMH9) - Intel Core Ultra 9 185H, RTX 4060 (48 hónap garancia!) (ELKELT)
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest