- Megjött a Chieftec VEGA M szériás tápok legnagyobb teljesítményű kiadása
- 280 Hz-es, remekül felszerelt WOLED monitor jött a Gigabyte gondozásában
- Itt az AI videók TikTokja, az OpenAI új agymenése
- Rekordösszegért kerül szaúdi kézbe az Electronic Arts
- Nem saját tervezésű a Zhaoxin új szerverprocesszora
- OLED monitor topic
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Steampunk hangulatú, nem túl drága, de fémházas klaviatúrát mutatott be a Yunzii
- VR topik (Oculus Rift, stb.)
- Milyen videókártyát?
- Hogy is néznek ki a gépeink?
- HDD probléma (nem adatmentés)
- 3D nyomtatás
- Milyen egeret válasszak?
- Sony MILC fényképezőgépcsalád
Új hozzászólás Aktív témák
-
Mumee
őstag
válasz
FollowTheORI #41698 üzenetére
Benne van.
4K és 4K+RT+DLSS tesztek átlaga alapján cirka 35% a difi 2080ti vs 3080.
3080 vs 3090 meg átlag 10-15% max.2080ti FE vs 3090 FE 46% teljesen korrekt.
(Pedig a 2080ti-ben még van 15-20% OC míg a 3090-ben 2-3%)Ha overall-t nézünk a 3. oldalon (4K,4K+RT+DLSS,1440p,1080p stb...), akkor még rosszabb a helyzet. 35% alatti.
-
Devid_81
félisten
válasz
Malibutomi #41696 üzenetére
De nem ugy volt, hogy valami 10 eve ez a legjobb, meg volt vali 21 ev is meg minden IS.
Most akkor azt akarod mondani, hogy atlettunk b@cva?Miert nem lepodok meg?Pedig megkellene
-
válasz
Petykemano #41697 üzenetére
Ebbe nincsennek benne az új technológiák, tehát oké valami gyorsult vagy nem ennyit vagy annyit, de mennyivel látsz szebb dolgot cserébe?
Pl a 3090 vs 2080Ti-be tuti nincs benne az RT + DLSS, vagy az hogy 4K-ban mennyivel erősebb átlagosan.
-
Petykemano
veterán
válasz
Malibutomi #41696 üzenetére
Gondolkodtam, hogy vajon mi lenne, ha a XX80-as szériával is megcsinálnánk ugyanezt az elemzést.
Nem lenne könnyű, mert a XX80-as kártya hol a sorozat legnagyobb lapkájából volt vágva, utóbbi időben azonban a második legnagyobb lapka (_04) teljes változata volt, azonban az Ampere esetében megint 102.
Mindenesetre az AdoredTV által készített adatsorok kissé lehangoló képet mutatnak. Ha nem ismerném a részleteket, azt gondolnám: az nvidia fermiből indított architektúrája kifulladt.
Persze tudom, hogy csak rossz fénytörésből nézem és egyébként is hol van az AMD.
-
HSM
félisten
válasz
Petykemano #41686 üzenetére
Pedig az izgalmas dolgok 0,95V alatt kezdődnek azokkal a GPU-kkal, amit meg sem néztek. Szerintem brutális, amit tud, nálam 0,85V-on stabil 1100Mhz-en.
[link]
Az egy egészen más dolog (termékpozicionálás), hogy gyárilag nagyon messze a csip perf/watt optimumától lett megállapítva az órajel. -
Petykemano
veterán
-
Abu85
HÁZIGAZDA
válasz
Petykemano #41690 üzenetére
Az 580-on és az 590-en eltérő lapkák vannak. Előbbin Polaris 20, utóbbin Polaris 30. A Polaris 30 nem is 14 nm-es node-on készül. Természetes, hogy két teljesen különböző lapka ebben eltér.
-
Abu85
HÁZIGAZDA
Olyan nincs, hogy 98%-os terhelés. Az maximum azt jelenti, hogy a parancsmotor a 100 ciklusból 98-ban beolvas valamilyen parancsot. De belül azt nem úgy dolgozza ám fel. A GPU-n erősen heterogén processzorok, tehát nagyon sok az üresjárat bennük, és ezeket afterburner nem fogja megmutatni. Érdemes inkább megnézni egy profilozóval, ott azért közel sem az látszik, hogy 98%-os a terhelés. Jó ha 50% megvan.
Minden dizájnnak van egy optimális hatékonysága, ahol arányaiban a legnagyobb teljesítményt adja le a fogyasztáshoz viszonyítva. Ezek gyártói döntések, hogy hogyan állítják be.
Például az AMD ezzel azért nem törődik annyira, mert ma már teljesítménytartományt szállítanak a Radeonokban. Van egy közepesre állított szint, amiből a power limit beállítással elérhető a legnagyobb hatékonyság és a legnagyobb teljesítmény is. A felhasználó egy -50 és +50 százalék közötti csuszkával kiválaszthatja, hogy mit akar. Általában -10-20% között van az optimális hatékonysági szint, de ez termékfüggő, valamelyiknél 12%, valamelyiknél 18%. Ezt azért vezette be az AMD, mert ezernyi igény létezik, és ezt csak teljesítménytartomány felkínálásával fedhetik le. Mindenki beállíthatja azt, amit magának akar.Az NVIDIA ezt még nem vezette be, de az Ampere már tett lépéseket felé, tehát később valószínűleg ők is bevezetik ezt a tartományos modellt, csak ahhoz még szükségük van arra, hogy gyorsabban váltson az órajellépcsők között a dizájn. Valószínűleg a következő körben elérik. Az Ampere annyiban előrelépés, hogy teljesen hardveres lett az órajel- és feszültségmenedzsment, tehát már nincs benne szoftveres tényező.
A gyártástechnológiát könnyű hibáztatni, de az esetek nagy részében nem ott van a gond.
Az undervolt azért nem ajánlott, mert a gyártók a beállításokat nem a programokra nézik, hanem egy szimulációra. Ez a szimuláció bekapcsol minden részegységet a lapkában, tehát egy eléggé worst case mérés. Egy játékban azért működik az undervolt, mert a legtöbb játék közel sem túráztatja a GPU-ban található összes részegységet. Egy adott pillanatban jó ha a teljes lapka 50%-a be van fogva. De ugye jöhet egy olyan feldolgozás, ahol be lesz fogva a 80%-a is, és akkor bizony az undervolt megadja magát, mert ahhoz az a feszültség kellene, amit a gyártók beállítottak, csak a felhasználó nem engedi elérni.
Ez ellen egyébként a Navi már védekezik. Ha túl kevés a feszültség, akkor nem fagy bele a munkába a GPU, hanem indít a rendszer egy fail-safe módot, ami azt jelenti, hogy a GPU az órajelet levágja 500 MHz körülire. Ezért van az, hogy ha valaki undervoltol egy Navit, akkor nő a mikroakadások száma, mert már nem fagy bele az alacsony feszültségbe a rendszer, de harmadolja a teljesítményt arra az időre, amíg a feszültséget alacsonynak tartja. -
-
Abu85
HÁZIGAZDA
válasz
Petykemano #41686 üzenetére
Minden VGA-t alul tudsz feszelni, csak kérdés, hogy az az alulfeszelt eredmény átmegy-e a GPU-ra írt terhelésszimuláción. Nem véletlen van az a feszültség oda állítva, ahova. Ha egy GPU-t nagyjából 40-50%-osan terhelő játék lenne a mérce, akkor persze lehetnek alacsonyabb feszültséget alkalmazni, csak bajban lenne a termék, ha szembejön mondjuk a Strange Brigade, ami azért 60-70%-osan is leterheli a GPU-kat.
-
Petykemano
veterán
-
Abu85
HÁZIGAZDA
válasz
Petykemano #41684 üzenetére
Mert 16 nm-en jött be FinFET, és elsőre marhára jól kezelhető volt. A gondok 10 nm-en kezdődtek vele. Majd a GAAFET is kezelhető lesz 3/2 nm-et. Aztán 1 nm-en már lehetnek vele problémák.
Az AMD is nagyon jól eltalálta a 14 nm-t. Ha nem találták volna el jól, akkor a Vega 20 jobban elhúzott volna már elsőre.
Ebben érzem, hogy mindenki a bérgyártót akarja belelátni, de nem sok közük van ehhez. Tapasztalat, tapasztalat, tapasztalat. Ez a három dolog kell a modern node-okhoz.
-
Petykemano
veterán
Igen én értem.
Csak gyanús, hogy az Nvidiának a 16nm TSMC-vel és a 12nm TSMC-vel is sikerült remekül eltalálnia a gyártástechnológia csínját-bínját, úgy, hogy az eredmény szuper skálázódás lett.
Ehhez képest az AMD-nek csúnyán nem sikerült a Samsungtól licencelt és GF által megvalósított gyártástechnológiát ügyesen kézbe venni és az eredmény egy - a TSMC-Nvidia pároshoz képest - relatív hamar felfelé ívelő görbe lett. Kétségtelen, hogy ezen a 12nm-es frissítés már sokat javított, de arra már nem épült gpu.Aztán amikor az AMD átment a TSMC-hez, az Nvidia meg a Samsunghoz, furcsamód megfordult. Jó, az AMD-nek is beletelt 3 évbe, mire a vega20-tól igazán jól skálázódó eredményig eljutott (persze várjuk ki a végét!) és lehet, hogy ha az nvidia is eltöltene 3 évet a 8nm-en évente frissülő termékekkel, akkor ugyanez összejönne.
De akkor az nvidia sikere a TSMC 16/12nm-es node-ján csak véletlen, vagy vakszerencse lett volna?
-
-
Abu85
HÁZIGAZDA
válasz
Petykemano #41681 üzenetére
Ha megnézed az A100-at, ami a TSMC-nél készül, az se hatékonyabb ám. Sőt, FP32 számítási kapacitásban alatta van a GA102-nek, miközben fogyasztásban felette. A probléma nem igazán a gyártástechnológia, hanem az, hogy az NV akkor a 12 nm-t ismerte, mert a 16 nm half-node-ja volt, míg most a 7 és 8 nm-t nem ismerik, nem is vihették át a dizájnkönyvtáraikat rá, most van velük először dolguk. Ez nem igazán a bérgyártó mondjuk úgy felelőssége, a FinFET tényleg nehezen kezelhető alacsony csíkszélességen, és ki kell azt tapasztalni.
Ugyanezt rá lehetne húzni a Vega 20-ra is, ami 7 nm-en jött. Annál is hasonló lett volna a grafikon a Vega 10-hez viszonyítva. Aztán látod, hogy hova jutottak a Renoirral.
-
Petykemano
veterán
-
válasz
Petykemano #41678 üzenetére
Zseniális!
-
válasz
Petykemano #41678 üzenetére
Jól tolod
-
válasz
Petykemano #41676 üzenetére
hát akkor lassan gyertek át az Nvidia találgatósba mi meg átballagunk az AMD -s be .
Én akkor kezdeném.
Nincs semmi baj a driverekkel, user error.
-
Petykemano
veterán
-
Egy cikk a Techspottól a több GPU-s kártyák tündökléséről és bukásáról.
-
válasz
gainwardgs #41664 üzenetére
Csak a te fejedben, de ne hírdesd!
-
Abu85
HÁZIGAZDA
válasz
Petykemano #41669 üzenetére
Persze. A mostani helyzetnek már lőttek. Mire megoldják rég a második 5 nm-es lapkáját hozza az AMD, és akkor ugyanott lesznek, mint ma. Ezt a problémát át kell ugraniuk. Nem is azt mondom, hogy a TSMC-nél, mert náluk azért nagy a licit az 5 nm-re. Mehetnek a Samsunghoz is. Csak legyenek ott a kezdésnél, mert akkor a második körben nem kerülnek hátrányba.
Jövőre az AMD csak szerverbe hozza a Zen 4-et. Amikor ebből lesz desktop, akkor bőven lesz új verzió, ha kell. Bele van tehát már tervezve, hogy a Zen 4-nek esetleg problémái lesznek 5 nm-en. Ha nem, akkor az még jobb, nem kell az új revízió.
-
Petykemano
veterán
"Eleve az NV-nek már rég váltania kellett volna. Szóval a 7-8 nm már a késői váltással elúszott. Innen már előre kellene tekinteni az 5 nm-re."
Tehát azt mondod, az nvidiának előnyösebb lenne, ha mihamarabb 5nm-es lapkával jönnének és azon lennének 2-3 évet. (itt ugye az se mindegy, melyik gyártó, mert a TSMC-nél a 7nm és a 5nm nem direkt leszármazottak, viszont a SS-nál az 6-5-4nm a 7nm továbbfejlesztései, ha igaz)
Azért tűnik kutyaszorítónak, mert 2 éves fejlesztési ciklussal szokott dolgozni, tehát a Turing alapján benne van még egy fél kör Ampere 8nm-en már nagyobb tapasztalattal. Viszont ha nem jövőre, hanem 2 év múlva jönnek 5nm-es termékkel, az is kicsit későinek tűnik ahhoz, hogy 3 évet kényelmesen el lehesen tölteni a node-on.Ugyanez persze igaz az AMD-re is: jövőre már 5nm-es terméknek kell jönnie, hogy 2023-ra megérkezzenek az igazán jó termékek az igazán jól kiismert node-on gyártva.
"Az AMD eleve a szerverrel megy először 5 nm-re. Kis Zen 4 chiplet, amit majd rádobnak az EPYC-ekre."
Ezt egy kicsit pontosíthatanád? Ez az eddigi gyakorlattól, amely szerint a szerver és a dekstop lapkák azonos gyártósorrol lekerülve kerülnek válogatásra - eltér? -
Abu85
HÁZIGAZDA
válasz
Petykemano #41667 üzenetére
Eleve az NV-nek már rég váltania kellett volna. Szóval a 7-8 nm már a késői váltással elúszott. Innen már előre kellene tekinteni az 5 nm-re.
Az AMD eleve a szerverrel megy először 5 nm-re. Kis Zen 4 chiplet, amit majd rádobnak az EPYC-ekre. Ebből baj nem lehet. A probléma a későbbi lapkáknál jöhet elő, de akkorra lesz tapasztalat.
Amíg a Windows nem bizonyítja, hogy képes jól kezelni az eltérő teljesítményű magokat, addig az AMD biztosan távol marad ettől. Az Intel azért megy erre, mert nincs más választása, de a Zen magok nem csak gyorsak, hanem keveset is fogyasztanak, ezért tudnak 64 magot belerakni akkora fogyasztásba, ahova az Intel csak feleennyit. -
Petykemano
veterán
"Hozni kell jövőre egy másikat 8 nm-re, és az jobb lesz, majd egy harmadikat, és az már igen jó lesz, közel az elméleti maximumokhoz."
Igen, ezt már többször mondtad. Nem is szándékoztam ezt kétségbe vonni.Ez akkor azt jelenti, hogy a jövőben - legalábbis amíg a finfet velünk marad - választani kell, hogy az eddig használt node-on marad egy cég, egyre jobban kiismerve azt év éves szinten 10% frekvenciát hozva és/vagy 10-30%-kal csökkentve a fogyasztást legalábbis a magasabb frekvenciatartományokban.
VAGY
egy újabb node-ra megy, ami alapból csökkenti a standardnak tekinthető 3Ghz alatti fogyasztást, és sűrűségelőnnyel is jár, azonban a magas frekvenciára való skálázás (magas frekvencia elérése kezelhető fogyasztás mellett) kutatását kezdheted elölről.És minél később váltasz - vagy legalább kezdesz el kutatni -, annál nagyobb lesz a zuhanás, ha váltasz.
Végülis pont ezt látjuk az intelnél is.
Ez azt jelenti, hogy az nvidiának és az AMD-nek jól meg kell gondolnia, hogy mivel mikor megy egy következő nodera. Nem biztos, hogy az nvidiának az lesz előnyös, hogy a SS 7nm-ére vált amikor csak teheti. A fogyasztáson lehet, hogy segít, de a magasabb frekvencia nem garantált. Nagyjából ezt láttuk a vega20 esetén is.
És ugyanígy az AMD-nek is megfontolandó, hogy mikor mivel lép 5nm-re, mert elsőre lehet, hogy bukja a magas frekvenciákat, amit már elért a 7nm-en.Hát ezzel így elég valószínűvé válik az, hogy az első termék 5nm-en az Arcturus lesz, aminek nincs konzumer lába, ahol izgulni kéne az elbukott Fmax miatt.
Ugyanakkor azt nehezen tudnám elképzelni, hogy az AMD emiatt szétválasztaná a zen3 vagy akárhány chipletek gyártását úgy, hogy a fejlettebb node-on (5nm) gyártja azokat a lapkákat, amelyeknél a standard frekvencián elérhető alacsony fogyasztás a fő szempont és a kiismertebb node-on (7nm) azokat, amelyeknél a magas frekvencia.
Nem állítom, hogy az elképzelés ne lehetne hasznos akkor, ha valaki kvázi big.LITTLE-öset szeretne játszani úgy, hogy a "kis" és "nagy" magokat csak az különbözteti meg, hogy melyik milyen frekvenciát tud elérni. Kétségtelenül nagy dobás lenne egy 24 magos mainstream Ryzen, amin az IO lapkához 1 7nm-es lapka csatlakozik, ami képes 5Ghz-re és 2 amúgy architekturálisan teljesen megegyező 5nm-es lapka, ami a standard 3Ghz-es órajel környékén felét fogyasztja, de mondjuk 4Ghz fölé egyelőre nem is tudna menni. Ez Threadrippernél és Epycnél meg különösen hasznos lenne.
Most csak hangosan gondolkodtam, de kiváncsi vagyok a véleményedre, hogy várható-e ilyen node kombinációs trükközés? Vagy külön termékekkel fog folyni a kísérletezés, és aztán valamikor megtörténik a váltás, ami esetleg járhat frekvencia-visszaeséssel?
-
-STALKER-
lelkes újonc
Crysis Remasteres Performance Analysis - - - > [link]
(Frissíthetnék végre a VGA felhozatalukat)
-
Abu85
HÁZIGAZDA
válasz
Petykemano #41658 üzenetére
Többször írtam már, hogy a FinFET közeledik a végéhez. Mi volt az AMD-nek az első 7 nm-es lapkája? A Vega 20. Nem volt valami jó a fogyasztásban, de utána mindegyik javult, és most a Renoir már igen nagy órajelen is keveset fogyaszt. A kettő közötti különbség a tapasztalat.
Az NV-re is ugyanazok a fizikai törvények vonatkoznak, így elsőre nekik sem sikerült jól a FinFET egy modern node-on. Ez van. Hozni kell jövőre egy másikat 8 nm-re, és az jobb lesz, majd egy harmadikat, és az már igen jó lesz, közel az elméleti maximumokhoz.Amíg a GAAFET nincs itt, addig elsőre nagy mázli kell, hogy összejöjjön egy lapka egy új node-on. Ez nem igazán a Samsung és a TSMC hibája, hanem az adott node-ra vonatkozó tapasztalat hiánya.
-
gainwardgs
veterán
Kezdődik
" Poor Ampere" -
Abu85
HÁZIGAZDA
válasz
Malibutomi #41657 üzenetére
Azért az RDNA1/2-t nem hívnám lightweightnek. Nézzetek meg egy multiprocesszort. 128 kB-os az LDS, négy darab, egyenként 128 kB-os regiszterterület, két 16 kB-os L0, és megosztottan 16 kB-os skalár és 32 kB-is utasítás gyorsítótár, illetve 128 kB L1.
Ha ez a lightweight nem tudom mi a szénné gyúrt.
Az Ampere esetében egy multiprocesszor az 128 kB L1, amiből 48 kB az LDS grafikai számításnál, tehát külön LDS nincs is, 32 kB az utasítás gyorsítótár, és van még négy darab, egyenként 64 kB-os a regiszterterület. Ez sokkal inkább lightweight azokhoz az izmokhoz képet, amit az AMD rak az RDNA-ba.
-
smkb
őstag
válasz
Malibutomi #41657 üzenetére
Nem cseréltek fel semmit. A GCN a kanyarban sem volt mikor az NV bevállalta a Fermit... úgyhogy a GCN volt az, amivel az AMD megpróbálta lekövetni, az NV-nek azt a lépését amit a GF100- al tett a szuperszámítógépes piacon.
-
Petykemano
veterán
válasz
Laja333 #41660 üzenetére
mármint úgy érted, hogy az nvidia gombócai ott nagyok, amelyik árban az AMD-nek nincs (versenyképes) terméke?
Nekem tökre így tűnik, hogy az RX 570/580 lenyomja az árban megegyező nvidia termékeket.
Az 1660S árában nincs jó termék.
Aztán ugyanez történik az 5700/XT és a 2060S/2070 valamint a 2070S esetében.
Ha lenne 2070S árban olyan terméke az AMD-nek, ami értelemszerűen a 2070S-nél gyorsabb és esetleg picit olcsóbb, akkor azzal nagyot harapna a 2070S piacából.(TEgyük hozzá persze, hogy ez csak a DIY piac, tehát az ábra szép, de valószínűleg nem itt dőlnek el a tényleges számok.)
-
Ragnar_
addikt
válasz
Petykemano #41658 üzenetére
"Ezért tolja ezúttal a 4K szekeret az nvidia, miközben kevés a 4k user."
Meg lehet, hogy azért is, mert van olyan engine, ahol 1080p-ben a 3080 CPU limites egy húzott 10700k-val is.. (Alig megy jobban, mint 1440p-ben)
-
Petykemano
veterán
válasz
Malibutomi #41657 üzenetére
Teljesen Így tűnik.
Nem lepődnék meg, hogy ha a továbbiakban az nvidia lenne az async compute zászlóvivője. Biztos lesznek majd benchmarkok is, amik a nyers számítási kapacitást mérik async compute használatávak hiszen hát nyilvánvalóan a raytracingre elképesztően számítási igényes és Így lehet az élményt mérni.Adoredtv a Samsung node képességeivel magyarázza, vagy inkább mondjuk úgy, hogy nem TSMC-é.
A Maxwell és a pascal azzal nyert nagyot, hogy másfélszer magasabb frekvencián pörgött az egész gpu. Azzal biztosan sok késleltetést lehet nyerni. Kivéve persze ha sok a shader számítás, mint magas felbontás esetén. Ezért tolja ezúttal a 4K szekeret az nvidia, miközben kevés a 4k user.
A SS8N nem ér el kellően magas frekvenciát, ezért az nvidiának nem volt más választása. Ez ugyanaz, mint amit az AMD a fijivel és a vegával próbált.
Én arra számítok, hogy 1080p és 1440p felbontásokban meggyőző előnye lesz az AMDnek a 3080-nál szemben egy alacsonyabb fogyasztás mellett. Maxwell.
Most csak Fejből. Ha jól emlékszem, a 2080ti 50%-kal volt gyorsabb az 5700XT-nél. Ezt már egy 60CU-s változattal is hozhatja. Nyilván a több CU.magasabb felbontáson tudná éreztetni jobban hatását. És erre még rászámolhatsz +10-15% frekvenciát.
-
Malibutomi
nagyúr
Na kivancsi vagyok masok velemenyere is, szoval birom ide amirol szo volt az AMD talalgatosban.
Olyan mintha a ket ceg most teljesen felcserelte volna a megkozelitesuket a kartyak fejleszteseben.
Az Ampere kb az NV GCN-je,,sok es reszben kihasznalatlan szamitasi teljesitmeny, a fogyasztas karara maxra kitolt teljesitmeny gyarilag, szinte semmi OC potencial.
Mig ha igaz a Navi kb az AMD Maxwell-je lesz, mert ok meg pont kiveszik a gamer kartyakbol a felesleges dolgokat es egy elegge lightweight arhitekturaval jonnek - persze a teljesimenyrol, fogyasztasrol semmit nem tudni meg, de eddig igy nez ki. Persze AMD-rol beszelunk szoval meg siman lehetnek negy buktak maguk a kartyak.
-
-
Laja333
őstag
válasz
Petykemano #41654 üzenetére
Nem, ez úgy néz ki, hogy a Cola oldalára rá van nyomtatva az ajánlott fogyasztói ár, amit vagy betart az üzlet, vagy nem.
-
Petykemano
veterán
-
válasz
Petykemano #41651 üzenetére
igen jelenleg az Fe a legolcsóbb.de gyakorlatilag ez egy kamu MSRP, mert nem lehet venni elég FE-t állítólag, erről szől a fentebb említett kommentben lévő cik. Aztán mi az igazság majd kiderül.
-
#25237004
törölt tag
válasz
Petykemano #41651 üzenetére
Ajánlom a 41639-es kommentet ebben a topicban.
-
Petykemano
veterán
Na várj
Azt akarod mondani, hogy ahelyett, hogy a legjobb minőségű, legjobb eredményeket hozó lapkákat az Nvidia saját kézből adva prémiumot tenne zsebre,
ezúttal a legjobb minőségű lapkákból egy kiváló minőségű hűtővel rendelkező kártyát árul úgy, hogy a ténylegesen boltban kapható termékek ennél vagy rosszabbak, vagy drágábbak lesznek? -
válasz
Petykemano #41649 üzenetére
Most a legolcsóbb lett a legjobb hűtéssel talán nincs 100 $ felár.,de nincs elég készlet belőle. Az AIB kártyák meg nem MSRP áron mennek. Azaz a meghírdetett MSRP ár így, hogy nincs FE elég ,egy marketing érték, a valós árak 720-750 € tól indulnak de a jobb modellek 800 +.
-
Laja333
őstag
Kitguru review alatt panaszkodik valaki, hogy annyiért vált meg a 2080ti-től, amennyibe a 3080 kerül és hogy elégedetlen...
De ha belegondolsz ez azt jelenti, +30% teljesítményt kapsz abból a pénzből., szóval nem látom a problémát.Azt most ne keverjük ide, hogy anno dupla annyit adott ki érte.
-
-
GodGamer5
addikt
A DF már letesztelte a 3080-at, nagyon b@szó lett a kártya!
[link]
-
-
Petykemano
veterán
"Nvidia sees an opportunity to sell its AI chips and graphics chips to Arm’s customers, too. “If we could leverage their business model, if we could stand on the network they’ve created and take the technology we’ve invented and put it into that channel and make it available to their thousands of partners, the economics for us would be incredible,” Huang said. "
-
válasz
Petykemano #41638 üzenetére
attól hogy ők megtehetik, megteheti ezt Intel is ha csak Licenszelnek.
De így ARM alapon nem lesz minden nyitott,a szerver és HPC vonal és Nvidia saját fejlesztései i az így kialakított speciális magok és architektúrák vagy akár alaplapok nem lesznek nyitottak. Az hogy lesznek bizonyos dizájnok, amik licenszelhetők az nem jelenti azt hogy mindent ki kell adnia Nvidiának és az így összeálítot gyorsítók biztos nem lesznek nyíitottak se az összeköttetés amit ahhoz fognak használni.
Ez még minimum 3 év szerintem, de inkább több amúgy a véleményem szerint. -
Kíváncsi leszek, bejön-e ez a forgatókönyv.
-
Petykemano
veterán
"Egy komplett ökoszisztémát kialakítani"
De ezt megtehették volna akár magok, akár az ISA licelcelésével. Az apple és ígéretben a nuvia is olyat csinál, ami meghaladja az x86 lehetőségeit, de arm alapon bárki utánuk csinálhatná, de nem az arm csinálta ezért nem áll mindenkinek rendelkezésére.
Mindezt úgy, hogy nem kellett hozzá megvenni az armot.Ha az arm az ISA vagy más miatt tényleg jobb, mint az x86 és nyitott marad, akkor bárki más utánacsinálhatja arm alapon. Tehát máris nem annyira zárt. Gyorsítót meg adhat akár az amd akár az Intel CCIX vagy CXL alapon. Kivéve persze ha itt is zárás történik, de akkor azzal minden más gyorsító is kizáródik, (PEZY)
De szerintem ehhez nem kéne megvenni az armot.Tehát a célt értem, amit mondasz és egyet is értékek vele, azt az okot keresem ami miatt muszáj volt a felvásárlás, nem volt elég az ISA.
Pl ha az ISA felett akar kontrolt gyakorolni, mondjuk valahogy integrálni az arm ISAba a CUDA-t? Vagy kikúrni a CCIX-et és az NVLInket szabvánnyá tenni. És akkor ha arm szerverprocit gyártasz, akkor ahhoz vagy nvidia gput veszel,.vagy licenceled az nvlinket (pl FPGA gyártók)
-
válasz
Petykemano #41633 üzenetére
tegnap a másik cikk alatt már leírtam de ide is beteszem beidézem, hogy szerintem nvidiát a cloud gaming és maga a Mobil piaci bevétel másod-harmad sorban érdekli csak :
"
Hogy őszinte legyek és lehet hogy ez most oltári nagy szamárságnak tűnik, de én azt gondolom Nvidának az ARM mint olyan és a nyílt licenszeik a mobil szegmens stb egy pozitív hozadéka a valódi terveiknek ,mellékvágány csak. nem érdekli annyira , mint sokan gondljuk szerintem. ( persze igen, csak nem elsődlegesen)
A valódi céljuk szerintem egyébként az, amit írsz, csak nem egészen úgy .
Ez is csak egy vélemény ahogy én gondolom:
Egy komplett ökoszisztémát kialakítani szerver és exascale vonalon kizárolagos( és így ahogy írod a másik két versenytárs elött zárt ) rendszerben.
AMD és Intel az X86-64 vonalon építkezik és hülye lenne késöbb beengedni Nv-t pusziért és Nv is hülye lenne tőlük függni, hogy bejuthasson egy egy zsíros exascale/ A.I. projektbe.
Magyarul lesz egy külön rendszere ,amiben olyat tud kínálni, amibe a másik két fél nem tud bejutni, az ARM alapú szerverekbe és porjektekbe amihez Nv kialakít egy rendszert és ez fordítva is igaz , onnentól felejtős lesz az, hogy X86 rendszerekbe ő bejuthasson az AMD / Intel mellé. Ez a mostani nyílt , szabadon licenszelhető rendszerben nem lenne megvalósítható.
Intel mellé még addig igen, míg Intel nem dobja piacra a saját gyorsítóit.
Mit eredményez ez?
Azt hogy egyik cég sem lazíthat mostantól. Nvidának úgy kell fejlesztenie mind a CPU és mind a GPU vonalát hogy az előnyősebb / gyorsabb legyen az AMD és Intel X86 konfigurációinál.
Intel nagyon gyorsan kénytelen lesz olyan GPu-t / gyorsítót fejlszteni ami ütőépes lehet AMD és Nvidia termékeivel, ha nem, akkor gyakorlatilag végük, mert Nvidia nem fog adni nekik gyorsítót a CPU-k mellé és AMD sem.
Magyarul a nagy összeborulás az AMD vel és így az Nvidia kizárása hamarosan visszájára sül el Intelnek, ha nem lép SOS mind GPu, mind CPu fronton, mert a versenytársak elötte járnak már GPU vonalon évekkel és CPu fronton is AMD, de ARM sincs elmaradva.
AMD x86 vonalon kénytelen Intelt szemelött tartani, tehát így az helyett hogy 3 szereplős lenne az x86 piac 2+1 szereplős és elkülönült lesz egy vonal. Szerintem ez egy nagyon okos húzás Nvidiától, mert elszakad a két licensztulajdonsotól, mert bármit lép azt x86 részen kell ellensúlyozni a másik két gyártónak, és ez fordítva is igaz,de neki nincs konkurenciája a saját architektúráján egyelőre és nem fogja beengedni se AMD-t se Intelt bizonyos fejlesztésekbe, vagy biztosít nekik licenszet és cserébe kér X86-64 et.( ezt amúgy kétlem)
Szóval egyszerre kockázatos és szeniális dolog ez, de egy olyan piacot céloznak meg vele(a szerver piac 90 % része még mindíg Intel) ami lassan el kezd felosztódni,2-3 éven belül Intel elveszti a dominanciáját és ez egy akkora pénz, ami onnan lehullik, amekkora simán ellensúlyozza ezt a rizikot, ha bejön.
Ez mellett az ARM mobil fejlesztései lehetnek nyitottak és fent vázolt forgatókönyvet pár bizonyos rendszerre ami saját fejlesztés lesz ,fogja Nv bevezetni azt gondolom."Továbbra is azt gondlom, hogy egy taktikai húzás volt, hogy komplett renszert kínáljanak, ne kelljen függniük a másik két cég x86-64 licenszétől és közben tőlük elzárt rendszert építsen ki, amiben a másik két cég nem tud belenxyúlni és résztvenni benne. Ezt ha nyít forráskódon probálja meg nem tudná végrehajtani.
Intel került így a legnagyobb szarba amúgy, mert most kell az a Xe gyorsító, jobban mint bármikor... -
nubreed
veterán
Baj van a PS5 -be szánt AMD chippek gyártásával? Épp most olvastam, hogy nem fog tudni annyit leszállítani a Sony mint amennyit szeretne, kb csak a felét, az AMD miatt.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #41633 üzenetére
Ha a cloud gaming számítana, akkor az NV ennyi pénzt olyan világszintű hálózati infrastruktúra fejlesztésébe ölt volna, mint amilyen van a Google-nek és a Microsoftnak. És itt nem a szerver telepítése a lényeg, hanem az, hogy rakjál mögé egy szolgáltatást. Például a Google keresőt, mert attól, hogy kiépíted a szervert, még nem fog állandóan működni. A Google azért van előnyben, mert nekik ott a szervereket igénylő keresője, és a szabad kapacitásukat elhasználják cloud gamingre.
Na most egy szolgáltató nem fog csak azért szervereket kiépíteni, hogy legyenek, mert akkor nem működnek. Muszáj valami szolgáltatás rájuk, mert a cloud gaming időszakos, tehát amíg nem játszanak elég sokan a peremhálózaton, addig a szerver minden percben egyre több veszteséget termek. És itt mindegy, hogy ARM procit adnak-e ingyen, akkor sem fogják megépíteni, ha azt a tetemes veszteséget le kell nyelniük.
A TSMC nem veri fel az árakat. Van kapacitás, kiírják licitre, és aki többet fizet, az viszi. Ez sosem fog változni, mert a TSMC-nek elemi érdeke, hogy a gyárai teljes kapacitással működjenek.
-
Petykemano
veterán
Két elméletem is van, hogy az Nvidia miért vehette meg az Arm-t. A kettő nem mond ellent egymásnak.
1)
Túl a zsíros szerver bizniszen, amit mindenki tud, de azt is tudja mindenki, hogy azért azt le lehetett volna fedni licenceléssel is, Az nvidiát valójában nem a hardvergyártás motiválja.
Sokan várnak ezzel váltást például a MS és Sony valamelyike részéről Arm+Nvidia összetételű konzolra. Bár nem állítom, hogy ez nem történhet meg, de az nvidiának szerintem nem ilyesmi a célja.Az nvidiának van a Geforce Now nevű cloud gaming szolgáltatása. Azt biztos minden cég látja, hogy hatalmas üzlet van a micropaymentekben, illetve a szolgáltatási előfizetésben. (A cloud mellett szól az, hogy az előfizető olcsóbban megússza, mintha egyszerre kéne egy nagy hardverbe beruháznia és a hardver gyártójának/üzemeltetőjének is olcsóbb, mert jobb a kihasználtság)
A Sony és a MS is tart efelé, a Googlenek ott a Stadia és lehet, hogy van/lesz még egy két játékos.Az világos, hogy a cloud gaming egyik rákfenéje a késleltetés. Már régóta spekulálok arra hogy a cloud gaming nagy találmánya majd az lesz, hogy az igazán jó élményhez szükség lesz egy nem túl erős kliensoldali eszközre. (egy konzolra, mint amilyen az nvidia shield)
Nem azért, hogy azon fusson a játék, hanem azért, hogy a végponti műveleteket azon lehessen elvégezni:
- A szerver alacsony felbontásban, tehát gyorsan, alacsony késleltetéssel generálja a képkockákat, amik mivel kisméretűek, ezért gyorsan, alacsony késleltetéssel jutnak el a végponthoz.
- A végponton viszont szükség van egy olyan (DLSS-képes) eszközre, ami elvégzi a képminőség feljavítását, felskálázást, stb-tEz biztosan
- lényegesen jobb késleltetést
- jobb minőséget (4K, vagy RTX) ,
- az alacsony felbontáson való képgenerálás miatt alacsonyabb működtetési költséget
- alacsonyabb és olcsóbb internetkapcsolatot igényő szolgáltatást
eredményezne minden más olyan versenytárshoz képest, akik hagyományos módon eredeti méretben és minőségben közvetítik a képeket.Ilyen kliensoldali készülék persze lehet egy konzol, egy tévé vagy akár egy telefon is.
Az Nvidiának egyrészt azért kell az Arm, hogy ezt a funkciót, ami az ő szolgáltatásához kötődik ne csak egy általa gyártott készükkel lehessen megkapni, hanem ingyen odaadja minden Arm készülékbe. Így az arm készülékeken a GFN cloud gaming szolgáltatás minden másnál lényegesen jobb lehet.Amije nincs az Nvidiának és fontos a késleltetéshez, az a peremszerver. (vö Google, MS)
Az Nvidia már most is partneri viszonyban van számos kábel/internet szolgáltatóval.
A másik ok, ami miatt az Arm kellhet az Nvidiának az pedig az, hogy kvázi ingyen adjon ARm szervereket Geforce kártyákkal kábel/internet/szerverhosting/cloud szolgáltatóknak, akik a szerverek elhelyezését végzik és ennek költségeit viselik, cserébe rendelkezésükre bocsátja a GFN által nem használt erőforrásokat. Így az nvidia is peremszerverekhez jut, miközben építi az arm szerverek iránti igényt.2) A TSMC kezd eléggé monopol helyzetbe kerülni. Előbb utóbb elkezdheti felverni az árakat, ha nagyon elhúz a Samsung mellett, aki gyakorlatilag az egyetlen bérgyártó, aki versenyképesnek mondható technológiával talpon maradt.
Ha a TSMC monopol helyzetbe kerül, akkor levarrhatja a teljes félvezető iparágról a profitot.Az Nvidia most a Samsung gyártósoraira "kényszerült". Világos persze, hogy ez nem olyan kényszer, hogy kiszorult, hanem osztott-szorzott és úgy gondolta, így jobban megéri, vagy fogalmazhatunk úgy is, hogy nem akarta megfizetni azt az árat, amit a TSMC mondott.
Pletykák még szóltak is arról, hogy az Nvidia a Samsunggal való kacérkodással próbálja árcsökkentésre bírni a tSMC-t, aki viszont a végén azt mondta, köszi szépen, nélkületek is tele a gyártósor.
A tendencia arra vonatkozólag, hogy lassan mindenki lemarad a TSMC mögött világosan látható.
Az Arm jellemzően egy új proci bemutatásakor a TSMC-n tesztgyártott, vagy legalábbis oda tervezett lapkával demózza az előrelépést.A kérdés az: vajon megér-e az Nvidiának $12b dollárt és "néhány" saját részrvényt, hogy átterelje az ARM licencelőket (ugye nyilván nem feltétlenül kell itt a top cégekre gondolni, mint az Apple) a Samsunghoz és ezzel többek között letörje a TSMC árait?
-
Ragnar_
addikt
(Szerk. látom másnak is eszébe jutott valami hasonló)
Én mindenképp megvárom a vásárlással a Big Navi részleteket, max utána beruházok egy 3070-re, ha nem úgy sikerült, ahogy tippelték, bár szerintem nem biztos, hogy véletlen, hogy ekkorát ugrott a 3000-es Nvidia sorozat, ha pl. a teszben a kissebbik BigNavi a 3070 szintjén van, lehet, hogy ők már tudtak valamit, hogy kell az a +60%, ha meg akarják fogni a BN-t a teljesítményszegmensekben.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #41630 üzenetére
Konzolról tudnak számolni, tehát nyilván van egy elképzelésük arról, hogy mit tudhat az AMD generációja.
Viszont a fogyasztás valószínűleg független ettől. Ott elvileg azzal van probléma, hogy maga a dizájnkönyvtár, amit az NV használ egy high density lib. Ezeknek a tipikus előnye, hogy egységnyi helyre több tranyót engednek építeni, de ennek az ára, hogy rossz lesz a fogyasztási karakterisztika. Emellett nem tudni, hogy a Samsunggal milyen szerződést kötöttek. Nem biztos, hogy a Samsung olyan jó kihozatalt tud ezeknél a nagy lapkáknál, hiszen akkora tapasztalatuk azért ebben nincs. És általában jellemző, hogy nem a lapka lesz fizikailag hibás, a 8 nm itt azért túl kiforrott, hogy ilyen gondja legyen, viszont nagy lehet a variancia az egyes lapkák között, amiket gyártanak. Ez szokott lenni a tipikus gond a nagy lapkáknál. Ilyenkor úgy kell kialakítani a specifikációt, hogy ezt a varianciát azért tervezd bele a kihozatalba, hogy minél több waferen található lapka felhasználható legyen.
-
Malibutomi
nagyúr
Ok csak meg egy szoszenet ide NAvi vs Ampere:
Ha a Navi nem jo akkor az NV miert nem hozott csak 30-40% elorelepest es normalis fogyasztast?
Miert kellett a kartyaikat kifacsarni a vegletekig 320-350W-ra es tegla meretu hutoket tenni rajuk emiatt?Engem ez komolyan erdekel. Mert siman megtehettek volna hogy 10% al kevesebb elorelepest hoznak az is teljesen okes lett volna a megszokott 250-275W keretbol. De nem tettek.
-
nubreed
veterán
válasz
Malibutomi #41607 üzenetére
Én ezeket a leakeket mind kamunak tartom az nda lejártáig. Szóval tőlem bármit kiposztolhatnak, majd ha 16-án megjönnek a hivatalos tesztek, onnantól lesz releváns a dolog.
-
szmörlock007
aktív tag
-
Jacek
veterán
Erdekes volt a cikk, valami lehet is benne.
Foleg ahogy latom 16-an lesz FE NDA lejarat es ugye 17-en lehet venni mindent ha van de nem lwsznek tesztek az AIB kartyakrol az ugy vicces, en veszek 60napos nyitttal nem jo megy vissza joccakat -
válasz
Malibutomi #41617 üzenetére
igen én is írtam hogy marketing rizsa,de igaz abban a kontextusba ahogy leírták így mellékes.Meg kell élniük a marketingeseknek is mindkét cégnél.
értem én, csak jó lenne figyelmbe venni hogy jelenleg nincs ennél jobb ilyen sebességben.
Én is egy véleményt írtam hogy már sokadszor olvasom tőled ezt, ennyi. Ettől nem kell meghatódnod hogy engem zavar ,leírhatod még 100x, én meg leírhatom hogy unalmas olvasni 100xAmúgy majd meglátjuk mit dob rá a konkurencia nekik.
-
Malibutomi
nagyúr
Tudom mit jelent...azt is mind tudjuk hogy az NV azert irta ki szep nagy betukkel hogy a hozzanemertoket beeetessek..az hogy nezett volna ki a dian hogy 8nm process. 0% improvement in perf/watt?
Megegyszer..a negativ velemeny is megoszthato a forumon, aert forum. Ha jon eg hir leirom a velemenyem. Ujfent bocsanat hogy rosszat mondtam a tevedhetetlen nvidiara, gyorsan gyujtok ertuk egy gyertyat
-
válasz
Malibutomi #41615 üzenetére
meg lett neked konkrétan magyarázva már az Nv találgatósban hogy értették. Az nem gond hogy leírod 1x vagy 2x ugye.
[link] [link] [link] [link] [link] [link] [link]
[link]
amúgy itt a magyarázat ismét, mit jelentett az 1.9. [link]És ez mellett leírom, hogy igazad van, nem történt számottevő előrelépés fogyasztás terén valóban( azért a 3070 még hozhat) de cserébe ár / teljesítményben és teljesítméynben igen ami elég fontos szám az elöbbi melett.
-
Malibutomi
nagyúr
Bocs hogy leirom a velemenyem, miutan az NV elvileg jobb node-ra elorelepve meg 1.9X perf/wattot belengetve a diakon az eddigiek alapjan gyakorlatilag annyi javulast ert el hogy a kartyak pont annyival tobbet fogyasztanak mint amivel gyorsabbak.
Elnezest hogy csunyat mondtam a balvanyodra igerem tobbet nem teszem.
-
válasz
Malibutomi #41613 üzenetére
igen az hogy az Nvidia találgatósba is meg itt is ezt olvasom tőled hogy perf/ watt és fogyasztás. miközben közismert AMD fanként a Furynál, veganal /290 nél ezek mellékesek voltak .a 95 fokos GPU nem számított és hasonló apróságok,csupán visszaolvasva a neved alatti kommentekre. Ezt nem értem illetve értem.
Tehát várjuk meg szépen mit tud hozni az AMD majd 7 nm@ 3. körös übertapasztalt gyártásból aztán utána meglátjuk lesz e érdemi fejlődés a konkurenciához nézve, mert a jelenleg piacon lévő kártyájuk a 12 nm-s Nvida kártyákkal vesenyez 7 nm-n és az utóbbi 6-7 évben nem is volt olyan generáció ami jobb lett volna náluk.
Nvidia bevállalta az olcsóbb /roszabb Samsung gyártást, gondolom okkal, ez a következménye. DE az is biztos, hoy Samsungnak ez egy über nagy lehetőség hogy fejlődjön ilyen összetett és nagy GPu-k gyártásában.
Ez majd hoz némi előnyt godolom most AMD nek,de hogy nem fog számítani a különbség abban biztos vagyok. ha hozza a 3080 teljesítményét akkor optimistán 280 wattot jóslok , ha ennyiből csak 10 % kal lasabb akkor már nincs szignifikáns különbség A 3080 320 wattjához szóval kíváncsi leszek mit hoz a navi teljesítményben és fogyasztásban. -
#25237004
törölt tag
Jó kis cikk és logikus, amit ír. Érdemes elolvasni:
Nvidia's Ultimate Play
Ezekről a szuper Nvidia árakról én is úgy gondolom, hogy ilyen formában "túl szép, hogy igaz legyen". -
TTomax
félisten
Háát...távol álljon tőlem bárki megvédése,de ez a VS topic ahol a fanyalgásoknak igenis helye van.
Valóban nem tett jót a samsung 8nm-e a perf/wattnak viszont az már így előre meg merem jósolni,hogy brutálisan húzhatóak lesznek ezek a kártyák,illetve lehetnek mert nekem nagyon úgy tűnik,hogy a 3080 ismét olyan power limites lesz,hogy csak a shunt mode segít rajta,már aki bevállalja,mert a bios lockolva lesz az máris borítékolható.Egy vga lesz csak ahol engednek mindent,és az a 3090 brutál áron (hogy klasszikust idézzek qrva gyors lesz qrva drágán
)... arra nem is lesz az AMDnek kb semmiféle válasza,de oda a 3070/3080köré megérkezhetnek...persze csak mire már mindenki bevásárolt...
-
válasz
Malibutomi #41607 üzenetére
nem unod még?
Várjuk meg mit tesz le a gyártód aztán örüljünk, hogy ha 250 wattból hozza a 3080 teljesítményét,mert ezek szerint azt minimum elvárhatod tőlük .. -
-STALKER-
lelkes újonc
AMD’s Next-Gen Radeon RX 6000 Series ‘RDNA 2’ Graphics Cards Alleged Benchmarks Leak Out, As Fast As A Stock RTX 2080 Ti
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Path of Exile 2
- OLED monitor topic
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Steampunk hangulatú, nem túl drága, de fémházas klaviatúrát mutatott be a Yunzii
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- BestBuy topik
- VR topik (Oculus Rift, stb.)
- Milyen videókártyát?
- Apple Watch
- Hogy is néznek ki a gépeink?
- További aktív témák...
- Gamer PC-Számítógép! Csere-Beszámítás! I5 14400F / RX 6900XT 16GB / 32GB DDR5 / 1TB SSD
- UTOLSÓ 4db! Lenovo ThinkPad X1 Yoga G6 (6th Gen) - i7-1185G7, 32GB, 512GB SSD, multitouch + TOLL
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RTX 5080 16GB GAMER PC termékbeszámítással
- Xbox Series X 1 TB + kontroller 6 hó garancia, számlával!
- BESZÁMÍTÁS! ASROCK B650M R5 7600X 32GB DDR5 2TB SSD RX 6900XT 16GB Zalman Z1 PLUS GIGABYTE 850W
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest