- Azonnali informatikai kérdések órája
- Milyen billentyűzetet vegyek?
- Milyen házat vegyek?
- Projektor topic
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- AMD GPU-k jövője - amit tudni vélünk
- Intel Core i3 / i5 / i7 / i9 10xxx "Comet Lake" és i3 / i5 / i7 / i9 11xxx "Rocket Lake" (LGA1200)
- Androidos tablet topic
- Épített vízhűtés (nem kompakt) topic
- Megérkezett a hardverszállítmány
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Cifu
félisten
válasz
Raymond
#42165
üzenetére
Akkor még 1x, ebből a szép idézetből ezzel a mondattal volt problémám:
A 4080-nal meglatszik az hogy aki mar ott van hogy 1200EUR-t kiad egy kartyaert az mar meglepi a difit az 1700EUR-ra foleg hogy a dragabb kartya jelentosen gyorsabb.
Amit most sugalni akarsz, az akkor lenne igaz, ha ebbe a mondatban mondjuk "az mar" helyett "egy jó része" lenne.
De nem ezt írtad ott... -
Cifu
félisten
válasz
Raymond
#42156
üzenetére
A 4080-nal meglatszik az hogy aki mar ott van hogy 1200EUR-t kiad egy kartyaert az mar meglepi a difit az 1700EUR-ra foleg hogy a dragabb kartya jelentosen gyorsabb.
Az általad berakott számokból pont, hogy nem ez jön le, mivel több 4080-ast adtak el, mint 4090-est.
Én sem adtam ki 1700 EUR-ot a 4090-ért... Már az ~1350 EUR is kurta sok volt nekem, de 12GB-os kártyáért meg sokkalom a ~900-1000 EUR-t...
-
Cifu
félisten
válasz
Quadgame94
#42153
üzenetére
Ok, a "hülyére veri" erős volt, inkább egy szinten van vele...
-
Cifu
félisten
válasz
Raymond
#42150
üzenetére
Én a 4070 Ti és a 4080 esetén inkább az árokokat látom a háttérben. Egyszerűen egy ~750 US$ / EUR feletti kártyát már jelentősen kevesebben engedhetnek meg maguknak.
A 4070, 4070Ti, 4080 és 4090 viszonyszámai arra mutatnak rá, hogy valahol 550-600 US$ a "sweet spot" vége, amely felett jelentősen megcsappan a kereslet. Innen a görbe lapos lesz, ami a 4090 árát is figyelembe véve arra mutat rá, hogy arányaiban az RTX4090-re van rendes kereslet - de én élek a gyanúval esélyesen itt sem a gamerek miatt, hanem inkább az AI felhasználás állhat szerintem a háttérben...
A lényeg, hogy egy ~1700 US$ / EUR kártya árat kifizetők száma arányosan nem sokkal kevesebb, mint akik ~1200-1300 US$ / EUR árnál húzzák meg a határt (RTX 4080 vásárlók). -
Cifu
félisten
válasz
Quadgame94
#42147
üzenetére
Aki felskáláz nélkül játszik raster-es beállításokkal, annak a 7700XT jobban megérheti.
De egy 4060Ti-n ott van a DLSS (ami jobb minőséget nyújt, mint az FSR) és az RT is, amiben hülyére veri a 7700XT-t. Tehát ha olyan játékkal játszol, ahol be lehet kapcsolni az RT-t, és esetleg felskálázással szeretnél játszani, akkor a 4060Ti a jobb választás.A felhasználók pedig döntöttek - az októberi Steam Survey-ben a 4060Ti 1.4%-on áll, a 7700XT meg fel sem kerül a listára (ie.: 0.15% alatt van).
-
Cifu
félisten
válasz
DudeHUN
#42129
üzenetére
A kövi gen az RDNA4.
Az RDNA5 meg a következő utáni.
Az nVidia meg 2024-ben feltehetően végig húzza a Super családot a teljes szérián (a 4070 és 4080 Super a közép- és középfelső ház, de eddig a kisebbekből is hozott Super-t, csak később), ami elég lehet az RDNA4 ellen.
2025 elején meg jöhet az RTX50 széria, pont azért nem kell sietniük, mert a Super-rekkel is kordában tudják tartani az AMD-t és az Intelt (a Battlemage a hírek szerint szintén 2024 H1, és a csúcs verziótól RTX 4070Ti szintet várnak játékokban).A probléma továbbra is az, hogy az nVidia és az AMD hozzávetőleg azonos bevételt generál (mindkettő kb. 6-6.5 milliárd US$-t a 2023Q4-re), csak éppen az nVidia bevételeinek oroszlánrésze az AI gyorsítókból és a GPU-kból származik, az AMD-nek viszont a procikból.
Egyszerűen az nV többet áldozhat K+F-re a GPU-k terén, mint az AMD, és ennek az a vége, hogy egyszerűen jobban is állnak technológiai szinten.
A fekete ló az Intel lett volna nálam, de a jelek szerint továbbra is az AMD-vel versenyeznek először, hogy a második helyet megkaparintsák... -
Cifu
félisten
Csak megint ott a probléma, hogy a Qualcomm Snapi 8G3 már kint van, a MediaTek válasza pedig még csak tesztelés / ES állapotban.
Ez alapján karácsony előtt már nem lesz a piacon Dimensity 9300, talán jövő január / február, tehát egy jó negyed év késés.
Ugyanez várható jövőre is a 8G4 vs. 9400 kapcsán, ha csak a Qualcomm fejlesztése nem kezd el botladozni... -
Cifu
félisten
válasz
FLATRONW
#42018
üzenetére
Pontosan...
A felskálázási korszak a konzolokon kb. másfél évtizede eljött, csak a PC-ken kellett hozzá a Ray-Tracing meg a 4K, hogy megtalálja az indokot, hogy miért vessék be.
A Ray-Tracing és a most már a Path-Tracing (ha jól csinálják) többet ad hozzá a grafikához, mint amennyit a DLSS elvesz. Innen kezdve a kérdés inkább az, hogy mennyire képesek a konkurensek utólérni a DLSS-t... -
Cifu
félisten
válasz
Busterftw
#41949
üzenetére
Nekem gyanús, hogy kifejezetten az AI gyorsítókról beszélnek. Esélyesen ez a HBM3-as AI gyorsító lesz, a consumer kártyákat pedig talonba rakják.
Mivel sem az AMD, sem az Intel nem veszélyezteti őket, így gyártókapacitást simán teljesen az AI szegmensre áldozhatják.
Én csodálkoznék, ha a consumer Blackwell 2024-ben kijönne... Egy Ada szériás Super széria jön és szépen tovább szalámizza a gamer dVGA piacot... -
Cifu
félisten
Az NV nem fog készíteni egyedi lapkákat a megrendelőknek. Nekik ez nem üzlet, nincs erre üzletáguk, nincsenek rá berendezkedve.
Mindezt úgy, hogy egy éve pörögnek a dedikáltan a Nintendo-nak szánt T234, majd a T239 SoC-ról a pletykák?
Igazából a Microsoftnak és a Sony-nak sem akkora üzlet a váltás. Kidobni sok tízmillió sornyi kódot a kukába? Sokkal drágább a szoftvert újraírni, mint a meglévő kódnak megfelelő hardvert választani.
A Sony már egyszer megcsinálta a PS3 -> PS4 váltásnál, és másfelől nem feltétlen szükséges kidobni, erre vannak ugyebár a különféle fordítási eljárások. Szóval számomra azért nem evidens, hogy ilyenkor a sok tíz millió sornyi kód megy a kukába...
Példa szükséges? [Unreal 5 játékszerver kód fordítás Linux / Arm ágra]Ezért nem nagyon terjed az ARM a mainstream szerverekben.
Hát especiel az AWS esetén szép meredeken emelkedik az ARM szerverek száma és azok kihasználtsága, szóval változás azért éppenséggel van... -
Cifu
félisten
válasz
hokuszpk
#41931
üzenetére
Ott van a Jetson AGX Orin, 60W-os TDP, 12 ARM mag, meg egy integrált ~RTX 3050 szintű GPU, 32 vagy 64GB DDR5 RAM, PCI-Express 4.0 M.2 NVME csati és egy x16-os PCI-Express csati, 4.0 x8 bekötéssel, tehát akár egy külső dVGA-t is bele tudsz paszírozni.
Persze mivel itt egy fejlesztői kitről beszélünk, ez most ~2000 US$...
Szóval a CPU + GPU hardware ott van az nVidia kezében, jó rég óta, a skálázás meg már a megrendelő igényétől függ...
Itt szerintem inkább a nyereségmarzs az, ahol az nVidia és az AMD más pályán játszik. Az AMD simán bevállalja azt, hogy közel önköltségi áron dolgozik, csak hogy a piaci részesedést megkaparintsa és a felszínen maradjon. Az nVidia nem volt és ma sincs erre rászorulva.
Eddig ez kényelmesen elvolt kategória, az nVidia szépen tarol az integrált SoC-vel például az autókba épített rendszerek terén, ahol vastagabb profitmarzs adott.Viszont pont a technikai ágon az AMD most lemaradóban van, és egyszerűen az nVidia kezében annyi ütőkártya van (kiforrott ARM CPU + RTX GPU páros, kiforrott felskálázás a DLSS-sel, kiforrott RT, kiforrott AI), hogy a megrendelőknek nagyon el kell gondolkozni a következő generáció kapcsán... Nyilván az AMD sem fog a babérjain ülni, de véleményem szerint, legalábbis innen a partvonalról nézve messze nem olyan jó a pozíciója, mint mondjuk 5-6 éve volt...
-
Cifu
félisten
válasz
Alogonomus
#41926
üzenetére
Különböző hardverkörnyezet aligha lesz a komoly teljesítményű konzolok területén, mert akkor sokkal több szoftvermérnököt kellene alkalmazniuk a játékstúdióknak a játékok különböző adottságú konzolokhoz igazítására.
[Nintendo Switch 2 v. Nintendo NG] , "DLSS" támogatás említve, vagyis maradnak az nVidia hardware-nél, és ez mellesleg a demózáshoz Unreal 5 engine is használva volt, esélyes innentől kezdve az ARM proci. Ugyan sok a pletyka, de azok alapján ez a Switch 2 / NG konzol a jelenlegi PS5 / XboxX széria teljesítmény szintjén mozog, ami csak azért szép, mert az Ada arch terén nincs olyan GPU, ami ezt hozná (az AD107 az RTX 4060-ban 115W-al ~15TFlops-ot hoz, a PS5 ugye ~10TFlops, az XboxX meg ~12TFlops).Szóval korántsem hinném, hogy annyira betonkemény az AMD jövője a konzolpiacon.
Nem véletlen, hogy az AMD is elindult az ARM irányába...
Most még csak a Windows van emlegetve, de simán benne van, hogy aztán a konzolok terén is mellőzve lesz az x86 utasításkészlet. -
Cifu
félisten
Elég érdekes gondolatmenet, de köze nincs a realitásokhoz.

Van egy gyártó, aki vezet egy adott piacon, innovációban (felskálázás, ray-tracing, path-tracing), terméktámogatásban (játékfejlesztők becsatornázása, driverek terén stb.) első. Él az adott piaci helyzetével, pontosabban visszaél. De mivel profitorientált cég, ezen nem kell meglepődni...
Ezen nem a vásárlók, hanem a konkurencia tudna változtatni. Én ezért bíztam a kékekben, mert az AMD hosszú ideje nem tud sajnos felnőni a feladathoz, és az Intelnél lehet megfelelő pénzmag is ennek a megvalósítására. Sajnos nem látszik az, hogy ez belátható időn belül megtörténne...
Szóval marad az, hogy bármennyire is nem szeretem az nVidiát, de én is zöld kártyát vettem zöld után, mert sem a pirosak, sem a kékek nem tudnak versenyképes kártyát letenni az asztalra... Márpedig a HW felmérésekben, eladási listákban azt látni, hogy ezt a vásárlók többsége így látja.
Ha neked ez nem tetszik, az egyéni szoc probléma...
-
Cifu
félisten
12800 mag, 1150Mhz base clock, 2250Mhz boost clock, 32GB VRAM, 250W TDP.
Ez az RTX 5000 Ada Generation, ami most két hónapja jelent meg...Szerkesztés:
Igaz előfordul 4080 1000 dollár alatt de nem jellemző míg a 7900XTX folyamatos áresésben van a megjelenése óta.
Pontosan azért van áresésben, mert MSRP-n nem versenyképes az RTX 4080-assal, amin ott a DLSS, ami jobb, mint az FSR, jobb a Ray-Tracing terén a zöld kártya és technológiai szinten ott a Path-Tracing, amiben megint jobb.
Az AAA játékok nagy részében pedig ezek ott vannak.Tehát mondhatod, hogy raszterben jobb az AMD, csak éppen ennek ellenére eladások tekintetében továbbra is a zöldek a jobbak.
Nézz egy Steam Survey-t, a 7900XTX 0.21%-on áll, az RTX 4080 0.51%-on, az RTX 4090 meg 0.73%-on...
Ilyen feltételrendszerben felesleges kapkodniuk, övék a piac... -
Cifu
félisten
AD102-nek egyelőre nincs leesőre épülő SKU ja.
Már hogy ne lenne.
Úgy hívják hogy nVidia RTX 5000 ADA Generation.Egy 4080 Ti 1200 dolláros áron szerintem jó profitaránnyal lenne.
Az RTX 4080 jól tartja magát 1100-1200 US$-os áron, az RTX 4090 meg 1700 US$-os áron...
Az RTX 4080 Super ~1300 US$-os áron még mindig versenyképes lehet.Persze, ha akarná, az AMD-t jól megszorongathatná az nVidia, hogy 1200$-ért kihozza az AD103 alapú RTX 4080 Supert, de 1200 US$-ért miért hozna ki egy megvágott AD102 alapú kártyát? Inkább berakja az RTX 5000 Ada Generation-ba, és hülyére keresi magát az AI gyorsító piacon...
-
Cifu
félisten
Igazából minek nekik az RTX 4090 extra profitját veszélyeztetni?
Az RX 7900XTX max. raszterben nyomja le az RTX 4080-at, egy TDP terén feljebb húzott AD103 pedig ott is meg tudná szorongatni, tehát úgy tudnák az RTX 4080 egyetlen érdemleges ellenfelét lenyomni, hogy közben az RTX 4090 nem lenne kannibalizálva. Mindezt úgy, hogy a jobb hűtéssel és VRM-el bíró RTX 4080-ekben bőven van tartalék, csak a 350-370W-os TDP limit "megfogja" a kártyát. -
Cifu
félisten
-
Cifu
félisten
[RTX 3050 6GB kártya várható] , ami a nagyon olcsó (nem feltétlenül játékra szánt) megoldásokra lehet válasz. RTX 4050-ről továbbra sincs hír...
-
Cifu
félisten
válasz
DudeHUN
#41728
üzenetére
Kipróbáltam, de az FSR-t csak megnéztem, aztán váltottam modded DLSS-re.
Az FSR féle háttérben mozgó dolgok vibrálása már a CP2077-ben is szörnyű zavaró volt számomra, ezért nem is szándékozom AMD-re váltani jelenleg, miközben viszont az nVidia féle VRAM hiány és árazás miatt az RTX 40x0-re váltás sem vonzó számomra.Szóval bőven kipróbáltam az FSR féle opció, Téged nem zavar, szuper, de engem sajnos nagyon.
Hozzá teszem, hogy a DLSS is hosszú idő alatt ért el ide, pl. anno a CP2077-ben is anno olyan ghosting volt járművek esetén, hogy csak na, aztán a DLSS 2.5-el ezt is javították gyönyörűen.
-
Cifu
félisten
válasz
DudeHUN
#41721
üzenetére
Őőőő... Ezek olyan apró artifactok, hibák, amelyek ott vannak, és rontják a képi élményt. Az, hogy fegyver váltáskor "ott marad" a fegyver szellemképe észre vehető, de az emberek nagy része legyint rá. Pedig ez is képminőség dolog. Ahogy az FSR felskálázáskor a gyengébb textúra minőség, modell minőség is ilyen (ezeket rakta be gV).
Hogy "nem lehet észrevenni" így finoman szólva is fals. Ha össze veted a DLSS-el, akkor látható, szemmel is befogadható. Egyszerűen jobb a kép minősége. Ha játszottál DLSS-el, és utána bekapcsolod az FSR-t, akkor Neked is feltűnne, hidd el...
-
Cifu
félisten
válasz
Callisto
#41715
üzenetére
Nem csak abban. Nézd meg a gV által a #41720 hsz.-ben linkelt videót mondjuk [470 másodpercnél] . FSR és natív (+TAA) esetén a háttérben az apró, mozgó részek vibrálnak a a távolban, DLSS-nél viszont nem. Szóval itt nem csak az élesítési probléma adott, hanem a ghosting / vibrálás. Egyszerűen a DLSS bizonyos képhibákat képes megfelelően elfedni, "megszépíteni"...
És ez nem "hazug világ", ez a valós működés...
-
Cifu
félisten
-
Cifu
félisten
Így meg a sima 8GB-os RTX 4060 Ti lesz okafogyott. 399 - 420$ körül vannak jelenleg, ha nem mennek lejjebb, azonos teljesítményt de több VRAM-ot kapsz pár dollárral többért a 16GB-os RTX 4060 Ti-vel.
Szóval szerintem a gyártók azért nem iparkodtak a 16GB-os RTX 4060 Ti-vel, mert tudták előre, hogy hamarosan csökkenteni kell az árakat, nem akartak bukni a kártyákon. -
Cifu
félisten
Ez egy 2021-es roadmap, van frissebb (by [HardwareLuxx] ), ahol 2025-re csúszott az Ada Lovelace Next:

-
-
Cifu
félisten
válasz
huskydog17
#41619
üzenetére
[TPU cikk], RTX 20x0 felett lesz DLSS3.5...
PCWorld-öt meg ne nézze senki
" With DLSS 3.5, NVIDIA introduces a new denoiser that's optimized to work hand-in-hand with DLSS 2 upscaling, to provide better image quality results that are more correct at the same time. This feature relies on the Tensor Cores (not the RT cores, we asked), so it is available on all GeForce RTX graphics cards (Turing and newer)."
-
Cifu
félisten
Pont ezt mondom. Amennyire én látom az Nvidia továbbra is nagyon jól érzi és látja a DIY piac működését. Patikamérlegen kiporciózza az egészet, jó előre megtervezett lépésekkel (pl. szerintem pontosan kiszámolták, hogy az RTX 4070 (Ti) 12GB-al hogy takarja le a piacot és hogy lehet nagyon gyorsan elavultatni, hogy a tulajok 2 év múlva le akarják cserélni...).
Az AMD most nagyon teper az RX 7700 és RX 7800 kapcsán, de tippre az nV jó előre minden lehetséges lépésre bekészítette a.maga kriptonitját, ami a zöld erő dominanciáját fenntarthatja.
És is bizakodtam az Intel terén, valahol most is bizakodó vagyok, de igény engem se vígasztal, hogy talán 3-5 év múlva végre valahára valóban versenyképesek lehetnek. Az a jelen problémáin nem segít...
-
Cifu
félisten
A vásárlóknak fel van adva a lecke.
Van egy réteg, aki a csúcs kártyát akkor is megveszi, ha 5000€-ba kerül. Őket pont nem érdekli az ilyesmi...
Van az, aki kényszerből vásárol, mert az előző kártya már nem adja azt, amit elvár. Itt jön elő az, amit lent Pumba is feszeget, hogy végy használt kártyát az előző szériából. Itt az egyéni ingerecia a probléma: vennél egy használt RTX 3080 Ti-t -200e Ft-ért vagy egy új RTX4070-et kicsivel többért, amit viszont te bontasz ki? Sokan a másodikat fogják választani...
Ahogy írtátok is, az AMD és az Intel lehetne a megoldás, de jelenleg nem az..
-
Cifu
félisten
válasz
Yutani
#41490
üzenetére
Stable Diffusion-nál nem gyér, legfeljebb 100 képnél kicsivel többet vársz.
A nagyobb probléma, hogy a képfelbontás illetve a forrásképek emelésével drasztikusan nő a memória igény. Amikor az RTX 2070 Superrel játszottam, a fő problémám a 8GB ram volt (kb. nem lehetett 512x512 fölé menni), nem a GPU teljesítménye... -
Cifu
félisten
válasz
gejala
#41454
üzenetére
Itt a problémám.
1.: Mivel nincs versenyhelyzet, a 4060(Ti - Ti 16GB) 400-500$-600$-os kártya. Már többen megjegyezték, hogy igazából ennek 4050(Ti - Ti 16GB)-ként kellett volna kijönnie, 300-350-400$-os áron. De egyszerűen nincs olyan piaci helyzet, hogy meg kellene lépnie az nVidiának ezt. Pont ezért "mókás", hogy mindenki a 3060(Ti)-hez méri, és rácsodálkoznak, hogy hát ez alig előrelépés ahhoz képest - bezzeg ha 4050-ként jött volna ki...
2.: Best buy lehetne, de paradox módon még a jelenlegi áron is elviszik, tehát úgy tűnik, hogy mostani árán is best buy....
Mégpediglen azárt, mert a saját régiójában nincs rendes ellenfél. Az RTX 3080Ti-vel és a Radeon 6800XT-vel versenyez. Azok korábbi arch-ok és az RX6800XT az, ami ebből nevetve jöhet(ne) ki, mert jóval olcsóbb (500$-os ár felett kezdődnek), már ha nem kérsz DLSS-t (ami azért jó dolog) és RT-t (ami szintén).
Az nVidia beárazta ezt a két plusz képességet, így kijött a 4070 ára.
Látványos, hogy az AMD se hozta még ki az RX7700-at, gondolom nem üti meg a kívánt szintet... -
Cifu
félisten
Igen, az ár egy dolog, ha +100$ lesz valóban, akkor esélyesen el fog vérezni.
Ha viszont túl kicsi lesz a különbség, akkor végképp senki se fogja a 8GB-os verziót venni.
A probléma, hogy a 4070 induló ára inkább 600 $, vagyis pont ki vannak sakkozva a lépcsőfokok. Ahol a 4060 Ti 16GB-ok vége van, ott kezdődik a 4070-ek alja...
Innen látszik, hogy nincs igazán versenyhelyzet, mert nem a teljesítményhez áraznak, hanem lépcsőzik a GPU-kat... -
Cifu
félisten
válasz
Devid_81
#41444
üzenetére
A probléma az, hogy egyáltalán nem életképtelenek. Jók az üzletben. Ha a Battlemage az RTX 4070 teljesítményt hozná ma, csoda jó lenne. De továbbra is le vannak maradva...

Én pont most küzdök mi legyen az RTX 2070 Super utódja. Egy 16GB-os RTX4070Ti tökéletes lenne a 12GB-os 4070Ti áráért... De ilyen nem létezik. A 12GB-os VRAM pedig ma elég még, de jövőre már biztos kevés lesz ezen a szinten.
Jól csinálja az nVidia - megvan az indok, hogy 2025-ben lecseréld az utódjára, amin már biztos, hogy 16GB VRAM lesz, vagy még több...A gond a jelen állapot. Ilyen szinten a 4070 egyszerűen megfelelő alternatíva nélküli. Vagy veszel 4080-at jóval drágábban, vagy 7900XT-t (azzal a fogyasztással), de az utóbbinál nincs DLSS és gyengébb az RT-ben...
Egyáltalán nem örülök ennek az állapotnak, és bírnám, ha az intel végre szintet lépne, vagy az AMD megemberelné magát...
-
Cifu
félisten
válasz
GeryFlash
#37623
üzenetére
A HFW sehol sincsen összetettség szinten a CP2077-hez, az előbbi egy főleg szabad téri játékterület, az utóbbi egy zsúfolt metropolisz, szóval almát körtével sikerült összehasonlítani (vannak bajai a CP2077-nek, de especiel ahhoz képest mit nyújt látványban, nem rossz egyáltalán a teljesítmény)...
Erőforrás zabálóbnak se igazán nevezném, ha i5-2400 + GTX 960 2GB-os VGA-val is 30 FPS körül fut a játék 720p-ben...Én 50 körüli FPS-el játszom @FHD + RT High + DLSS quality, egy ~i7-4770 szintű Xeonnal és egy RTX 2070 Superrel, szénné modolva...
-
Cifu
félisten
válasz
GeryFlash
#37620
üzenetére
Azt ertem, de ha a legkisebb tag lesz 200-225watt (Nvidinal meg 250 wattol) akkor az nagyjabol a 3070TI-3080 szintjet kene hogy hozza.
Pont ez a szép. A 3070Ti ezt a teljesítményt 290W-al hozza. Amiben az gyönyörű, hogy a 2080Ti kb. 15%-al kisebb teljesítményt tudott 250W-al. Tehát a teljesítmény / fogyasztás arány tyúklépésekkel totyog tovább.
AMD oldalon is ugyanez van...
De nem lesz olyan jatek, amihez ez kell.
Furcsa kettőséget érzek ezzel kapcsolatban.
Egyfelől mindig megy, hogy "de mi fogja ezt a teljesítményt kihasználni", másfelől pedig megy, hogy brü-hü-hü, az új XYZ játék még az egy millió forintos kártyámmal sem tud stabilan Ultra részletességgel natív 4K @ 144 FPS-t, milyen optimalizálatlan hulladékot adtak ki megint...Ez utóbbi miatt jutott oda a CP2077 is, hogy az 1.5-ös patch-ben kivették a Psycho és Ultra grafikai szintet, és lett csak High szint, amit kb. a korábbi Ultra és High közé lőttek be.
Custom MOD-okkal fel lehet emelni a LOD-ot, lehet 4K-s textúrákat használni, emelni a reklámok felbontását, amelyek jelentősen javítják a grafikai minőséget, cserébe az FPS beleál pillanatok alatt a földbe...Szóval nem lesz olyan játék, amihez ez kell? De, van, illetve lehetne akár most is. Persze, DLSS meg hasonló trükkök alkalmazásának mellőzése esetén...
-
Cifu
félisten
válasz
GeryFlash
#37618
üzenetére
Az RDNA mögül a 2-est felejtettem el. Az RX 5700 esetén a TDP 180W volt. Az még jobb példa lett volna, igazad van...
De hogy minek azt nem ertem, mert mar most kb bottleneck a jelenlegi konzolgeneracio, tehat hova kell ketszer nagyobb teljesitmeny?
Anno a Titan szériával az nVidia bebizonyította, hogy van egy réteg, akinek semmi sem drága, a téma pörög tovább. Van vevője az Intel i9 és a Ryzen 9 szériának is.
Ebben a régióban a hatékonyság nem tényező. Az tényező, hogy Cinebench-ben meg 3DMark-ban mennyit tolsz.A DLSS anno a Ray-Tracing miatt kellett, és az AMD-nek is első sorban amiatt fontos az FSR 2.0 szerintem.
-
Cifu
félisten
-
Cifu
félisten
válasz
Alogonomus
#37415
üzenetére
Akkor abban legalább megegyezhetünk, hogy az RTX 3060 nem volt olcsóbb, mint az RTX 2070?
Az adatok összevetésénél valóban a TSMC-ből voltak az adatok, de hát amikor először beraktam, nem ez volt a problémád vele, hiszen Te magad is egymás alá raktad a 12nm-es TSMC-ből származó TU106-ot és a 8nm-es Samsung féle gyártású GA106-ot.
Én nem azt látom, hogy a GPU árak csökkentek volna, az elemzések ide vagy oda...
-
Cifu
félisten
válasz
Alogonomus
#37408
üzenetére
Az azonos teljesítményű chipek mérete viszont határozottan csökken.
12nm, TU106 (RTX 2070): 445 mm²
8nm, GA106 (RTX 3060): 276 mm²
...
Azonos teljesítmény egyre kisebb chipmérettel elérhető, és egyre olcsóbban is adták az azonos teljesítményű újabb kártyát.
Huhh...
Tehát az RTX 3060 kártya olcsóbb volt, mint az RTX 2070?
Melyik univerzumban?
A valóság az lenne - márha az MSRP áraknak bármi köze is lenne a valós beszerzési árakhoz - hogy adott árért nagyobb teljesítményt kapnál. Ez nem valósul meg, tudjukmiért.
De menjünk tovább.
Próbáljuk meg összehozni akkor az általad belinkelt táblázatot, ahol a 16/12nm nagyjából 4000 USD-ért van feltüntetve, a 7nm-es meg 9000 USD felett. Vegyük úgy, hogy dupla annyiba kerül a Wafer.Vegyük a TU106 és GA106 példát, az utóbbi cirka 2/3 akkora, mint az előbbi, tehát 2 TU106 helyén 3 fér el. Kicsit kerekítsünk felfele, mert hát a kör széleinél valamivel jobb az arány, de akkor sem fog soha 2x annyi GA106 chip kijönni ugyanakkora waferen, mint amennyi TU106. Tehát sehogy sem lehet olcsóbb.
Pont ez a baj - azonos teljesítményt drágábban kapsz meg...
Kezded érteni, hogy miért vérzik a nézeted ezer sebből?
-
Cifu
félisten
válasz
Alogonomus
#37404
üzenetére
28nm, GM200 (Maxwell 2.0): 601 mm²
16nm, GP102 (Pascal): 471 mm²
12nm, TU102 (Turing): 754 mm²
8nm, GA102 (Ampere): 628 mm²28nm, GM204 (Maxwell 2.0): 398 mm²
16nm, GP104 (Pascal): 314 mm²
12nm, TU104 (Turing): 545 mm²
8nm, GA104 (Ampere): 392 mm²Nekem nem úgy tűnik, hogy határozottan egyre kisebbek lesznek a GPU-k chipjei...
-
Cifu
félisten
Ezen nem is gondolkodtam még el... A fő problémám, hogy egy fránya, 50e Ft körüli belépő szintű low profile dVGA lenne ideális HDMI 2.1 VRR-rel, ALLM-mel.
Vagy ha már deszkát is váltanom kellene, akkor egy olyan IGP-s procira, ami bír VRR-el vagy legalább 4K@120Hz-es HDMI képességgel.Ehhez képest végbéltükrözéses koncepciókon kell agyalnom, inkább 200-300e Ft körüli áron...
-
Cifu
félisten
-
Cifu
félisten
Először is köszi srácok, hogy segíteni próbáltok!
@lenox : A DP-t lehet HDMI-re alakitani. Mondjuk 4k 120p-t nem fog tudni, bar az nem tudom, hogy mire kene egy HTPC-ben, ugy ertem nem tolonganak a 120p-s filmek. Mi a cel amugy? Marmint miert kell 4k 120p?
A cél az lenne, hogy ha már a TV 120Hz képes, akkor azt normálisan meg is lehessen jeleníteni, és ha már van a HDMI 2.1 szabványban VRR (Variable Refresh Rate) és ALLM (Auto Low Latency Mode), plusz eARC (erősítbe hangsávok továbbküldése a TV-ből), akkor használjuk ki. Ie.: ne kelljen a lejátszónak ügyeskednie, hogy 24 vagy 60Hz-en pörögjön a kijelző. Ha a VRR nincs meg, akkor pedig a 120Hz lenne optimális, hiszen az a 24 és a 60Hz-et is probléma nélkül megugorja. A fixre lőtt 4K@60Hz esetén sajnos valami ügyeskedés kell... :(
A probléma az, hogy a VVR támogatás egy integrált GPU-nál sincs megemlítve. Az Intel is a saját Adaptive-Sync támogatását csak DP-n támogatja, és az ilyen feature-k a DP-HDMI átalakításkor általában a kukába kerülnek (a Club3D féle megoldásnál is).
Ahogy nézem, az RTX 30x0 sorozatú nV és az RX6x00 sorozatú AMD kártyák jöhetnének szóba, de mivel HTPC lenne, és ezekből nincs LowProfile, ezért ez is zsákutca (kivéve az előzetes ábrák szerint az RX6400-ból, de az meg a videókódolás terén van kiherélve).
A jelen legvalószínűbb megoldás egy i3-12100 marad, és a kényszerűen korlátozott HDMI 2.0b 4K@60Hz-el...
@b. Nézelődtem ebbe az irányba is, sőt, a Turing alapú [T400 is képbe jött] . De amennyire tudom, miniDP - HDMI konverzió terén a HDR, VVR és az ALLM bukik, illetve bizonytalan a 4K @120Hz témakör is...

-
Cifu
félisten
@b.: az nVidia Shield, de még a Shield Pro sem nyújt semmi extrát egy HDMI 2.0 képes HTPC-hez képest. Előrelépés az RTX 3050 / RX6600 lenne, amelyek viszont méregdrágák és overkillek a feladatra. Kisebb teljesítményű, 4K@120Hz képes kimenettel bíró dVGA pedig nincs...

@Komplikato: Kár, hogy csak DP kimenete van, de nagyon szépen köszönöm az ötletet, elkezdek ebbe az irányba is vizsgálódni...
-
Cifu
félisten
válasz
paprobert
#37275
üzenetére
Erre a célra az Intel kisebb VGA-i lesznek a befutók, szerintem.
Ha egyszer az életben kijönnek.
Egyébként jött már az AMD-től az általad áhított kártya, bő egy hete. Csak négyszeres áron, modern videó képességek nélkül...
Nem igazán, mert nincs belőlük Low Profile, ahhoz kapcsolódon nincs belőlük külső tápcsati nélküli. Talán az RX 6400-ból lesz LP változat (ill. külső tápcsatit nem igénylő), de az meg csak OEM. Plusz az említett okokból HTPC-be nem annyira nyerő választás a kis AMD, hiszen pont a videólejátszás lenne a lényege.
Ilyen téren az utolsó piadon is kapható vörös kiadás az RX 560 volt, HDMI 2.0, 4K@60Hz képességgel.Az IGP lenne papíron a jó döntés eme célra, de sem az AMD, sem az Intel nem adott ki olyan IGP-s procit, ami 4K@60Hz-nél többre képes (mint kiderült az Alder Lake IGP-je sem tud többet). Igen, az AMD majd egyszer, valamikor ad. AM5 + DDR5 mellé. Az értelmes ár/értékű változatok 2023-ban. Talán.
Kabarénak is erős, ami ma a PC hardware terén megy...
-
Cifu
félisten
Mondjuk lehet nem ártana egy kisebb teljesítményű Ampere, mert az xx30-as széria évek óta el van hanyagolva, a GT 1030 óta nem jött ki oda semmi. Persze, az AMD sem hoz ki oda semmit jó rég óta, de ettől még szemforgató, hogy normális HTPC alkalmas dVGA (ie.: 4k@120Hz képes HDMI-n) nincs...
-
Cifu
félisten
[CP2077 grafikai teszt @ Computerbase.de]
A teszt a szokásnak megfelelően nagyon alapos, így érdemes átnézni, Ray-Tracing és DLSS teszt is van benne. -
Cifu
félisten
válasz
demmer123
#35368
üzenetére
Miért nem elfogadható. Van egy törvény, hogy nem lehet olyan grafikai beállítást csinálni, ami túlmutat az adott korszak csúcs hardwarein?
Kismillió ilyen játék volt az elmúlt évtizedekben, az Operation Flashpointtól kezdve az MS Flight Simulator-on át a Crysis-ig.
A grafikai beállítás opció pont azért van a játékokban, hogy a rendelkezésedre álló hardware illetve a saját igényeid alapján beállíts egy életképes kompromisszumot. Ennyi. -
Cifu
félisten
válasz
Alogonomus
#35337
üzenetére
Nem, nem jogos elvárás...
-
Cifu
félisten
válasz
Yutani
#35327
üzenetére
Xeon E5-1650v3 (6c/12t @3.6Ghz all-core), 32GB RAM, RTX 2070 Super.
Minden ultrán, Ray-Tracing is ideszámítva (ugye van két opció, ahol van még az Ultra felett egy, a Psycho, az egyik ilyen az RT Lightning), a film grain, DoF, stb. kikapcsolva, DLSS Quality, 1080p és párbeszédeknél 50-60 FPS (ha sokan vannak a háttérben, akkor 50), városban, harcban 45-50. Nálam ez teljesen játszható kategória.A játék pedig valami elképesztően szép.
Szóval nem, ez nem Crysis.
Az, hogy Ultra/Psycho beállításokkal DLSS nélkül nincs meg RTX 3090 sem 4K-ban a 60FPS? Hát istenem. Azzal nem lehet mit kezdeni, aki nem tudja elfogadni, hogy kompromisszumokat kell kötni 4K felbontáson. -
Cifu
félisten
Kirakták, a [WCCFTech] át is emelte őket, de az nVidia oldalán nem találom őket, tehát feltehetően levették.
Ha tippelnem kéne, most vagy az nVidia is a DRM-es, early acces-t benchmarkolta, amivel kapcsolatban a CDPR kérte, hogy senki ne csináljon ilyet, mert félrevezető lesz, lévén a Day1 állapot eltérő lesz ettől, ezt szegte ugye meg a Tom's Hardware. A másik lehetőség, hogy az nVidia már bír a Day1 patch-el és DRM nélküli verzióval, de idő előtt tették ki az eredményeket.
-
Cifu
félisten
válasz
gabo423
#35294
üzenetére
Dlss nélkül a 3080 is kevés wd legion alatt 4k-ban.
De van DLSS, szóval mégis csak elég 4K-ban a 3080.
A történet viszont arról szólt, hogy DLSS nélkül is jobb a RT terén az Ampere család, mint az RDNA2.Majd jön az amd saját megoldása és szerintem lesz ez még jobb is bőven.
Nyilván fejlődni fog mindegyik gyártó megoldása (én mindig igyekszem rámutatni, hogy három gyártó van, ott van az Intel is), de a jelen helyzet az, hogy az nVidia egy generációval van RT és AI alapú képjavító technológiák terén is az AMD előtt. Ez esetben a nyers erő az, ahol az AMD per pillanat vezet. Ez azért szokatlan, mert a korábbiakban általában az ATi / AMD volt az, amely új technológiák, innováció terén többet tett le az asztalra, és az nVidia volt az, amely inkább nyers erőből oldotta meg a problémákat. -
-
Cifu
félisten
#35196 Cifu : Mit zárok ki pontosan, hogy még hónapokig nem lesz elég mennyiség? Bőrkabátos mondta a legutóbbi pénzügyi beszámolón. Ha gondolom tudja, hogy lesz, akkor nem mond ilyet.
Egy termék startja után egyébként másfél hónap kell az ellátás normalizálódásáig. Ez mindig így volt, akkor is, amikor szarták a VGA-kat a piacra, ennyi idő kell a raktárak feltöltésére. Ha másfél hónap után nem normalizálódik az ellátás, akkor vannak gondok.
Te állítod, hogy az RTX 3060 Ti rajta alapvetően arról szól, hogy elvonja valamennyire a figyelmet az RX6900XT-ről.
Megkérdezem, hogy ugyan miért zárod ki, hogy egyszerűen csak elindítják még simán az RTX3060Ti-t, minden összeesküvés-elmélet nélkül, pusztán azért, mert ott van.
A válasz: de nem lesz elég mennyiség.Ezzel az erővel miért indították el az RTX 3080-at? Miért indították el az RX6800(XT)-t? Abból sem lesz elég mennyiség.
-
Cifu
félisten
Nincs is. Meglátod, hogy mire lesz 3060 Ti elég mennyiségben már január közepe lesz. Egyszerűen az ünnepek alatt a szállítások is eléggé limitáltak.
Ezt nehéz értelmezni, mert semmiből sincs elég mennyiségben. Sem az Ampere-ből (egyikből sem), sem az RDNA2-ből. Az RTX3060Ti kártyák dobozairól már voltak képek legalább, tehát remélhetőleg valamilyen szintű mennyiség mégiscsak lesz belőle.Ez a bemutató elsődlegesen annak szól, hogy a 6900 XT mellett legyen valamiről beszélni. Ne azt nézze a piac, hogy a 6900 XT mit tud.
Megbocsáss, de ezt nehezen tudom megint értelmezni. Az RX6900XT egy héttel az RTX3060Ti megjelenése után érkezik. Ráadásul két teljesen más piaci szegmenst fednek le. Mintha a VW úgy akarná ellopni a showt egy Mercedes S-osztály bemutató elől, hogy bemutatja az új Polo-t. Egy héttel korábban... -
Cifu
félisten
[Érdekes adalék egy hsz.-ben.]
"Viszont az is érdekes, hogy a kaliforniai San Jose-ban az NVIDIA raktára állítólag csurig van FE kártyákkal..
A berlini NV központban sem értik a helyzetet ami kialakult. Nekem egy ott dolgozó nagyon kedves ember segített úgy, hogy rendelt magának egyet amit megkaptam tőle.(kettő héttel ezelőtt) Innen az infó arról, hogy meg ők sem értik miért lőtték le az értékesítést." -
Cifu
félisten
Akkor most viszont magadnak mondtál, mondasz ellent.
Azt mondtad, hogy nem jön az RX6700, mert nincs értelme.
Majd azt, hogy decemberben nem szoktak olcsóbb VGA-t kiadni. Az olcsóbb pedig akkor szerinted 300$ alattit jelenthet.Csakhogy az AMD-nél 300$ alatt az RX*500 és RX*600 széria volt. Nem az RX*700 széria.
Ha csak valami keverés nincs, és az RX5700 utódja nem esik egy lépcsőfokot az árrégió terén (amivel amúgy oltári nagy szakadék lenne az RX6800 és az RX6700(XT) között), ez azt jelenti, hogy az RX6700 sem fog 300$ alatt jönni.Arról már nem is szólva, hogy eddig az MSRP-ről beszéltem, valójában viszont per pillanat csak jóval az MSRP felett lehet kártyákat venni. AMD oldalon még úgy se.
-
Cifu
félisten
Arról szóltak a pletykák, hogy a Stadia Gen2 (vagy hívják akárhogy is) már Ray-Tracing képes lesz, tehát a Stadia marad az AMD-nél a felvetésed szerint? Mert akár hogy is nézem, a probléma az, hogy egy exkluzívan GCN-re írt alkalmazás (ie.: Vega-n fut) és egy RDNA2-őn futtatni is olyan sima dolog? Főleg, hogy elvben még nincs Gen2 (most leginkább 2021 elejére várják), így ez esetben például a CDPR-nek a Vega verziót is meg kell csinálnia, meg majd (ha akarnak Ray-Tracinget) egy RDNA2 verziót is...
Csak mert így nem jön ki a lépés. A Ray-Tracing (DLSS nélkül) nem fog 16 játékossal megoldható lenni egyetlen AMD GPU-n sem. Szerintem...
-
Cifu
félisten
válasz
Busterftw
#35159
üzenetére
Szóval azt mondod, hogy a felhős szolgáltatóknak eladott gyorsítók a Data Center rublikához tartozhatnak? Lehet benne valami.
A Stadia terén csak tippeltem, de ugye nyáron bejelentették, hogy a Google Cloud nVidia A100-asokra támaszkodik a jövőben. A HPC-ből tippeltem arra, hogy esetleg a Stadia terén is alkalmazásba vehetik ezeket. -
Cifu
félisten
válasz
Raymond
#35157
üzenetére
Úgy tűnik valóban.
[Itt egy másik, részletesebb magyarázat.]
Hozzáteszem, hogy szinte az összes HW oldal a Bitcoin.news oldalt idézte, szóval ezzel most jó sokan megégették magukat. -
Cifu
félisten
@ b. :Tényleg érdekelne, tőled , mert tudom hogy te is és gbors is reálisan szoktatok gondolkodni: hogy szerinted Nvidia azt az átlagban 150,000 Ampere kártyát( ami akár 200.000 is lehet) miért nem a gamer piacra zúdította.
Röviden: feltehetően magasabb áron adott túl rajtuk, mintha a nagykereknek / kiskereknek adták volna el. Mint említettem, üzleti döntések terén általában jó az nVidia... (ami nekünk kevésbé jó...).175 millió dollár nélkül is amúgy rekord negyedévet zártak volna, ha láttad a most kiadott negyedéves jelentésüket. Totál ellentétes minden logikával ez a lépésük, ha csak nincs a háttérben megegyezés...
Sajnos nem volt részletezve a pénzügyi jelentésükben, hogy a Gaming szekció pontosan hogyan is áll bevételek eloszlása terén. Én élek a gyanúval, hogy nem a DIY (miner) piac határozta meg, hanem inkább a cloud gaming cégeknek (a Stadia-t is futtatja fel a Google, a GeForce Now is kezd egyre inkább magához térni) illetve a laptopok rekordszintű eladása (amelyek elsöprő többségében még mindig MX vagy GTX/RTX szériás dVGA kerül).Innen nézve pedig azt feltételezem, hogy az Ampere eladásoknál igenis méretes szelet volt az a 175 millió dolláros ügylet.
Ehhez pedig az, hogy az AMD mit csinál, pont nem érdekli őket.
Ha az AMD tud elegendő versenyképes kártyát eladni, akkor majd reagálnak rá (itt ismét arra mutatnék rá, mennyi pletyka volt az RTX 3080-as kapcsán, 20GB-os változatok terén) vagy megvárják a jövő év elejét.Mivel anyagilag igen jól állnak, megtehetik ezt, mert legfeljebb a döcögös indulás után majd idejekorán hoznak egy Ampere refresh megoldás-családot (16GB-os RTX 3070, 20GB-os RTX 3080 és társai).
-
Cifu
félisten
-
Cifu
félisten
válasz
cyberkind
#35129
üzenetére
Egyfelől "legalább", másfelől "közvetlenül".
De számoljunk mondjuk 1000$-os árral, és csak a 175 millió$-al, akkor ez egyenlő 175 ezer VGA kártyával. Itt a probléma, mert ezek a kártyák így nem kerültek a hagyományos kereskedelmi láncba, vagyis ennyivel kevesebb jutott a polcokra. -
Cifu
félisten
Elmebeteg árak vannak, és így, hogy az RDNA2 is hiánycikk, csak még jobban húzza fel az árakat az alacsonyabb kategóriában is (ugye a Turing gyártását elvben befejezték még nyáron...). Félek nagyon, hogy a 3060Ti lehet a bányászok új favoritja, és így, hogy a bitcoin megint az egeket verdesi, még értelme is lehet ráfeküdni megint a bányászatra...
-
Cifu
félisten
Ha valóban ez a probléma, akkor viszont az nVidia miért állapított meg olyan alacsony MSRP-t, ahol az AIB-k számára nem éri meg a gyártás? Az nVidia se lehet olyan hülye, hogy veszteségbe kergesse a partnereit. Ha teszem azt az RTX 3080 MSRP-je 100$-al nagyobb lett volna a kijövetelkor, akkor az AIB cégek elegendő nyereséget realizálhattak volna a megfelelő szintű gyártáshoz. Amint látjuk, úgy is el lehet adni őket...
BTW ezek alapján már az októberi CEO nyilatkozat is arról szólt, hogy a GA103 érkezéséig hiány lesz az Ampere-ből?
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Samsung Galaxy A56 - megbízható középszerűség
- Azonnali informatikai kérdések órája
- Villanyszerelés
- Okosóra és okoskiegészítő topik
- One otthoni szolgáltatások (TV, internet, telefon)
- Milyen okostelefont vegyek? OFF topik
- Parkside szerszám kibeszélő
- Microsoft Excel topic
- Elektromos autók - motorok
- Kuponkunyeráló
- További aktív témák...
- NVIDIA GeForce RTX 3080 FE - Founders Edition 10GB GDDR6X
- RTX 5000-ES SZÉRIA ÚJONNAN GARANCIÁLIS ELADÓ TERMÉKEK! 5050, 5060, 5070, 5080, 5090.
- PC bontás - Thermaltake ház, Fsp 650W, GIGYBYTE AB350M, AMD RYZEN 5 1600x, 16GB DDR4 3000, GTX 1080
- EVGA GeForce RTX 3080 FTW3 ULTRA GAMING 10GB GDDR6X (10G-P5-3897-KR) Videokártya
- 27% - GIGABYTE RTX 3080 Ti OC 12GB GDDR6X GAMING Videokártya! BeszámítOK
- Azonnali készpénzes Sony Playstation 4 Slim / PS4 Pro felvásárlás személyesen/csomagküldéssel
- Ikea Eilif Paraván, asztali elválasztó
- Mio Star 8750B Automata kávégép 6 hónap Garancia Beszámítás Házhozszállítás
- BESZÁMÍTÁS! Apple iPad Pro 13 2024 M4 16GB/2TB WiFi tablet garanciával hibátlan működéssel
- HP EliteBook 850 G7 (15.6") i7-10610U - Garancia, Akció!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest












