Hirdetés
- Hogy is néznek ki a gépeink?
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Kompakt vízhűtés
- AMD Navi Radeon™ RX 9xxx sorozat
- Apple MacBook
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Házimozi haladó szinten
- Bluetooth hangszórók
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- TCL LCD és LED TV-k
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
b.
félisten
válasz
Komplikato #37297 üzenetére
Szerintem a CPU-n is és annak a hűtésén is spórolnak vele, nem csak a deszkán. Mehet mellé bármilyen ótvar Celeron. Ha forgalomi kisker ára 70$ lenne a twitter szerint, akkor valószínűleg a Lenovónak kb 30 ba fáj. 30W szóval igazából semmi hűtést nem igényel. Kettő HDMI kimenete van.
-
b.
félisten
válasz
Komplikato #37294 üzenetére
Lenovónál ezek ilyen irodai kis szarokba mennek. Gondolom IGP nélküli alap CPU mellé való.
-
Devid_81
félisten
válasz
Komplikato #37294 üzenetére
A Vega8 erosebb az 5700G-ben
-
b.
félisten
-
Jacek
veterán
Értek én mindenkit a problémám hogy ez lofacal lesz gyorsabb mint a 3090-en
Szerintem mérési határon belül lesz az 500W biosal 21.5-on ketyegő memorivál futó 3090 Suprimomnál, Tom nem én vagyok a célközönség. -
b.
félisten
válasz
Alogonomus #37289 üzenetére
Nem az AMD től való pánik és rettegés van ez mögött, hanem a pénz.
-
-
warcat
veterán
Pedig nincs nagy rejtély, 2GB modulok használata miatt csak egy oldalon lesznek memóriachipek(nem fől meg olyan könnyen) + még több pénzt el lehet kérni a chipért amiből 3090 lett volna.
Gyakorlatilag az eladott 3090-ek átlagárát feljebb tudják húzni vele.Az ETH gyengélkedése persze most beletojt a palacsintába szerintem, a várható kereslet és az elkérhető felár is csökkent.MSI-nál erős bosszankodás lehet a bekészített 3090 Ti Suprimek miatt, gondolom a minimum egy BIOS flash lesz.
-
Jacek
veterán
válasz
KillerKollar #37283 üzenetére
Egész kártyát nem értem
-
KillerKollar
őstag
válasz
warcat #37284 üzenetére
Ebben az esetben is mondjuk a minimum, hogy kiadnak egy közleményt, hogy bocsi, azt ígértük, hogy januárban jön az infó, de csúszunk. Ez olyan mint amikor nemrég a Samu bejelentette, hogy x időpontban leleplezik az új Exynos chip-et, aztán az esemény elmaradt csak épp elfelejtettek szólni
-
warcat
veterán
válasz
KillerKollar #37283 üzenetére
Nyilván igaznak minősíthető a pletyka hacsak a következő órában nem jön valami.
-
KillerKollar
őstag
Nem úgy volt, hogy még január folyamán jönnek a részletek a 3090 Ti-ról? Január 31. van kedves Nvidia
-
Cifu
félisten
@b.: az nVidia Shield, de még a Shield Pro sem nyújt semmi extrát egy HDMI 2.0 képes HTPC-hez képest. Előrelépés az RTX 3050 / RX6600 lenne, amelyek viszont méregdrágák és overkillek a feladatra. Kisebb teljesítményű, 4K@120Hz képes kimenettel bíró dVGA pedig nincs...
@Komplikato: Kár, hogy csak DP kimenete van, de nagyon szépen köszönöm az ötletet, elkezdek ebbe az irányba is vizsgálódni...
-
b.
félisten
-
Cifu
félisten
válasz
paprobert #37275 üzenetére
Erre a célra az Intel kisebb VGA-i lesznek a befutók, szerintem.
Ha egyszer az életben kijönnek.
Egyébként jött már az AMD-től az általad áhított kártya, bő egy hete. Csak négyszeres áron, modern videó képességek nélkül...
Nem igazán, mert nincs belőlük Low Profile, ahhoz kapcsolódon nincs belőlük külső tápcsati nélküli. Talán az RX 6400-ból lesz LP változat (ill. külső tápcsatit nem igénylő), de az meg csak OEM. Plusz az említett okokból HTPC-be nem annyira nyerő választás a kis AMD, hiszen pont a videólejátszás lenne a lényege.
Ilyen téren az utolsó piadon is kapható vörös kiadás az RX 560 volt, HDMI 2.0, 4K@60Hz képességgel.Az IGP lenne papíron a jó döntés eme célra, de sem az AMD, sem az Intel nem adott ki olyan IGP-s procit, ami 4K@60Hz-nél többre képes (mint kiderült az Alder Lake IGP-je sem tud többet). Igen, az AMD majd egyszer, valamikor ad. AM5 + DDR5 mellé. Az értelmes ár/értékű változatok 2023-ban. Talán.
Kabarénak is erős, ami ma a PC hardware terén megy...
-
Cifu
félisten
Mondjuk lehet nem ártana egy kisebb teljesítményű Ampere, mert az xx30-as széria évek óta el van hanyagolva, a GT 1030 óta nem jött ki oda semmi. Persze, az AMD sem hoz ki oda semmit jó rég óta, de ettől még szemforgató, hogy normális HTPC alkalmas dVGA (ie.: 4k@120Hz képes HDMI-n) nincs...
-
GeryFlash
veterán
válasz
Petykemano #37270 üzenetére
A Joisten irgalmazzon meg minket attól hogy akár az AMD CPU-i GPU-i vagy az Nvidia GPU-i Samsung nodeon készüljenek. Elég kárhozat így is hogy kost ezt a retek faceID-s iPhonet kell használjam mert Androidos flagshipet évek óta nem tudok venni hála a teljesen inkompetens Samsungnam aki évek óta képteken egy normális gyártástechnológiát lerakni. Akkor inkább fussunk neki megint TSMC 7 vagy 6 nm-en, azzal is sokkal beljebb vagyunk. Állítom ha a Qualcomm csinálna egy flagship snapdragont N7-en akkor jobb lenne a perf/watt mint a gátlástanul 4nm-nek hazudott Samsgung 5nm-en.
Maximum az ilyen 1030/3050 utódok menjenek ott de inkább az se, semmi se, gyártsanak autóba chipet csak a leading edge technologiaval foglalkozó cégeket hagyják. -
b.
félisten
válasz
Petykemano #37270 üzenetére
Két féle információ van, ezek nem feltétlenül kizárják hanem talán inkább kiegészítik egymást. Az, hogy ebből HPC oldalon speciális interposerrel kettő darab összekapcsolható. Greymond annyit írt hogy ez nem lesz MCM. Kérdés hogy arra értette e hogy nem lehet összekapcsolni vagy csak erre a modulra írta ezt, természetesen nem fejtette ki. A kisebb Hopperek viszont MCM- dizájnnal lesznek.
Szinte teljesen kizárt hogy samsung, ez szerintem hogy TSMC. Nvidia professzionális szegmenst nem gyártotta máshol ,a lehető legjobb technológiára alapoznak. A kisebb Hoppereknél és az Ada-nál ( ha az lesz a neve és monolitikus lesz) meglátjuk, de szerintem marad az is TSMC.
Az Ampere szerintem megmarad a kisebb SKU nak, mondjuk egy 3080( akkor már 4060) megy a Samsung 5 nm-re. ilyen vegyes generációra számítok a következőkben, mert biztos hogy ne. tudjak megoldani első körben a teljes paletta lefedését. -
Petykemano
veterán
Most én nem értem, hogy MCM lesz-e vagy sem.
Az világos, hogy az 1000mm2 az nem. De az nem egyértelmű, hogy azért ebből lesz-e 2x1000mm2 mcm?Bár nincs szó arról, hogy ez, vagy bármi ehhez hasonló a samsungnál készülne, de én azért megpendíteném, hogy ha mégse lesz mcm, akkor nem mégis a Samsung 5nm-en készül-e.
A samsungnál ugyanis nem igazán lehet tudni, hogy milyen 3d vagy más advanced packaging technológia készül. Ha készül.
[link] -
b.
félisten
[Nvidia's Mysterious GA103 GPU Pictured]
GH100 = 1000m2, wtf.
[link]És nem MCM, monolitikus. [link]
3D center: [link]
szerint ez egy mag / részeség csak a kettőből, 2000mm2 fölött van- "Hopper" architecture
- 5nm TSMC
- MCM with 2 dies
- per die slightly less than 1000mm²
- 16 GPC, 288 SM, 18'432 FP32
- probably HBM2e interface
- 1xxxW consumption
- HPC onlyCorrections: 16 GPC, 288 SM, 18'432 FP32 is overall (8 GPC, 144 SM, 9216 FP32 per die). 1xxxW consumption looks as well overall (for 2 dies). MCM with 2 dies ... should have a "(?)" at the end.
a Hopper MCM lesz de a GH 100 nem, úgy néz ki csak összekapcsolható interposerrel de önálló. -
LK
addikt
válasz
huskydog17 #37254 üzenetére
Jó, hogy átnéztem ide a topicba. Yt-on megnéztem az első két videó összehasonlítást (találomra) és a 3050-et jóval gyorsabbnak mutatta. Jól összeválogatott játékokkal és beállításokkal bármit össze lehet hozni.
-
Devid_81
félisten
Veszelyben a Hopper nev az NVIDIAnal.
Meg a vegen fel kell vasaroljak kilora azt a mocsok parabola gyartot -
Petykemano
veterán
válasz
FLATRONW #37252 üzenetére
Biztosan okoz. Kábé annyit, mint amikor a 4x Pcie-s kártyát beteszed PCie3-as alaplapba.
a HWBU a videós tesztben megemlítette, hogy ritkán, de előfordult , hogy egy tesztet kétszer vagy háromszor kellett lefuttatnia, és nem a 4GB VRAM miatt, hanem mert amíg sikerült a szükséges adatokat beolvasni - az első futás során - addig dadogott.De azért szerintem van különbség a kettő között. Az első PCIe3-as alaplap 2011-ben jelent meg. még a felsőkategóriának nehezen nevezhető 2015-ös R7 360 is (ami persze átnevezett termék) 16x széles PCIE3 busszal rendelkezett! A PCIe4 platform szinten a felső kategóriában 2019-ben jelent meg, az olcsóbb termékek (alaplap/cpu) még talán ma is PCIe3-mal jelennek meg. Még a 2022-es Barcelo is csak PCIe3 (ráadásul csak 8x széles). Tehát még bőven forgalmaznak a gyártók régebbi szabvánnyal rendelkező platformokat, de már a megjelenést követő két és fél évvel elkezdik szűkíteni a sávok számát.
Valószínűleg a PCie5-tel is ugyanez lesz.
Egyébként azt nem értem, hogy .... azt értem, hogy azért PCi3 a PCIE4 helyett, és azért x4 vagy x8 a nagyobb helyett, mert spórolnak. De igazán megtehették volna azt a szivességet, hogy a CPU/MB terén és a GPU terén egységes spórolási metodikát alkalmaznak, nem pedig azt, hogy a platform terén spórolunk a szabvánnyal a fogyasztás miatt, a GPU-k terén pedig spórolunk a busz szélességgel a lapkaterület miatt, mert így épp a legrosszabb kombinációk jönnek ki. -
b.
félisten
válasz
janos666 #37261 üzenetére
Igen a DLSS Quality ment nálam is. hát a 120 Hz/ FPS az elég necces dolog manapság még. nekem sem annyin ment ,a stabil 60 ra törekedtem, az sem sikerült mindenhol de többnyire G-sync tarományon belülre esett. Úgy nem zavart,de szerintem azt a játékot RT vel kell játszani.
-
janos666
nagyúr
A CP-t én az RTX3080-ason (legelőször még egy 3090-el próbáltam ki, és az sem volt érezhetően más szint) Quality DLSS-el toltam a 2160p120 kijelzőn (tehát effektíve 1440p-ben). Ez még elmegy, de Balanced, vagyis 1080p->2160p módban már zavaró számomra a DLSS (egyrészt már meglátszik rajta, hogy messze nem natív 4k, plusz sokkal feltűnőbbek az artifact-ek, és ami legrosszabb, hogy már mesterségesen túlélesítettnek érződik számomra a kép), és RT nélkül, na meg a leginkább teljesítménybüntetőbb grafikai opciókat 1-2 lépcsővel a max alá állítva (átfutottam egy tesztet, hogy melyik opció milyen állásokon milyen fps változást jelent és "optimalizáltam"), és még így sem érte el szinte soha a 120fps-t, ha jól rémlik képes volt itt-ott benézni akár 60 alá, egy olyan 80 körüli jellemző átlaggal.
Tehát, hogy úgy mondjam, RT nélkül is kicsit kompromisszumos volt a dolog (az akkori csúcs 3090 kártyán is). Se a grafika nem volt kimaxolva, se a 120Hz, se a 4k (csak DLSS-el).
Én nem akarok se "konzolparaszt" ~40fps-el játszani pár extra tükröződés/fényefektért cserébe (mikor még csak 60Hz volt a max kijelzőm, akkor mindig ragaszkodtam a stabil 60fps-hez), csak 80 körül vagyok boldog (de persze még onnan is erősen érezhetően jobb a stabil 117, csak azért tudni kell lemondni pár dologról, vagy "tudom, vegyek 2x3090-et"...), se egy "műanyagélesített" 1080p képet nézni a 2160p kijelzőn Balanced DLSS-el.
A szőr feláll a hátamon, ha érezhetően mesterségesen élesített képet látok (vagy mikor 60 alatt van fps). -
b.
félisten
válasz
janos666 #37259 üzenetére
Szerintem a kommented első és második fele ellentétben van.bizonyos szemszögből.
Anno Cifu-val sokat kommenteltunk erről,mert ő is és én is DLSS segitsegevel toltuk végig a CP2077 jatekot azert,hogy a raytracing aktív legyen.RT nelkul egy mas jatekot kapsz grafikaban es a 2070 nel az RT +DLSS sokkal jobb látványt adott mint a natív DLSS nélkül.ide is sok kep lett feltolva igy. [link]
Az RT teljesen jo kisebb kartyakon DLSS segitsegevel,ha valoban latvanyos,lasd CP,Metro,Control. -
janos666
nagyúr
Az RTX szerintem ma csak a 3090 SLI (nVLink) konfigokhoz való. Egyébként többet ér az ember a felbontás (mind natív-, mint render-) növelésével (ami ma 4k kijelzőt takar, mint optimum, és DLSS-el sem érdemes 1440p/Quality render felbontás alá menni), mert nincs más mód a durva aliasing eltüntetésére (MSAA már nincs, és minden post-process AA maszatol/artifact-el).
De a DLSS valóban jól jön még az egykártyás 3090 konfighoz is, ha 4k-s a kijelző, a lassabb kártyákkal pedig nyilván kisebb felontású kijelzőkhöz is (tehát a 3050 esetében már 1080p-hez is).
-
Yutani
nagyúr
válasz
huskydog17 #37254 üzenetére
A nyerő lottó számokat légyszi!
-
b.
félisten
válasz
huskydog17 #37254 üzenetére
sajnos így van. Mondjuk az 1660 hoz annyi hogy van DLSS és RTX + 2 GB ram
-
huskydog17
addikt
Tehát röviden tömören: az RTX 3050 a GTX 1660 Super tempóját hozza, legfeljebb pár százalékkal gyorsabb. Az RTX 2060 tempóját nem tudja megközelíteni. A világért se akarok megmondó ember lenni vagy ilyesmi, de én megmondtam.
-
FLATRONW
őstag
válasz
Petykemano #37251 üzenetére
Azért arra kíváncsi lennék, hogy egy PCIE 2.x alaplapban mennyire fogná vissza a teljesítményt egy ilyen x8 vagy x4-es kártya. Nekem például olyan van. Szerintem ott már a 8 GB sem segítene.
-
Petykemano
veterán
válasz
Yutani #37250 üzenetére
8GB-os kártya esetén szerintem eddig nem volt vizsgálódás tárgya, hogy milyen hátrányt okozhat a PCIe3, ha csak 8x a busz szélessége. Az 5500XT esetén is csak a 4GB-os modell esetén ment a fanyalgás, hogy a 4GB okozta limiteket mellett a csak 8x széles PCIe3 busz csak fokozza a dadogást
-
Sonja
nagyúr
-
janos666
nagyúr
-
Busterftw
nagyúr
válasz
Devid_81 #37240 üzenetére
Engem erdekel az RT, de erre mindig is extrakent tekintettem, amiben jobb az Nvidia.
A DLSS szinten, de a DLDSR, DSR es ezektol agyfaszt kapok, egyszeruen nincs kapacitasom ilyen marhasagokkal kiserletezni, akkor most le vagy fel skalazunk itt, 1440p monitoron 4K-ra fel aztan vissza, 2.5x legyen vagy 1.5x esatobbi.
Nativ aztan kesz. Ha nem eleg a vas akkor visszaveszek a beallitasokbol.KillerKollar
Ha coop lenne meg haverokkal belevagnek, egyedul nekem az tul felelmetesb.
Control whishlisten van, lehet megnezem, koszi.Drizzt
A regi Doomokat imadtam, de az ujak valamiert nem fogtak meg.
Ez a megyek/ugralok es lovok/utok nem jon be. Felnottem ugy nez kiMost latom lesz RT a Dying Light 2-ben (megjelenes jovohet pentek), az instabuy lesz, az elso reszbe is beletoltunk sok orat.
-
Devid_81
félisten
válasz
Busterftw #37239 üzenetére
Szomoru vagyok, pedig a legtobb NV-s ezzel jon fel az AMD ellen, hogy RT...es a legtobb NV-s nem hasznalja az RT-t amugy, en sem tettem, nem erdekelt
En is amig 2080Ti-m volt csak a DLSS-snek orultem, ingyen FPS, kesz, a tobbi nem erdekelt
Viszont a DLSS-el meg a legtobb bajom a mai napig az az, hogy alig van jatek amivel jatszanek es epp tamogatott is, raadasul nagyon sokszor olyan jatek kapja meg a DLSS-st ami eleve elment a kenyerpiriton 100FPS-el...nah most annak tok hiaba sztem a DLSS...
De mar regen neztem ra a listara, lehet egesz jo mar tavaly Augusztus ota -
b.
félisten
válasz
Devid_81 #37236 üzenetére
Radeonokkal nincs tapasztalatom, de Nvidiánál a Gaming és a Sumprim minden genben jónak számított eddig. [link]
Itt nem 300 W -tal hanem custom BIOS sal akár 450 wattal is elbír .Az RTx 3090 ben a low temp bios az 300 W és a gaming az egyik legjobb hőfokokat tudja az EVGA után.( 67 fok) -
b.
félisten
[link]
Nvidia Subwarp .
6-20+% gyorsulást hozhat RT alatt majd valamikor. -
westlake
félisten
-
b.
félisten
Láttam ezeket az extra BIOS okat a normal mellett jól kitolja a TDP limitet.
ÉN már egy ideje az MSI kártyáira esküszöm amúgy, elég jól megtervezik az összes kivitelt. Az EVGA a kedvencem de s beszaladnak a málnásba egy pofonért már 3 generáció óta, hibáznak elég nagyokat. Mondjuk amíg ilyen szupportjuk van, addig azt mondom, megéri bevallalni. -
Alogonomus
őstag
Jó, most lehet vitatkozni azon, hogy az 500 watt az csak a limit, ameddig elenged(het)i a kártyát a speciális BIOS, de valójában jellemzően csak mondjuk 475 wattig megy el a kártya. A lényeg az, hogy 450 watt fölött is elég lehet a léghűtés, és nem is kell 5 kilós hűtő hozzá.
-
GeryFlash
veterán
-
b.
félisten
válasz
Alogonomus #37226 üzenetére
Nincs 500 W-os rtx 3090.
-
Alogonomus
őstag
válasz
Yutani #37225 üzenetére
Egy hibrid hűtéssel azért nem lehetetlen megoldani, amilyen az EVGA Hybrid, vagy a Sapphire Toxic. EVGA még léghűtéssel is megoldotta az 500 wattos RTX 3090 FTW3 üzemelését.
Egyenlően kettéosztva már a 300-300 wattot el lehet hűteni, és a folyadékhűtésre jutó hő a gépházból is kimenne azonnal. Bent pedig csak a másik 300 watt maradna, amennyit most is simán termel egy kártya. -
janos666
nagyúr
Látatlanban szerintem is annyiból fog állni a generációváltás, hogy csak kb. annyival nő a teljesítmény, mint a fogyasztás és az ár. Az Amperve-vel ellőtték az összes puskaport, ami a Turing után maradt ("okosabb CUDA mogok"), és még ráadásként már akkor elkezdték ezt a növelt áramfelvétel trendet is (maxra húzták az órajeleket az optimális helyett, hogy jobban mutassanak a benchmark-ok az AMD ellenében). Innen nem látom, hogy idén hova lépnének tovább anélkül, hogy egyre nagyobb (és így drágább) lenne a GPU és egyre többet fogyasztana. A nagy csodára, hogy újra optimálisra legyen lőve az órajel és a fogyasztás úgy, hogy még mindig jó a teljesítmény (valami új "csoda trükk" a "CUDA magokkal") szerintem még várni kell 1-2 generációt. Ez csak egy Ampere-v2 lesz, ha úgy tetszik "gyári tuning"-al. Nem olyan, mint a Maxwell és Pascal, vagy a Pascal és Ampere közt volt.
-
KillerKollar
őstag
3090 350W 3090 Ti 450W, de teljesítményben a +10% sem lesz meg szerintem, + 2SM, kicsit felhúzzák az órajeleket és kész, nem fog lineárisan skálázódni, ez részben a lehúzásról szól, hogy feltolják az árakat, részben tesztelgetni akarják, hogy mennyire életszerű egy 450W-os GPU mielőtt megpróbálnák piacra dobni ezeket az 500-600 wattos csodákat. Szerintem amúgy semennyire nem az, nekem amúgy egy 250 wattos 2080 Ti kinyírta az NVMe SSD-met mert túl közel volt hozzá és nem bírta a meleget, a következőt már egy másik slotba raktam ami messzebb van a GPU-tól. Egy 600 wattos GPU-ra 1.) akkora hűtést kell raknod, hogy nincs az a gépház/alaplap amin normálisan elfér (hacsak nem fix vízhűtéses az összes modell), 2.) oké, hogy lehűtöd a GPU-t de azt a meleget nyomja be a gépházba, alaplap, SSD, RAM, minden kapja majd szépen aztán csodálkoznak majd a népek, hogy sorra pukkannak el a komponensek, mert nem bírják a 600Wnyi hőt + ha még beteszel mellé egy 300 Wattos Raptor Lake i9-est mondjuk, az is szép lesz.
-
b.
félisten
nem tudják még melyik modell éri el a 600 wattot a 4090 vagy a 4090 TI, meg azt gondolom hogy ez más generáció váltás lesz , mint az eddigiek. nem tartok kizártnak egy 3 GPU családból álló gent Samsung + TSMC alapon. lesz Ampere+ Ada+ akár behozhatják a Hoppert is kísérleti csúcs GPu nak. Ki tudja mi lesz itt?
Ha az Amperet nézed a jelenlegi 3090 350 W a 3090Ti 450 W hatalmas lépcső van köztük.
a 3060 170W( 38%) 4060=200-220 W
3060 Ti 200 W (44%) 4060Ti =240-270W
3070 220 W(48%) 4070= 280-300W
persze ez így hülyeség szerintem, csak leírtam -
maajsz
senior tag
Reméljük, hogy így alakul. Akkor én értettem félre a 600W-os ajánlott PSU-t TDP-nek
. Jelenleg a 3060 Ti-vel éppen elvagyok, bár inkább egy 3080 szintet szeretnék de a mostani áron még passzos. Nem tudom dobnak e le 60 Ti-t most is a 4070-el együtt, akkor egyenlőre úgy tűnik, hogy inkább kivárom.
-
b.
félisten
válasz
maajsz #37216 üzenetére
Szerinten érdemes lesz ezzel megvárni azért a megjelenést. Anno a Vega 64 is 600 wattos tápot igényelt papíron itt meg a csúcs szörny alatti SKu-k hozhatnak szép perf / watt előrelépést. Mondjuk egy 4060Ti -4070 ha hozza a 3090 kártya teljesítményét 200-250 W-ból én elégedett leszek.
-
b.
félisten
válasz
KillerKollar #37213 üzenetére
hehe
-
huskydog17
addikt
Hm...a 3DMark TimeSpy szerint igazam volt az RTX 3050 sebességét illetően.
Nyilván ez szintetikus teszt, nem szabad semmilyen következtetést levonni belőle, holnapután kiderül a lényeg.
Bányászat szempontból is van némi remény. -
janos666
nagyúr
Igen, csak személyes nyűgöm az, hogy TDP limiten járnak a komolyabb dedikált kártyák.
(Tisztelet az EVGA kivételnek, de ők nem árulnak full-cover water-block modellt értelmes áron.)
Szeretném, ha a komolyabb kártyákon lenne egy valag PCI-E tápcsati, nem lenne szúkös TDP keret, és csak a temp limit korlátozná őket. Akkor simán lehetne azokon is értelmesen használni az ilyen feature-öket, mint a command precessor (és még tuningolni is lehetne őket).
Mondjuk bányászni mindegy (és a kátyáim nagyobb része arra van), de játkok esetében én erre fogom a micro-stutter és random framerate-drop jelenségeket.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Fűnyíró topik
- Samsung Galaxy S21 és S21+ - húszra akartak lapot húzni
- Miért álltak az oldalak egy hétig, mi történt?
- Hogy is néznek ki a gépeink?
- PROHARDVER! feedback: bugok, problémák, ötletek
- Mobil flották
- Allegro vélemények - tapasztalatok
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Békéscsaba és környéke adok-veszek-beszélgetek
- Hivatalos a OnePlus 13 startdátuma
- További aktív témák...
- EVGA GeForce FTW3 ULTRA GAMING RTX 3070 Ti 8GB GDDR6X 256bit Videokártya
- ASRock Radeon Challenger Pro RX 6700 XT 12GB OC
- !!Újszerű!! AsRock RX 7700XT 12GB /Jótállással!/Szép állapotban!/Beszámítás! Posta ok!
- !!ÚJSZERŰ!! Gigabye Aero RTX 4070 Super 12GB /Jótállással!/Beszámítás!/Posta ok!
- Videokártyák
- Telefon felvásárlás!! Honor 90 Lite/Honor 90/Honor Magic5 Lite/Honor Magic6 Lite/Honor Magic5 Pro
- Bomba ár! HP Pro X360 11 G1 - Intel N4200 I 4GB I 128GB SSD I 11,6" HD Touch I Cam I W10 I Gari
- Telefon felvásárlás!! Xiaomi Redmi Note 10, Xiaomi Redmi Note 10s, Xiaomi Redmi Note 10 Pro
- Telefon felvásárlás!! Samsung Galaxy A13/Samsung Galaxy A33/Samsung Galaxy A53
- Tablet felvásárlás!! Apple iPad, iPad Mini, iPad Air, iPad Pro