- Kábeleket és csövezést rejtő "kirakatház" a GameMax logójával
- Felvarrták az Arctic rackmount rendszerekhez szánt CPU-hűtőjének ráncait
- Háromféle kivitelben, és nem kis kapacitásokkal jönnek a Micron 6550 ION SSD-i
- Már a Samsung sem szolgálja ki modern AI lapkákkal Kínát
- Havazáshoz igazított kiadás kap a Steam Deck OLED
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Petykemano
veterán
válasz Yutani #37250 üzenetére
8GB-os kártya esetén szerintem eddig nem volt vizsgálódás tárgya, hogy milyen hátrányt okozhat a PCIe3, ha csak 8x a busz szélessége. Az 5500XT esetén is csak a 4GB-os modell esetén ment a fanyalgás, hogy a 4GB okozta limiteket mellett a csak 8x széles PCIe3 busz csak fokozza a dadogást
Találgatunk, aztán majd úgyis kiderül..
-
FLATRONW
őstag
válasz Petykemano #37251 üzenetére
Azért arra kíváncsi lennék, hogy egy PCIE 2.x alaplapban mennyire fogná vissza a teljesítményt egy ilyen x8 vagy x4-es kártya. Nekem például olyan van. Szerintem ott már a 8 GB sem segítene.
-
huskydog17
addikt
Tehát röviden tömören: az RTX 3050 a GTX 1660 Super tempóját hozza, legfeljebb pár százalékkal gyorsabb. Az RTX 2060 tempóját nem tudja megközelíteni. A világért se akarok megmondó ember lenni vagy ilyesmi, de én megmondtam.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
félisten
válasz huskydog17 #37254 üzenetére
sajnos így van. Mondjuk az 1660 hoz annyi hogy van DLSS és RTX + 2 GB ram
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
GeryFlash
veterán
RTX az nagyon fasza, egy 3060/2070 szint alatt nem sok ertelme van, ez meg a 2060-tol is elmarad
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
félisten
-
Yutani
nagyúr
-
janos666
nagyúr
Az RTX szerintem ma csak a 3090 SLI (nVLink) konfigokhoz való. Egyébként többet ér az ember a felbontás (mind natív-, mint render-) növelésével (ami ma 4k kijelzőt takar, mint optimum, és DLSS-el sem érdemes 1440p/Quality render felbontás alá menni), mert nincs más mód a durva aliasing eltüntetésére (MSAA már nincs, és minden post-process AA maszatol/artifact-el).
De a DLSS valóban jól jön még az egykártyás 3090 konfighoz is, ha 4k-s a kijelző, a lassabb kártyákkal pedig nyilván kisebb felontású kijelzőkhöz is (tehát a 3050 esetében már 1080p-hez is).
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
félisten
válasz janos666 #37259 üzenetére
Szerintem a kommented első és második fele ellentétben van.bizonyos szemszögből.
Anno Cifu-val sokat kommenteltunk erről,mert ő is és én is DLSS segitsegevel toltuk végig a CP2077 jatekot azert,hogy a raytracing aktív legyen.RT nelkul egy mas jatekot kapsz grafikaban es a 2070 nel az RT +DLSS sokkal jobb látványt adott mint a natív DLSS nélkül.ide is sok kep lett feltolva igy. [link]
Az RT teljesen jo kisebb kartyakon DLSS segitsegevel,ha valoban latvanyos,lasd CP,Metro,Control.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
janos666
nagyúr
A CP-t én az RTX3080-ason (legelőször még egy 3090-el próbáltam ki, és az sem volt érezhetően más szint) Quality DLSS-el toltam a 2160p120 kijelzőn (tehát effektíve 1440p-ben). Ez még elmegy, de Balanced, vagyis 1080p->2160p módban már zavaró számomra a DLSS (egyrészt már meglátszik rajta, hogy messze nem natív 4k, plusz sokkal feltűnőbbek az artifact-ek, és ami legrosszabb, hogy már mesterségesen túlélesítettnek érződik számomra a kép), és RT nélkül, na meg a leginkább teljesítménybüntetőbb grafikai opciókat 1-2 lépcsővel a max alá állítva (átfutottam egy tesztet, hogy melyik opció milyen állásokon milyen fps változást jelent és "optimalizáltam"), és még így sem érte el szinte soha a 120fps-t, ha jól rémlik képes volt itt-ott benézni akár 60 alá, egy olyan 80 körüli jellemző átlaggal.
Tehát, hogy úgy mondjam, RT nélkül is kicsit kompromisszumos volt a dolog (az akkori csúcs 3090 kártyán is). Se a grafika nem volt kimaxolva, se a 120Hz, se a 4k (csak DLSS-el).
Én nem akarok se "konzolparaszt" ~40fps-el játszani pár extra tükröződés/fényefektért cserébe (mikor még csak 60Hz volt a max kijelzőm, akkor mindig ragaszkodtam a stabil 60fps-hez), csak 80 körül vagyok boldog (de persze még onnan is erősen érezhetően jobb a stabil 117, csak azért tudni kell lemondni pár dologról, vagy "tudom, vegyek 2x3090-et"...), se egy "műanyagélesített" 1080p képet nézni a 2160p kijelzőn Balanced DLSS-el.
A szőr feláll a hátamon, ha érezhetően mesterségesen élesített képet látok (vagy mikor 60 alatt van fps).TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
félisten
válasz janos666 #37261 üzenetére
Igen a DLSS Quality ment nálam is. hát a 120 Hz/ FPS az elég necces dolog manapság még. nekem sem annyin ment ,a stabil 60 ra törekedtem, az sem sikerült mindenhol de többnyire G-sync tarományon belülre esett. Úgy nem zavart,de szerintem azt a játékot RT vel kell játszani.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
válasz FLATRONW #37252 üzenetére
Biztosan okoz. Kábé annyit, mint amikor a 4x Pcie-s kártyát beteszed PCie3-as alaplapba.
a HWBU a videós tesztben megemlítette, hogy ritkán, de előfordult , hogy egy tesztet kétszer vagy háromszor kellett lefuttatnia, és nem a 4GB VRAM miatt, hanem mert amíg sikerült a szükséges adatokat beolvasni - az első futás során - addig dadogott.De azért szerintem van különbség a kettő között. Az első PCIe3-as alaplap 2011-ben jelent meg. még a felsőkategóriának nehezen nevezhető 2015-ös R7 360 is (ami persze átnevezett termék) 16x széles PCIE3 busszal rendelkezett! A PCIe4 platform szinten a felső kategóriában 2019-ben jelent meg, az olcsóbb termékek (alaplap/cpu) még talán ma is PCIe3-mal jelennek meg. Még a 2022-es Barcelo is csak PCIe3 (ráadásul csak 8x széles). Tehát még bőven forgalmaznak a gyártók régebbi szabvánnyal rendelkező platformokat, de már a megjelenést követő két és fél évvel elkezdik szűkíteni a sávok számát.
Valószínűleg a PCie5-tel is ugyanez lesz.
Egyébként azt nem értem, hogy .... azt értem, hogy azért PCi3 a PCIE4 helyett, és azért x4 vagy x8 a nagyobb helyett, mert spórolnak. De igazán megtehették volna azt a szivességet, hogy a CPU/MB terén és a GPU terén egységes spórolási metodikát alkalmaznak, nem pedig azt, hogy a platform terén spórolunk a szabvánnyal a fogyasztás miatt, a GPU-k terén pedig spórolunk a busz szélességgel a lapkaterület miatt, mert így épp a legrosszabb kombinációk jönnek ki.Találgatunk, aztán majd úgyis kiderül..
-
Devid_81
félisten
Veszelyben a Hopper nev az NVIDIAnal.
Meg a vegen fel kell vasaroljak kilora azt a mocsok parabola gyartot[ Szerkesztve ]
...
-
LK
addikt
válasz huskydog17 #37254 üzenetére
Jó, hogy átnéztem ide a topicba. Yt-on megnéztem az első két videó összehasonlítást (találomra) és a 3050-et jóval gyorsabbnak mutatta. Jól összeválogatott játékokkal és beállításokkal bármit össze lehet hozni.
[ Szerkesztve ]
"óóóóó istenem.. boldogok a lelki szegények, mert övék a trollok és fanboyok országa, ámen" by PUG
-
félisten
[Nvidia's Mysterious GA103 GPU Pictured]
GH100 = 1000m2, wtf.
[link]És nem MCM, monolitikus. [link]
3D center: [link]
szerint ez egy mag / részeség csak a kettőből, 2000mm2 fölött van- "Hopper" architecture
- 5nm TSMC
- MCM with 2 dies
- per die slightly less than 1000mm²
- 16 GPC, 288 SM, 18'432 FP32
- probably HBM2e interface
- 1xxxW consumption
- HPC onlyCorrections: 16 GPC, 288 SM, 18'432 FP32 is overall (8 GPC, 144 SM, 9216 FP32 per die). 1xxxW consumption looks as well overall (for 2 dies). MCM with 2 dies ... should have a "(?)" at the end.
a Hopper MCM lesz de a GH 100 nem, úgy néz ki csak összekapcsolható interposerrel de önálló.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
Most én nem értem, hogy MCM lesz-e vagy sem.
Az világos, hogy az 1000mm2 az nem. De az nem egyértelmű, hogy azért ebből lesz-e 2x1000mm2 mcm?Bár nincs szó arról, hogy ez, vagy bármi ehhez hasonló a samsungnál készülne, de én azért megpendíteném, hogy ha mégse lesz mcm, akkor nem mégis a Samsung 5nm-en készül-e.
A samsungnál ugyanis nem igazán lehet tudni, hogy milyen 3d vagy más advanced packaging technológia készül. Ha készül.
[link]Találgatunk, aztán majd úgyis kiderül..
-
félisten
válasz Petykemano #37270 üzenetére
Két féle információ van, ezek nem feltétlenül kizárják hanem talán inkább kiegészítik egymást. Az, hogy ebből HPC oldalon speciális interposerrel kettő darab összekapcsolható. Greymond annyit írt hogy ez nem lesz MCM. Kérdés hogy arra értette e hogy nem lehet összekapcsolni vagy csak erre a modulra írta ezt, természetesen nem fejtette ki. A kisebb Hopperek viszont MCM- dizájnnal lesznek.
Szinte teljesen kizárt hogy samsung, ez szerintem hogy TSMC. Nvidia professzionális szegmenst nem gyártotta máshol ,a lehető legjobb technológiára alapoznak. A kisebb Hoppereknél és az Ada-nál ( ha az lesz a neve és monolitikus lesz) meglátjuk, de szerintem marad az is TSMC.
Az Ampere szerintem megmarad a kisebb SKU nak, mondjuk egy 3080( akkor már 4060) megy a Samsung 5 nm-re. ilyen vegyes generációra számítok a következőkben, mert biztos hogy ne. tudjak megoldani első körben a teljes paletta lefedését."A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
GeryFlash
veterán
válasz Petykemano #37270 üzenetére
A Joisten irgalmazzon meg minket attól hogy akár az AMD CPU-i GPU-i vagy az Nvidia GPU-i Samsung nodeon készüljenek. Elég kárhozat így is hogy kost ezt a retek faceID-s iPhonet kell használjam mert Androidos flagshipet évek óta nem tudok venni hála a teljesen inkompetens Samsungnam aki évek óta képteken egy normális gyártástechnológiát lerakni. Akkor inkább fussunk neki megint TSMC 7 vagy 6 nm-en, azzal is sokkal beljebb vagyunk. Állítom ha a Qualcomm csinálna egy flagship snapdragont N7-en akkor jobb lenne a perf/watt mint a gátlástanul 4nm-nek hazudott Samsgung 5nm-en.
Maximum az ilyen 1030/3050 utódok menjenek ott de inkább az se, semmi se, gyártsanak autóba chipet csak a leading edge technologiaval foglalkozó cégeket hagyják.Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
félisten
Mondjuk lehet nem ártana egy kisebb teljesítményű Ampere, mert az xx30-as széria évek óta el van hanyagolva, a GT 1030 óta nem jött ki oda semmi. Persze, az AMD sem hoz ki oda semmit jó rég óta, de ettől még szemforgató, hogy normális HTPC alkalmas dVGA (ie.: 4k@120Hz képes HDMI-n) nincs...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
-
-
félisten
válasz paprobert #37275 üzenetére
Erre a célra az Intel kisebb VGA-i lesznek a befutók, szerintem.
Ha egyszer az életben kijönnek.
Egyébként jött már az AMD-től az általad áhított kártya, bő egy hete. Csak négyszeres áron, modern videó képességek nélkül...
Nem igazán, mert nincs belőlük Low Profile, ahhoz kapcsolódon nincs belőlük külső tápcsati nélküli. Talán az RX 6400-ból lesz LP változat (ill. külső tápcsatit nem igénylő), de az meg csak OEM. Plusz az említett okokból HTPC-be nem annyira nyerő választás a kis AMD, hiszen pont a videólejátszás lenne a lényege.
Ilyen téren az utolsó piadon is kapható vörös kiadás az RX 560 volt, HDMI 2.0, 4K@60Hz képességgel.Az IGP lenne papíron a jó döntés eme célra, de sem az AMD, sem az Intel nem adott ki olyan IGP-s procit, ami 4K@60Hz-nél többre képes (mint kiderült az Alder Lake IGP-je sem tud többet). Igen, az AMD majd egyszer, valamikor ad. AM5 + DDR5 mellé. Az értelmes ár/értékű változatok 2023-ban. Talán.
Kabarénak is erős, ami ma a PC hardware terén megy...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
félisten
Jobban jársz egy dedikált medialejátszóval szerintem ma már főleg ilyen VGA árak mellet. Nvidia Shield, Apple TV , Zidoo stb..aztán az mellé mindegy mit tud a VGA már ilyen téren.
Én is nehezen engedem el a HTPC-t szenvedek a Zotac egy példányával a projektorhoz.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Komplikato
veterán
-
félisten
@b.: az nVidia Shield, de még a Shield Pro sem nyújt semmi extrát egy HDMI 2.0 képes HTPC-hez képest. Előrelépés az RTX 3050 / RX6600 lenne, amelyek viszont méregdrágák és overkillek a feladatra. Kisebb teljesítményű, 4K@120Hz képes kimenettel bíró dVGA pedig nincs...
@Komplikato: Kár, hogy csak DP kimenete van, de nagyon szépen köszönöm az ötletet, elkezdek ebbe az irányba is vizsgálódni...
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
félisten
persze ha erre van szükséged úgy ok. én a multimédiára értettem, hogy igazából érdemes lenne ma már elválasztani talándedikált lejátszóval, főleg hogy az Intel már a BR lejátszás sem támogatja..
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
KillerKollar
őstag
Nem úgy volt, hogy még január folyamán jönnek a részletek a 3090 Ti-ról? Január 31. van kedves Nvidia
-
warcat
veterán
válasz KillerKollar #37283 üzenetére
Nyilván igaznak minősíthető a pletyka hacsak a következő órában nem jön valami.
EA: It's in the crate!
-
KillerKollar
őstag
válasz warcat #37284 üzenetére
Ebben az esetben is mondjuk a minimum, hogy kiadnak egy közleményt, hogy bocsi, azt ígértük, hogy januárban jön az infó, de csúszunk. Ez olyan mint amikor nemrég a Samu bejelentette, hogy x időpontban leleplezik az új Exynos chip-et, aztán az esemény elmaradt csak épp elfelejtettek szólni
-
veterán
válasz KillerKollar #37283 üzenetére
Egész kártyát nem értem
-
warcat
veterán
Pedig nincs nagy rejtély, 2GB modulok használata miatt csak egy oldalon lesznek memóriachipek(nem fől meg olyan könnyen) + még több pénzt el lehet kérni a chipért amiből 3090 lett volna.
Gyakorlatilag az eladott 3090-ek átlagárát feljebb tudják húzni vele.Az ETH gyengélkedése persze most beletojt a palacsintába szerintem, a várható kereslet és az elkérhető felár is csökkent.MSI-nál erős bosszankodás lehet a bekészített 3090 Ti Suprimek miatt, gondolom a minimum egy BIOS flash lesz.
EA: It's in the crate!
-
félisten
válasz warcat #37287 üzenetére
Inkább a kihozatal javult. kevesebb aktív blokkot kell letiltani már, ezért azt felesleges lebutítani 2000$ -os 3090 re mikor el lehet adni 4000 $ áron 3090 Ti nek...( aka Titan)
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
-
félisten
válasz Alogonomus #37289 üzenetére
Nem az AMD től való pánik és rettegés van ez mögött, hanem a pénz.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
veterán
Értek én mindenkit a problémám hogy ez lofacal lesz gyorsabb mint a 3090-en
Szerintem mérési határon belül lesz az 500W biosal 21.5-on ketyegő memorivál futó 3090 Suprimomnál, Tom nem én vagyok a célközönség. -
félisten
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Devid_81
félisten
-
félisten
válasz Komplikato #37294 üzenetére
Lenovónál ezek ilyen irodai kis szarokba mennek. Gondolom IGP nélküli alap CPU mellé való.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Komplikato
veterán
Gondolom spórolnak az alap lapon vagy 50 centet, ha nincs Hdmi kivezetést, de ennyit nem spórolnak, mint amibe a GT1010 kerűl. Van legalább 3db kimenete, hogy bármi értelme legyen?
"Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
-
félisten
válasz Komplikato #37297 üzenetére
Szerintem a CPU-n is és annak a hűtésén is spórolnak vele, nem csak a deszkán. Mehet mellé bármilyen ótvar Celeron. Ha forgalomi kisker ára 70$ lenne a twitter szerint, akkor valószínűleg a Lenovónak kb 30 ba fáj. 30W szóval igazából semmi hűtést nem igényel. Kettő HDMI kimenete van.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: HC Pointer Kft.
Város: Pécs
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest