- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Milyen RAM-ot vegyek?
- Milyen belső merevlemezt vegyek?
- NVIDIA GeForce RTX 4060 / 4070 S/Ti/TiS (AD104/103)
- Bizonyos ASUS alaplapok megrongálhatják a videokártyánkat
- Akciókamerák
- Melyik tápegységet vegyem?
- Milyen CPU léghűtést vegyek?
Új hozzászólás Aktív témák
-
válasz Zool1981 #331 üzenetére
4060Ti-ről van PCIE3-as teszt, ott a kártya 5-10%-kal lassabb, valszeg ez igaz a nem Ti verzióra is.
Ha nem zavar az 5-10% teljesítményvesztés, akkor a 4060 is jó választás, már csak azért is, mert kevesebb a fogyasztása a hasonló kategóriájú kártyákénál.De ha nem muszáj Nvidia, akkor az RX 6650XT egy jó választás, csak pár százalékkal lassabb a 4060-nál (és sokkal olcsóbb!), vagy az RX 7600, ami a kettő között van. Alternatívaként ott van a 3060, aminél a különbség ugyan 10-15%, viszont PCIE 3x-en ez eleve kevesebb lenne (5-10%).
[ Szerkesztve ]
Pénztárca bemutatók: https://www.youtube.com/playlist?list=PLYQxd5Rbby46cPtVVMQodEGZuxZm7csIo
-
Zool1981
tag
Sziasztok. Kellene egy kis segítség, 1660 super kártyát szeretnék lecserélni egy két hónapon belül , de egyelőre tanácstalan vagyok. 4060, amivel szemezek, de az alaplapom egy ASROCK B460M PRO4, ami elméletileg nem az igazi hozzá, ha jól olvastam az előző kommenteket. Akkor viszont mit tudnátok ajánlani? Full HD-ben játszom, a keret 130 000 nagyjából. Előre is köszönöm.
-
Az 5000-es és 7000-es sorozatú asztali Ryzen CPU-kat veszem "mostani"-nak.
Vérpistikék simán beállíthatnak rajtuk túl magas feszültségeket, amitől degradálódhatnak nagyon gyorsan a chipek. Ráadásul a chipletes felépítés miatt igazából 2-3-szor is megjátsszuk a szilícium lottót a kupak alatt lévő chipek minőségére egy vásárlás alkalmával.
Emellett 2 AM4 és 2 AM5 lappal volt tapasztalatom, feltünően nagyon eltérő beállításokat alkalmaztak ugyanazokra a CPU-kra alapból. Szerintem simán van olyan gyártó, aki gyárilag túl sok feszültséget ad ezeknek a CPU-knak.
Előélet ismerete, de még inkább garancia nélkül van rizikó sajnos ezekkel, szerintem.
Üdv, pengwin
-
Kansas
addikt
Hogyhogy(illetve mit veszel "mostani"-nak)?
Nem hallani arról, hogy az átlagosnál gyakrabban pusztulnának meg a "mostani" AMD procik, a "felrobbanó" AM5-ösök problémája is alaplapi eredetű, ráadásul használt vételkor elég könnyen észrevehető műszerek nélkül is.Az, hogy a használtcikk vásárlás milyen "élmény", amúgy is inkább az eladótól függ, mint magától a terméktől(visszaveszi, nem veszi, egyből gariztazni küld, elpárolog, stb.), de a CPU-knak nagyságrendekkel kevesebb az esélye rejtett, jóval később kiderülő hibára, mint pl. az alaplapoknak vagy a VGA-knak, a leggyakoribb az hogy ha egy proci sokat volt hajtva, esetleg túlhúzva, akkor alapfeszen nem bírja a húzást vagy rosszabb esetben az alapórajelet sem(utóbbi azért elég könnyen észrevehető), ha ennél komolyabb baja van, az szinte mindig rögtön nyilvánvaló.
Ez persze csak az én tapasztalatom, nyilván azt nem fogja vígasztalni, aki épp beszívta azt az ~1%-ot amivel valami gond van, szóval persze, bármi használtat alapból csak óvatosan...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
-
nyulnyulu
senior tag
ma jött meg az asus dual rtx 4060,teszteltem 1440p be,egyenlőre magas beállitással,Starfieldel,szépen fut,majd ha pontosabb adatokat tudok jelentkezem,eddig teljesen rendben van,brutál halk,igaz cougar panzer max házban van
privátra illik válaszolni
-
Stitch
őstag
Ez nem annyira jó hír nekem, mert Asrock B460 lapban váltottam egy 1660 Super-ről 4060-ra. Legalább is addig nem ideális, amíg nem jutok el a teljes upgrade-ig (talán valamikor jövő tavasszal). Mondjuk egyelőre régebbi játékokkal kezdtem behozni a lemaradásomat (pl. Metro Exodus), ezekben nem hiszem, hogy számít. Így is, úgy is megvan a 60 fps.
-
nyulnyulu
senior tag
[link] ebben a vidoeban,kb 10-15% lehet a bukó a régi lappal,és valahol ugyan ezt olvastam,lehetséges?
[ Szerkesztve ]
privátra illik válaszolni
-
nagyúr
Sztem ezt gondold újra. 40-50 dollárért egy komplett alaplapot kapsz, nagyon meglepne, ha egy 120W-os videokártya teljes PCB-je többe lenne 20 dollárnál. Ebből azért nehéz 40-50-et megspórolni - különösen, hogy a 8 sáv elhagyásától nem lesz jóval egyszerűbb a PCB designja, merthogy a 16 sávhoz szimplán egy dupla széles cső kell a GPU-hoz a csatitól.
A GPU-n talán tényleg meg lehet spórolni valamit, de ugyanúgy minimálisat - az IO-logika megnyerhető, de az ilyenkor potenciálisan felmerülő kerületi limitáció a 128-bites busz miatt szinte biztos, hogy nem játszik.[ Szerkesztve ]
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Kansas
addikt
"Mennyit spórolnak azzal, hogy 8 sávot kap a kártya? 2 USD-t? 3-at?"
40-50-et biztosan. Nem csak az a lényeg, hogy hány PIN van kivezetve, illetve de, csak épp nem csak a pin-eknél van azzal extra munka, fele annyi kivezetett sávval jóval egyszerűbb az egész PCB design-ja, egy csomó összeköttést nem kell kiépíteni, adott esetben akár kevesebb rétegű PCB is elég lehet... illetve elvileg die területet is lehet vele spórolni a GPU-n ami javítja a kihozatalt.Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Dragon3000
veterán
válasz nyulnyulu #317 üzenetére
Mindkét kártyának nagyobb a tdp-je, mint a 3070-nek. Gyerek gépében volt egy kis ideig egy 3070 a 4 magos i5 mellett, a 350W-os 80 plus gold táp gond nélkül megbirkózott vele, így a 750W-os táppal nem hiszem, hogy sok gond lenne, a 12V-os rész a kérdés, hogy van szét osztva, ha egyáltalán szét van és annak megfelelően kötni.
-
nyulnyulu
senior tag
válasz Dragon3000 #316 üzenetére
Egyszerű 750w bronz,nem márkás,de működik.1080ti,5700xt,eddig vitte normálisan
privátra illik válaszolni
-
nyulnyulu
senior tag
Köszönöm,most akkor azt kell eldöntenem,hogy 3070+táp,vagy 4060+b550 lap,de majd kiderül,minden esetre, nagyon szépen köszönöm aki sehített
privátra illik válaszolni
-
PuMbA
titán
Az x8 miatt minden alsó kategóriás videókártyának kell a PCI-E 4.0, mert játéktól függően sok teljesítmény maradhat benne:
PCIe (3.0 vs 4.0) AMD Radeon RX 6600 - Performance Comparison
[ Szerkesztve ]
-
nagyúr
Ha egy 3.0 16-al elmegy egy 3080 is, akkor a joval gyengébb 4060-nak nem lenne elég a fele?
Azért, mert a sokkal gyorsabb videokártya nem kap sokkal több adatot a PCI-E buszon keresztül. Az assetek mennyisége ugyanannyi (hacsak lejjebb nem veszed a textúrafelbontást), és ha pl. a 3080-nal azonos sebesség mellett magasabb minőséggel játszol, akkor draw call is ugyanannyi megy át. A PCIE 3.0 x8 okoz több játékban is jól látható gondot a 4060-nak, bár jelenleg nem sokban.
a 3.0 nem lehet elvárni, hogy 2 generációval ezelőtti csatlakozókat is szem előtt tartsanak egy uj hardver fejlesztésekor...
Ez meg szerecsenmosdatás, nem a 3.0 műszaki figyelembe-nem-vétele a probléma (ami amúgy 5 éve még mainstream volt), hanem az értelmetlen szarrágás. Mennyit spórolnak azzal, hogy 8 sávot kap a kártya? 2 USD-t? 3-at? Ez szimplán a vásárlók sz**atása, hadd ne legyek már megértő...
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Sinesol
veterán
válasz Francia91 #310 üzenetére
Ha egy 3.0 16-al elmegy egy 3080 is, akkor a joval gyengébb 4060-nak nem lenne elég a fele? Minimalis lehet a különbség, ha van is, dehát ez ilyen, elég régi a 3.0 nem lehet elvárni, hogy 2 generációval ezelőtti csatlakozókat is szem előtt tartsanak egy uj hardver fejlesztésekor...
[ Szerkesztve ]
-
Sinesol
veterán
válasz Francia91 #308 üzenetére
Nem hinném, hogy viszafogja, pl a 2080ti hibahatáron volt egy tesztben 3.0 x8 vs x16 mellett, az meg azért erősebb is. Gen 3 vs gen 4 16-os összevetsében is alig volt kül 3080-ak, az meg emghint joval erősebb. De ha biztosra akar menni, akkor nem nagy érvágás egy B550-be beruházni.
[ Szerkesztve ]
-
nyulnyulu
senior tag
Érdeklődnék,most r5 3600+rtx2060 kombot használok 2k felbontással,mennyire lenne előrelépés egy 4060 an?
privátra illik válaszolni
-
Lokii
aktív tag
Igazad van , köszi
I5 8400 volt DOA nekem 2017ben , még régebben WD , RMA után amit adtak helyette egy cserét szépen muzsikál azóta is és még halk is mondjuk engem a hang nem zavarna tbh
GTA5/Social club: Dunna8 , Need for speed world:0DARIUS0 , Battle.net: Dunna#2926 steam barát kód 112529047
-
Kansas
addikt
Mármint procit rizikósabb használtan venni mint VGA-t? Ezt gondold át még egyszer... ha nem DOA, akkor elavulási időn belül nagyon ritkán pusztul meg CPU, max ha extrém tuningostól veszed, aki ezen tanult a folyékony nitrogénnal bánni...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Lokii
aktív tag
+5800x középen, 3dvcache lenne +50.000 nézek egy pár benchmarkot, meg ugye lehet használtan is venni mint vidikarit csak talán rizikósabb
GTA5/Social club: Dunna8 , Need for speed world:0DARIUS0 , Battle.net: Dunna#2926 steam barát kód 112529047
-
Lokii
aktív tag
Köszi szépen a tapasztalatokat és tippeket ,Akkor R 2600rol közepes teljesítmény javulást fogok tapasztalni Kb , bár nyilván q6600hoz képest ez álom , watt/teljesítményt javulást érdemes nagyjából tartani és eszerint cserélni
És van több fajta jobb választásom , R5800x3D és R5600 és X személyében, egy pár helyen az X verzió olcsóbb valamilyen oknál fogva, mondjuk 3d v cache meg +2 mag megéri e 2xres árért (130 kontra 58-65 rugó)az kérdéses, használtan x3D megérné
Ezelőtt mondjuk tárhely bővítés (Kingston KC3000 vagy egyenlő hasonló bármi 2 tera és később 2-4 tera Crucial P3 vagy WD green, nv1-2 stb, mostani 1 teras meg megy PCI kártyára vagy pendrive lesz belőle. WD black hdd meg csillagászati áron van sajnos szóval firecudan is gondolkodok majd) és aztán videokártya bővítés bár lehetne fordítva is , de mindenesetre Kingston kc2000 kellene hogy ki tudjak próbálni pár tárhely igényesebb címet. R3060 vagy TI vagy 6600 vagy 6650 XT, R7600 XT is akár ha majd lesz még 4060 is elgondolkodtató, meg Intel is úgyszintén
GTA5/Social club: Dunna8 , Need for speed world:0DARIUS0 , Battle.net: Dunna#2926 steam barát kód 112529047
-
nagyúr
Ja, úgy valahogy. 4070 több RAM-mal és 10%-kal olcsóbban. Beleillik a palettába.
A 7700XT meg a 4060 Ti környéke lehet, +50% RAM-mal. Annak még akár értelme is lehet, ártól függően"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
nagyúr
Ha lehet hinni a pletykáknak, akkor a 7800 lesz új chip, a 7700 meg az erősen megvágott változata, ami vszleg órajelben csúcsra lesz járatva. Sztem lesz benne UV potenciál.
#292 Raymond: megintcsak a friss pletyik alapján, az órajel nem tűnik drámaian jobbnak a 7900-nál.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Raymond
félisten
Ha javitottak a bug-o(ka)t es az eredeti terveket megkozelito teljesitmenyu lesz akkor az azt is jelenti hogy a 7800XT a 7900GRE es 7900XT koze is eshet teljestimenyben es akkor az arazasa is annak megfelelo lesz. Ha kihoznak egy 4070-4070Ti kozott teljesito kartyat 16GB VRAM-al azt nem fogjak 4070 ala arazni.
Privat velemeny - keretik nem megkovezni...
-
Sinesol
veterán
Szerintem kb. a 4070 környékére/ picit alá jöhet a 7700, a nvidiához viszonyitott fogyasztási többlet alapján becsülve, szerintem 220-260 wattos fogyasztása lehet majd. Mondjuk szerintem uj chip jön majd a 7700-7800-nak, ami akár jobb is lehet valamivel, de rosszabb is. Sok részegységgel, nagyobb chippel, alacsonyabb orajelekkel lehetne kisebb a fogyasztás, de azt tuti drága lenne gyártani, szal tippre valami kisebb, de határon járó energiaéhes chip lesz, általában ezt választja az AMD. Ezért is van az, hogy huzni szinte alig lehetseges es undervoltban sincs tul sok opcio, mert drasztikusan esik a teljesitmeny.
[ Szerkesztve ]
-
nagyúr
Várd meg a 7700-at sztem, talán abban több lesz ilyen téren.
#287 paprobert: ez a szomorú helyzet a 4060-nal - egy hajszálnyival jobb vétel, mint az előző generációs kártyák (akár NVIDIA, akár AMD). Éljen a generációs fejlődés
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Kansas
addikt
Ez azért nem annyira meglepő, az RTX4000 szériának a DLSS3 mellett az energiahatékonyság a selling pointja, míg az RDNA2-nek... nos, nem. Sokkal inkább az ára.
Igazából az RDNA3 se sokkal jobb fogyasztás tekintetében az RDNA2-nél.[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
T J
tag
Köszi a válaszokat.
Akkor úgy tűnik az amd 6xxx szériával lehetetlen behozni az nv 4xxx széria hatékonyságát. Azért gondolkodtam el, mert a cikk végén a táblázatban egy 7900xt verte.
De fura mód, a 7600-as már sokkal rosszabb.[ Szerkesztve ]
-
paprobert
őstag
-
nagyúr
A 115W már nagyon kevés, az kb. fele a rendes fogyasztásnak. Cca. 65-70%-ig lemenni jelentősebb teljesítményvesztés nélkül ezekkel a chipekkel, a 6700XT esetében 140-150W közé. Egy arcot láttam, aki konkrétumot postolt: 60W-ot spórolt 10% teljesítményvesztés mellett, szóval a 140-150W fogyasztással kb. egálban lenne a 4060-nal raszterben.
Fentiek természetesen erősen becsült értékek."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Kansas
addikt
Alighanem csúnyán elvérezne. Az RT-je alapjáraton se túl acélos, felére véve a fogyasztási keretet pedig már raszterben se verné, az RX6600XT szintjét kis mázlival esetleg elérné...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
T J
tag
Vajon egy 6700xt lekorlátozva 115W-ra mit tudna 4060 ellen?
Már ha megoldható. -
Kansas
addikt
Én 3600-ról cseréltem rá és érezhetően jobb, egy- és többszálú teljesítményben is, már persze amikor nem 4K-ban játszok full VGA-limit mellett(és amennyire én látom, 4K-ban bőven mellé lehet tenni RTX3090 teljesítményszintig kb. bármit, nem nagyon lesz procilimit DLSS/FSR nélkül, tehát van még hova bővíteni procicsere nélkü).
Amúgy ha nem akarod 2-3 évnél tovább megtartani és/vagy nem játszol olyan játékkal ami az extra magokat is kihasználja, akkor az 5600 jobb választás a némileg magasabb órajelei miatt, meg hát jóval olcsóbb is.
Ha nem került volna az 5700X-nek majd' triplájába, én is 5800X3D-t vettem volna, de annyival nem jobb az a proci, hogy 75e helyett majd' 220e-t kiadjak érte, amennyi akkoriban volt(azóta sokat szelídült az ára) - viszont a 8 maghoz ragaszkodtam, mert nem tervezek váltani az első két DDR5-ös generációra, még 3-5 évig biztos maradok ezzel AM4-en.
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Lokii
aktív tag
Igen , szóval mondhatni 5700X a "sweet spot" avagy arany közepút a 5800x3d és 5600as között? csak arról nem tudok sok infót , utána nézek mert az se lenne rossz upgrade R2600rol később
GTA5/Social club: Dunna8 , Need for speed world:0DARIUS0 , Battle.net: Dunna#2926 steam barát kód 112529047
-
Robitrix
senior tag
Na ja az első komolyabb diavetités és az ezt követő videókártya vásárlásom valamikor 2008-2009 környékén történt a World of Warcraft miatt. Volt egy radeon 9600 Xt kártyám és volt a játékban egy olyan pálya ahol 30-30 játékos esett egymásnak két csapatnak. Kilovagoltunk a csata helyszinére aztán mondjuk egy befagyott tavon egymásnak esett a két csapat. persze ahány játékos annyi féle faj és és karakter. Aztáűn egy kavargó csatában ahol volt aki kardozott, volt aki puskával vagy ijjal lövöldözött, más vadálatokat uszitott az ellenségre, mások démonokat vagy varázslatokkal aprították az ellenséget. Csak úgy repkedtek oda vissza a csapások egymásra. Na ezt a kavarodást már nem birta a videókártya kiszámolni. A normális 30-35 FPS ilyenkor simán beesett 15-18 FPS-re na az már igen csak szagatott. Igy kénytelen voltam beruházni valami komolyabb Geforge-s videókártyába, hogy élvezhető legyen a játék. De, hogy mi volt már nem tudom. Aztán a következő teljesítmény korlátom a WOT miatt következett be. Kénytelen voltam az akkor használt valamilyen grafikámat átcserélni új gépre és videóra, ami egy RX 460-as volt. Hogy aztán 2020.ban az már karcsú legyen a Warzone-ra. Ismét gépcsere és grafika csere GTX 1660-ra.... hogy aztán újabb fejlesztés legyen CPU-ban és grafikára már egy RTX 3060-ra és Ryzen 5 5600-ra... hogy aztán újra gép fejlesztés... na ez még a jövő zenéje... De nem lesz ennek vége már látom...
-
Robitrix
senior tag
válasz Dilikutya #260 üzenetére
Az első videókártyám, amit én vettem magamnak saját gépbe egy Trident 8900D kártya volt. Valamikor a 80-as évek vége fele talán még az árára is emlékszem 5-6000 forint körül volt akkori áron. Már nem volt tisztán 2D kártya csirákban kezdett megjelenni benne totál primitív szinten a 3D gyorsítás alapjai. Nagyjából mintha űrhajó röppályát kellett számolni valakinek és már nem abacust adtak hozzá, hanem kapott egy elektronikus zsebszámoló gépet.
-
Robitrix
senior tag
Hehe én meg ide-oda pattogó tv teniszen meg PacManon illet C64-en nöttem fel. Ahhoz képest 40 évvel késöbb minden maga a csoda.... Az első PC-m egy 8 Mhzes intel 8086 volt 20 MB harddiskkel 1 MB memória és egy színű Hercules grafika... De amikor kezdtek megjelenni a PC-k én már egy évvel túl voltam az érettségin. Igaz elötte már dolgoztam 4 évet számítógéppel. Ami akkora volt, mint egymás mellé rakott 5 ruhásszekrény, de volt azért benne 64 KB memória. Grafika az nem volt a megjelenítést egy elektromechanikus írógépen történt nyomtató papírra. Az volt az operátori konzol. Ott irta ki a gép, hogy mi van és onnan lehetett vezérelni.... Szólíthattok Tatának.....
-
Robitrix
senior tag
igen erről beszéltem a WZ 2 4. szezon közepi frissítéséről marhára beesett a teljesitmény még a 4090-es kártyákon is. azért nagyjából 1-2 hét alatt kijavították. De nem a teljes játék vacakolt. Mentél a pályán és egyszerűen bizonyos helyeken beesett a GPU terhelése és ezzel arányosan eltünt egy jó adag FPS.
-
Kansas
addikt
válasz Dilikutya #260 üzenetére
"Pláne hogy anno azt mondták, az emberi szem 24fps fölött nem érzékeli a különbséget."
Nem igazán ezt mondták, hanem hogy kb. 24 képkocka/s sebességgel lejátszott állóképek sorozatát a szem mozgóképnek érzékeli.(sőt, igazából már 10-12-t)
Az nem rémlik, hogy olyant mondtak volna, hogy e felett nem érzékelhető a különbség...
Azért van némi különbség a két kijelentés közt.#272 Francia91 Majd akinek lesz ideje, meg kedve, tán meg is ijed...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Dilikutya
félisten
Volt Radeon 8500-öm, az még 1280*1024-ben is bírta a GTA-t. Sokáig megvolt, sőt, ma is megvan, alaplap halálkor került ki, mivel nem fért bele a PCI-E csatiba.
A magas frissítést én is fölösleges felárnak gondolom, június végén vettem új monitort, nem volt szempont. Ellenben szép képe van, egyedül a 4K zavar 1-2 játéknál, erre kéne találni valami értelmes megoldást, ami nem egy 300 ezres kártya lesz nyilván, mivel mindig kevesebb a kortárs játék a gépen, a régebbi leárazottakból veszek csak.Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
carl18
addikt
Volt Playstation 1-es konzolom, 2004 márciusában kaptam "Március 26" Talán? így a dátum rémlik.
A Tekken 3 valóban nagyon szépett futott meg a Gran Turismo 2 is.Persze haladni kell a korral, de nekem a felbontás fontosabb mint a magas frissitési frekvencia. Én most 1440P/75HZ monitorom van így ilyen szinten játszok alkalmanként.
A 4K túl teljesítmény ígényes, 1080P/144HZ-nek nem láttam értelmét.
A 1440P 144HZ is kér egy 3080-at RX 6800-at!Így maradt a jobb felbontás és átlagos 75hz.
Nekem a pixelsűrűsség nővelése fontosabb volt így arra mentem, mióta meg van a monitor nincs okom panaszra.De ezek az én ígényeim amiket a hardvereim tudják, nyilván valakinek a 1440P 144hz a alap.
#262Dilikutya
Anno nekem a Matrox elfutatta a Vice Cityt is elég jól ahhoz képest nem volt meg a rendszer követelmény. Bár néha kifagyott stb, de attól elég jól vitte.
És ez volt nekem 8 mb-os, utána váltottam gépet és a másikba már 64 mb-os integrált volt ami anno nagyvram ugrás volt.
2007 táján 14 évesen megvettem az első dedikált videókártyám "Sapphire"HD 2400pro!
Integrált mellet nagy előrelépés volt de nem volt egy teljesítmény bajnok.
12.000 ft volt emlékeim szerint anno.
2009 fele Tirexit felvettem Messengerbe váltottunk pár szót kérdezte milyen kártyám van, írtam HD 2400 PRO-t. Ő Viccesen reagált, de 16 évesen nem volt sok lehetőség váltani.7.-8. Osztály Tárán egy osztálytárs mondta 1024X768-ba ment a Vice City akadás nélkül és ez anno nem volt kis dolog gyerek szemmel. Radeon 8500 volt abba a gépbe.
[ Szerkesztve ]
Hiába szúr, itt Ryzen a úr!
-
nkmedve
őstag
Nem használok v-sync-et már nagyon rég pontosan az input lag-re gyakorolt hatása miatt. Bárhogy állítod be azt a játékot, 25-30 fps mellett messze nem lesz olyan reszponzív mint stabil (legalább) 60 FPS-en. Régebben az eredeti Metro Exodus-t RT-vel játszottam helyenként 30-40 FPS-el, hát nem volt egy jó élmény, szorultabb helyzetben nem tudtam megfelelően gyorsan reagálni és haltam meg folyamatosan. DLSS-el hozta a stabil 60 FPS-t és úgy már sokkal élvezhetőbb volt, csak kicsit ronda a még kiforratlan DLSS implementáció miatt (az Enhanced kiadás már sokkal jobb volt ilyen szempontból).
Szóval nekem nem fogja senki bebizonyítani, hogy a 25-30 FPS jó játékélményt ad. Van elég tapasztalatom vele a múltból és egyáltalán nem hiányzik. Inkább low grafika, de a 60 FPS legyen meg.
[ Szerkesztve ]
-
adr0001
aktív tag
25-30 fps-nél is teljességgel játszhatò bármi is, nem az "input lag" a bosszantò, hanem ha vmi miatt késleltetve ér el a képernyôre az aminek ott meg kel jelennie. Megint jò példa a CP2077. Állítsd be a vsync-et a játékon belül és korlátozd a képkocka sebességet 30 fps-re. Bôven 100 ms felett lesz a késleltetés - katasztròfa -, és teljesen nyúlòs az egész irányítás. Ha ugyanezt diverbôl teszed, úgy hogy a játékbam viszont kikapcsolod ezeket, akkor eltûnik ez a késleltetés. 33ms múlva ott lesz a képernyôn, bármit is csináltál a billentyûzeten/egérrel.
A frame gen esetleges nyúlòssága is erre vezethetô vissza. A sz*r beállításokra. Amúgy meg városi legenda, bôven az elfogadhatò értéken belül marad a késleltetés a júzerek 99,99%-nak. A kutya észre nem veszi.
Sírva viszem magammal a tíkot
-
Én még úgy nőttem fel ha valami ment 25 fps-el már jónak számított!
Én is, de könnyű megszokni a jót. Manapság 60 fps alatt nem szeretek játszani, de még jobb, ha több van. És igen, ha hozzászokott valaki a 60+ fps-hez, akkor zavaró, ha kevesebb van.Pénztárca bemutatók: https://www.youtube.com/playlist?list=PLYQxd5Rbby46cPtVVMQodEGZuxZm7csIo
-
nkmedve
őstag
válasz Dilikutya #260 üzenetére
"Ilyet ne mondj, hogy 25 fps már jó, mert szétcincálnak a 100fps alatt nincs élet és 240Hz-es fanok. "
Én is úgy nőttem fel, hogy örültem ha 20 FPS-em volt a komolyabb játékokban (sőt, a 90-es években nem is tudtuk mi az FPS, csak azt láttok, hogy sok helyen diavetítés van ). Ettől eltekintve, fejlődik a világ és manapság már a 60 a minimum és az is inkább csak ha stabilan megvan (ideálisan 100+). Amúgy nem csak a képek megjelenítése szempontjából fontos a magas FPS, ami talán még fontosabb az az input lag. 30-40 FPS mellett katasztrófa az input lag, jóformán élvezhetetlen irányítani egy kicsit pörgősebb játékot. Ezért nem igazán jó a DLSS3, mert az bár vizuálisan be tud szúrni új képeket, de az input lag-en nem javít. Ha már alapból jó FPS-ed van és a DLSS3-at csak arra használod, hogy még több legyen, akkor nyilván nem lesz gond, de ha valaki azért kapcsol DLSS3-at hogy valahogy kijöjjön legalább 60 FPS, akkor ott a játékélmény nem lesz túl jó.
"Pláne hogy anno azt mondták, az emberi szem 24fps fölött nem érzékeli a különbséget. "
Ez már anno is ostobaság volt. A 24 FPS a filmes szakmából jött át (ami teljesen más, mint a játékok megjelenítése), és ott is csak azért terjedt el ez, mert olcsóbb volt így filmezni és megfelelő zársebesség mellett már élvezhető mozgóképet eredményez. Szóval filmes közegben is a 24 FPS inkább csak az abszolut minimum, szó sincs arról, hogy az emberi szem ne tudna ennél sokkal többet érzékelni. Nyilván egy adott szint fölött már egyre nehezebb érzékelni a különbséget, de legtöbb embernél azért ez a szint jóval 100 FPS fölött van.
[ Szerkesztve ]
-
nagyúr
válasz Dilikutya #260 üzenetére
Pláne hogy anno azt mondták, az emberi szem 24fps fölött nem érzékeli a különbséget
És mekkora marhaságot mondtak
De amúgy természetesen lehet 20-25 FPS-sel is játszani, anno a Doommal még annyi sem volt talán a 386-oson, mégis ment éjjel-nappal. Na jó, csak éjjel, nappal az egyetemista alszik
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Dilikutya
félisten
Nem volt rossz az a G200, én játszogattam keresztapám gépén azzal egy 450MHz-es Pentium II (még az a nagy fekete Slot1-es tokos volt) társaságában, amikor nekem még az S3 volt. Mondjuk 2005-re jócskán megöregedett, de 2000-2001 körüli játékokkal jól elboldogult, pedig nem is játékra szánt kártya volt.
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
carl18
addikt
válasz Dilikutya #260 üzenetére
Nekem a első gépem 2005 körül egy HP 550 mhz pentium 3 volt, 128mb rammal és Matrox MGA 200-as videókártyával (8mb)
640X480X32 bit Itt volt 15-25 fps környékén de valahogy akkor sokkal jobban lekötött.
Most mindegy milyen játék alatt van 1440P 75 fps ha nem úgy kött le.[ Szerkesztve ]
Hiába szúr, itt Ryzen a úr!
-
Dilikutya
félisten
Ilyet ne mondj, hogy 25 fps már jó, mert szétcincálnak a 100fps alatt nincs élet és 240Hz-es fanok.
Pláne hogy anno azt mondták, az emberi szem 24fps fölött nem érzékeli a különbséget.Milyen jót játszottam anno 320*240-ben a Quake II-vel, jó pixelesen, 3D gyorsító nélkül egy 1MB-os S3 Trio hathatós(nak nem mondható) közreműködésével. És így se volt meg a 25fps.
[ Szerkesztve ]
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
carl18
addikt
De ez egy elég régi cím és ezért az egyért nem épít az ember új konfigot.
1440P maxon elég szépen fút, sok egységnél cpu limites. De ez nem olyan könnyen jön össze, és nem a világvége. Én még úgy nőttem fel ha valami ment 25 fps-el már jónak számított!
Hiába szúr, itt Ryzen a úr!
-
Kansas
addikt
+ a PCIe v4 támogatás hiánya, ami azért manapság már a gyors m.2 SSD-k és az x8-as VGA-k(pl épp az RTX 4060) korában tud néha számítani.
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
5700G-t(és a belőle faragott OEM-only 5700-at) nagyon megfogja a fele méretű L3 cache az 5700X-hez képest(16MB vs 32MB), ha csak nem akarsz IGP-re alapozni, játékra inkább az X-es alkatrész javallott az 5700-ak közül.
5600 viszont épp hogy X-nélkül érdemes, mert ahogy írtad is nincs érdemi teljesítmény-különbség a kettő közt.
Az 5600/5600X/5700X Vermeer(chipletes) magos, az 5600G/5700/5700G-vel ellentétben, amik viszont Cezanne(monolitikus, APU) magosak, ami az előbbiekhez képest nem támogat PCIe v4-et és fele az L3 cache is.[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Lokii
aktív tag
válasz Robitrix #239 üzenetére
Az Xes se kifejezetten drága , 5-6rrel több csak kérdés hogy ugyanaz e helyzet mint anno R 2600sok esetében hogy a simabol ki lehet hozni azt a teljesítményt, mondjuk akkor 15-20k különbség volt azthiszem
+2 magnál meg 5700G a fontolandó, 5700 meg csak OEM
GTA5/Social club: Dunna8 , Need for speed world:0DARIUS0 , Battle.net: Dunna#2926 steam barát kód 112529047
-
adr0001
aktív tag
Sok különbség nincs. 1080p Ultra, tömeg maximumon, VGA haláltusa. A CP2077 6/12 felett látszólag amúgy is ledobja a láncot.
Ha nincs VGA limit:
720p
6/12-n kb. 10% minuszÉs RT ha nincs VGA limit:
720p DLSSUP.PuMbA
Ha a frametime hullámvasutat játszik, akkor - ha tudsz keríteni - próbálj rá a Zen3-adra olyan RAM modulokat amiken 16 bites IC-k vannak, nem fontos hogy dual rank konfig legyen. Egy 5600x-en (plusz 6700XT) 60 fps alá nem szabadna esnie sehol.Hogy a 4060-hoz is hozzászóljak: a Frame Generation miatt egy FX-8350 mellé is simán befér.
Sírva viszem magammal a tíkot
-
adr0001
aktív tag
Hogy ne csak offoljak... Szuper a kártya, fogyasztásb*ziknak kötelezô!
Sírva viszem magammal a tíkot
-
Kansas
addikt
De nem ez volt a kérdés... amit linkeltél az egy prociteszt, ahol a leggyengébb proci mellé is odarakják a 4090-et.
A valóság meg az, hogy pl. i3 mellé a 2060-nál lényegesen erősebb VGA-t nem túl sokan raknak(mert akinek telik annál lényegesen erősebb VGA-ra, annak a hozzá való procira is, ha nem hülye) - annak meg a mai játékok mellett kifejezetten trükközni kell, hogy akár FHD-ban is ne GPU-limites legyen...
Igen, ha mellérakod egy 30e Ft-os proci mellé a félmillás VGA-t akkor CPU limites lesz, csak épp ez a kutyát sem érdekli, mert ilyet csak idióták csinálnak, meg tesztelők.
A tipikusan R5-3600 meg R5-5600X mellé rakott VGA-k 4K-ban kizárt hogy CPU-limitáltak legyenek... nyilván lesz pár kivétel(pl. e-"sportolók" és társaik), de a normálisan összerakott konfigok 80-90%-a VGA-limites szinte mindig.Egy RTX4070 vagy RX6800XT használata a tesztben látott CPU-limitek kb felét simán eltünteti... egy 4060 pedig a maradéknak is a felét-kétharmadát, a végén talán marad pár i3 meg Zen+ R5 ahol még látni némi procilimitet...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
PuMbA
titán
válasz Robitrix #243 üzenetére
A CP2077-ben a CPU kihasználtság attól függ, hogy mely részén vagy a városnak. A városrészek között 40%-os CPU használati különbség van! Nekem is van, hogy 50%, de a városközpontban a legnagyobb felhőkarcolók között, ahol több szinten keresztik egymást a sok sávos utak és utcák alatt még egy park rész is van meg felmegy 90%-ra és előjön a CPU limit. CPU limitet ott kell nézni, ahol a játékok legjobban eszik a CPU-t
[ Szerkesztve ]
-
Kansas
addikt
válasz Robitrix #243 üzenetére
"már 100 fps az érték hála a DLSS-nek"
Te itt mintha valamit nagyon félreértenél a DLSS működése kapcsán... A DLSS nem növeli a framerate-et. Az növeli a framerate-et, hogy a DLSS Quality mód a 4K-t nem 3840x2160-ban rendereli, hanem 3200x1800-ban. Ezért is okoz CPU limitet.
A DLSS maga annyit csinál, hogy az alacsonyabb renderelési felbontást felskálázza a megjelenítési felbontásra, a lehető legkisebb minőségvesztés mellett. Minél alacsonyabb presetet hasunálsz, annál alacsonyabb felbontáson renderel, a CPU meg úgy viselkedik, ahogy azon a felbontáson szokás. A DLSS Performance már FHD-ban rendereli a 4K-s megjelenítési felbontást, az annak megfelelő CPU-limittel...
Valamennyi overhead-je azért van a DLSS-nek, így nem kapsz egészen annyi fps-t mint ha natív FHD-n tolnád, de a kimenő kép is valamivel jobban néz ki annál.
Ettől nem fog semmi több szálat használni.Azt meg talán mondani se kell, hogy amikor DLSS Ultra Perf-re állítod és a 4K-s képet 720p-ben rendereli és onnan javítja fel amennyire tudja, az mit művel a CPU limittel...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Robitrix
senior tag
Ez nyilván való... egy számítógépben mikor játszunk nem csak a játék kér erőforrást, hanem egy csomo minden más. Ezért is illik alapvetően rászámolni legalább 1-2 magnyi teljesítményt pluszban a játék tényleges igénye felett a hardverra. Ma a legtöbb játékhoz simán elég a 6/12-es fitalabb CPU. de ha egyébb extra dolgok is kellenek játék közben a gépen nos akkor a 8/16-os CPU a megfelelő. extra igények alatt olyasmit értek, ha játék közben stremeli az ember a játékot, menti videóba a háttérben játék közben intenziven cseveg valakivel egy külső kommunikációs programmal és egyebek. Ha valaki egy 6 magot használó játékot játszik, akkor az optimálsi CPU nem a 6/6 hanem akkor már inkább egy 8/8 vagy egy 6/12-es CPu, jut is marad is teljesítmény más dolgokra is.
-
Robitrix
senior tag
Viszont nem is jött össze sima PS4-re.. botrányos volt egyszerüen csak a PS4 PRO-nak volt elég teljesítménye hozzá a több, mint megduplázott grafikai teljesítménnyel. Az XBOX one X az meg egy még erősebb grafikát használt mint a PS 4 PRO. Aért dereng, hogy nagy botrányok voltak és sokan vissza kérték a játék árát a gyengébb konzolok mellett, mert szar volt a játék. a PC-n még nagyjából elvoltak az induláskor is. Valamikor talán 2020 végén indult a játék, ha jól dereng.
-
Robitrix
senior tag
De itt egy teszt egy 5600X és egy RTX 4090 társaságában CP 2077
4k ultra minőség és semmi féle DLSS és RT nincsen mint látszik a videó elején azért a CPU terhelés csak 40% kb.
hozza a 65-69 FPSt
ugyan ez quality minőségű DLSS 3 mellett szintén 40% körül a CPU de már 100 fps az érték hála a DLSS-nek
ugyan ez automata DLSS nyilván elvitte performanc mod fele a DLSS-t mert a FPS már a 120-130 FPS körüli, de a CPU már felment a 50-60%-ra
Amikor meg rányomat mindent az ember 4K, ultra minőség, raytracing, DLSS és ami csak létezik. ott már bizony elöjön majd a 10 párhuzamos programág vagyis akár a 10 szál egyidejű használata. 12 szálból 10 egyidejű használata plusz rendszer és egyébb folyamatok bizony már esélyes a 90% CPU terhelés. Mondjuk én ezeket a tszteket még RTX 3090 Ti mellett láttam akár Ryzen r5 3600x mellett. ott már azért erősen szenvedett vele a ryzen 3600. a CP 2077 azért speciális kissé, mert más játékokra régebben nem volt jellemző, hogy a felbontás és a grafikai terhelés nővekedésével fokozatosan nyomták rá a plusz mag és szál szám igényket a CPU-ra. Egy átlagos játék közel se így viselkedik azért. -
PuMbA
titán
válasz Robitrix #241 üzenetére
A valóságban is ilyen csilli-villi tükröződő egy neonnal teli nagyvárosban, szóval én nem látok problémát ezzel kapcsolatban: Tokyo Rainy Night Walk in Shinjuku. Na de felszívódók, mert túl sokat offolok és mindjárt kimoderálnak innen
[ Szerkesztve ]
-
Robitrix
senior tag
Szerintem a gond inkább az a CP 2077-tel hogy túl csili.vili tükrözödő és neon fényben úszó minden. (amúgy utálom) Túl sok a fény, árnyék és tükrözödés benne(feleslegesen) ami felelegesen veszi igénybe, mind a Grafikát, mind pedig a CPU-t. A kevesebb csili-vili több lett volna.
-
Robitrix
senior tag
válasz tasiadam #230 üzenetére
Ezt így konkrétan nem tudom, mert ennyire nem értek hozzá, De a 8 magos FX 8000-esek úgy épültek fel, hogy külön volt 4 csoportban 2-2 mag egy közös cache memóriával. Vagyis nagyjából megoldották 2 maggal az 1 mag 2 szálas proci felépítését. És átvették annak teljesítmény hátrányát. Nekem mondjuk AMD A10-7870K procim volt, ami szintén az FX felépítését követte és 4 magos volt a a gyakorlatban 2*2 magos mintha 2/4-es proci lett volna. Drámaian rossz azért nem volt. és meglehetősen jó volt a prociba beépített grafika, Jóval erősebb volt mint kor integrált grafikás intel CPU-k grafikája. Néhány játékot még akár játszani is lehetett vele. Például futott vele a WOT nem HD grafikán szépen. Szóval nem volt azért teljesen reménytelen a buldózer architektura, de azért lehetett volna jobb a megvalósítás teljesítmény szempontból.
-
Robitrix
senior tag
A ZEN 2-es CPU esetében nem is mag ás a szál szám lehet mára karcsú néha, hanem az egy szálon vagy magon elérhető teljesítmény. Nem olyan rosszak azért persze ma se és vélhetően még évekig jók lehetnek, de például egy Ryzen 5 3600 egy szálas teljesítménye passmarkos tesztoldalon 2569, egy ZEN 3-mas 5600(nem az X hanem a 200 mhzel lejebb menű sima) 3260... és egy hasonló ZEN 4-es 7600 cpu 3999. Azért a 2569:3999-hez képest 55 % teljesítmény különbség egy szálon. És mind ezt 4 év alatt fejlödve. Igaz van benne órajel emelkedés is 4200 Mhz boost felment 5100 Mhz boostra. Ami 21% órajel emelkedés. A többi fejlődés a 34% a proci fejlődése. Amúgy ha karcsú kezd lenni a 3600 nos különösebb mókolás(alaplap, memóri stb.) hozzányúlása nélkül rakhatsz bele a gépbe egy 5600-as CPU-t ami úgy 52-54 ezer körül van nagyjából. (a sima nem az X-es) Az megtolja a teljesitményét a CPU-nak kb. 30%-kal simán. Én is azt tettem, mikor kapott a gépem egy erősebb grafikát egy amúgy GTX 1660 kártya helyett. Így most el leszek még pár évet a géppel FHD-ban, mert amúgy is egy FHD gaming monitor van a gépen(144 Hz)
-
válasz Robitrix #236 üzenetére
A helyzet az, hog nem is igen ismerünk olyan játékot jelenleg, ami használna mondjuk párhuzamosan egyszerre 12 párhuzamosan futó program ágat.
A játék nem, de a vga driver is használ, meg az OS, és még a számtalan háttérben futó program is.Pénztárca bemutatók: https://www.youtube.com/playlist?list=PLYQxd5Rbby46cPtVVMQodEGZuxZm7csIo
-
Polllen
nagyúr
-
Robitrix
senior tag
Amúgy csináltak ilyen teszteket speciel Ryzen r5 3600-os CPU-val. Ami 6 mag 12 szálas. De az alaplap biosában le lehet kapcsolni a szálasítást, amitől lebutul a CPU 6/6-ra csak. Olyan játékok esetén, amik beérik mondjuk 4 maggal maximum simán megugrik a teljesitás 3-4 FPS-el pusztán azért, hogy nem kell küzdeni a szálasítás teljesítmény csökkenésével. Aztán hogy miért gyártanak 6/12-s CPU-t mondjuk egy 12/12-es helyett nos egyértelmű, az árak és a költségek. Azért egy 6/12-es CPU jóval kevesebb elektronikai elemből áll, mint egy 12/12-es így olcsobb, nem vesz fel annyi telejesitnményt kevéssé melegszik. Amúgy meg az esetek döntő részében amúgy se csutkázunk ki minden magot és szálat egy játékban vagy alkalmazásban. A helyzet az, hog nem is igen ismerünk olyan játékot jelenleg, ami használna mondjuk párhuzamosan egyszerre 12 párhuzamosan futó program ágat.
-
PuMbA
titán
Valamit valamiért. Az RDR2-ben meg nincsenek felhőkarcolók meg 6 sávos autóutak tele forgalommal Azt nem szabad elfelejteni, hogy a Cyberpunkot PS4-re és Xbox One-ra is írták, tehát esélyük se volt a fejlesztőknek, hogy ekkora város mellett, ami amúgy is zabálja a CPU-t még tovább terheljék. Most a CP2077 kiegészítőben például már lesznek okos rendőrök és véletlenszerű balhék a városban amiatt, hogy nem kell ilyen lassú konzolokra megírniuk.
[ Szerkesztve ]
-
Polllen
nagyúr
" Egy olyan nagy és komplex város, amely semelyik más játékban nem létezik"
Az RDR2 világa mellett fájdalmasan egyszerű és scriptelt, a járókelők és járműveknek semmi egyedi reakciója nincs. Pont úgy elcsapnak és mennek tovább, mint egy GTA-ban. A küldetések abszolút kárpótolnak."Odamentem egy párhoz...négyen voltak!"
-
Robitrix
senior tag
Amúgy nem csak IPC javulást kapott. Hanem például a régebi FX procik kapásból csak a az SSE 3 utasíás készletig ismerték az utasitásokat. Csak valamikor az FX 8xxx valamelyikénél került bele a SSE 4-es utasytás készlet. A dolog ott volt kínos mikor 2020 márcusában kijött a Warzone egyszerüen elszállt a Buldozer procik jó részén, amik nem ismerték a kódban használt SSE 4 utasításokat. Újra kellett fordítani vélhetően kihagyva az SSE 3 feletti utasitás készleteket a kódból. Viszont továbbra is gond lehet, hogy újabb játékok esetén ha olyan finomságokat használnak a kódban, mint AVX és egyebb utasítás készletek egy olyan régi proci, mint a FX buldózer csak néz, mint Rozi a moziban, hogy milyen általa ismeretlen utasítást akarnak vele végrehajtatni. A túl régi intelekkel is lehet ilyen gond persze. Ahogy fejlödnek a CPU-k fokozatosan tolják beléjuk az újabb és újabb utasítás készleteket, amit éppen kitalálnak pár évente. Jelenleg éppen ott tartanak, hogy megpróbálják betenni a új procik mikrokódjába az AVX-512-es utasításokat. Ezek úgye speciális vektor grafikus műveleteket támogató utasítások. ás már itt toporog a kanyarban a a következő AVX támogatás AVX-2048 vagy valami ilyesmi. .
-
PuMbA
titán
válasz Robitrix #231 üzenetére
"Akkor volna limites a CPU-d ha azt látnád, hogy mikor leesik a grafika 70%-ra párhuzamosan felmenne a CPU használat valahová a 90% környékére vagy feljebb. "
Pontosan ez történik. Tudom, hogy mi az a CPU limit
"CP 2077 egy igen csak trükkös játék amúgy."
Ebben semmi trükk sincs. Egy olyan nagy és komplex város, amely semelyik más játékban nem létezik, ilyen sok emberrel és autóval eszi a CPU-t és magas grafikán már nem elég egy 5600X a 60fps-hez
[ Szerkesztve ]
-
Robitrix
senior tag
A dolog ennél kicsit bonyolultabb. Akkor volna limites a CPU-d ha azt látnád, hogy mikor leesik a grafika 70%-ra párhuzamosan felmenne a CPU használat valahová a 90% környékére vagy feljebb. a CP 2077 egy igen csak trükkös játék amúgy. Amikor valahol lent használod játékot mondjuk FHD-ban mondjuk közepes grafikai minőségen akkor vigan elvolt már egy Ryzen 5 3600 mellett is 40-50% környékén a cpu. Ahogy elkezdtre valaki emelni a felbontást és a minőséget a játékban megugrott az igény a CPU-val szemben is. A csúcs CPU igény akár 10 párhuzamos programák akkor jött elő mikor valaki 4K-ban játszott, használt RT -s olyan csutka minőséget használt, ahol a grafika még a játékos lábkörmét is kilakozta tükrözödve. Kisebb grafikai igény mellett beérte 4-8 magig(vagy szálig) Vagyis egy 6 mag 12 szálas proci azért képes kiszolgálni 10 párhuzamos programágat. Feltéve, hogy nem használok a játék mellett más szintén magokat és szálakat igénylő alaklamazásokat. Például nem akarom stremmelni a játékot a netre, hogy azzal is küzdeni kellejen a gépnek. Na olyankor már tényleg karcsú lesz egy ZEN 3-mas 6/12-es proci és inkább egy 8/16-os kell. De extra plusz igények nélkül képes kihajtani egy ryzen 5600 vagy 5600X proci. Amúgy meg azt, hogy nem 100% közelében van kihajtva a grafika gyakran nem is a CPU okozza igazán. kb egy hónapja adtak ki egy szezon közepi frissités a COD Warzone 2-re. elbaszták. hirtelen mindenkinek leesett az FPS lazán 30-50 FPS-t. Miközben azt látta az ember, hogy a grafika bezuhan 70% terhelés közelébe. Na olyankor eluszott az FPS egy része is. és nem a CPU okozta, mivel az továbbra se ugrott fel extra módon. Egyszerüen szarul irtak meg valamit a játékban, amitől az a pályák bizonyos részein nem használta ki a grafika teljes kapacítását. Egyszerüen egy intel 13900 és egy RTX 4090 mellett is bezuhant a grafikai teljesítmény. Aztán 2-3 javitással nagyjából sikarült részlegesen korrigálni a dolgot. Bár az 1-2 héttel korábbi teljesítményt azóta se sikerült elérni teljesen azért. Mondjuk a COD esetében 3,5 éve ez van. Minden frissitéssel új pályával és szezonnal egyre romlik a játék teljesítménye. Amúgy ezek a COD játékok legendásan szarul vannak megcsinálva. Pedig alapvetően egy jobb 4 magos CPU is elég volna hozzá elméletileg. A mai CPU-k röhögve kihajtanéák, ha néha nem kurnának el dolgokat a programban.
-
-
nagyúr
válasz Dilikutya #225 üzenetére
Igen, én is azt mondom, hogy ha valaki nagyon akar, akkor lehet, csak azt nem értem, miért akar valaki annyira nagyon, amikor egy i3-10100-zal vagy egy ryzen 5 3600-zal (mindkettő 3+ éves) sokkal jobb eredményt lehet elérni kevesebb fájdalom árán. De, ahogy mondtam, ymmv.
Ha nagyon ingadozik a framerate, az tönkreteszi a folyamatosság érzetét."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Dilikutya
félisten
Teljesen értelmes teszteredmények vannak a 8350-el, jól megy vele a Dead Island 2, a Horizon Zero Dawn, Doom Eternal is. 1080p, de megy, és 30+ fps van vele. 10 éves procitól ez korrekt eredmény, tekintve.
Én igénytelen vagyok, a szemem nem érzékeny az ilyen hülyeségekre, mint egyeseknek, ha a folyamatosság megvan, nem zavar, ha afölött ingadozik. Nagyon dilemmáztam az A10-6800K és a komplett FM2+ cseréjén is. Nyilván jobb az i5-11400, nem is bántam meg, de ahol megvolt a régivel a folyamatosság, azzal se volt bajom. De egy nagyobb FX-et 2 éve biztos nem cseréltem volna még, eleve pár éve gondoltam rá, hogy veszek egyet olcsón, olcsóbb lett volna mint végül egy vadonatúj félkonfig.Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
adr0001
aktív tag
Hi!
Ha meg tudod nézni AIDA-val a ramjaidat, akkor kíváncsi lennék hogy 8 v. 16 bitesek- e a chipek rajta?
3733 MHz 1Rx8 rammal azt csinálta nálam is amit nálad az 1.51-es parch utáni verziòkban, míg tengersok szopás után végül a tartalék 2666 MHz 1Rx16-os modulokkal pròbálva "megjavult, megszûnt a CPU (inkább IMC) limit". BTW csak a CP2077-re volt ennyire negatív hatással a RAM chipek milyensége, minden más O.K.-s volt. És ez kb 100%-os.minimum fps emelkedést jelentett...Sírva viszem magammal a tíkot
-
carl18
addikt
Nekem a R5 3600 egész jól tartja magát 1440P-be. Jelenleg egy 1660 Super van mellete, de előtte 1680X1050 felbontásba használtam a kártyát és ott is ki tudta hajtani a 1660 Supert.
Bár biztos van helyzet ahol van cpu limit, néha játszok starcraft 2-őt na annál előjön a cpu limit ha valami komolyabb csata van. De régi játék, annál nagyon jól jön az erős egyszállas.
Mondjuk én úgy vagyok vele most a Zen 2 cput még ráérek lecserélni, néha egy kis cpu limit nem a világ vége. Talán 2025-be érdemes elgondolkodni a váltáson nekem, valami erős intel/AMD Konfigra.
Talán az "Royal Core Project" Vagy a AMD Zen 5/6 és társai. Nem tudjuk előre melyik jön, de valszeg ilyenkor még elég nagy verseny lesz a 2 termék gyártója között.
[ Szerkesztve ]
Hiába szúr, itt Ryzen a úr!
-
nagyúr
válasz Dilikutya #219 üzenetére
Az FX41xx induláskor nem volt sokkal rosszabb játékra, mint a 81xx - ma már nyilván nagyon más a helyzet. A 83xx eggyel későbbi generáció, kapott némi IPC-javítást, de nagyon fel kellett húzni, hogy bármi értelmes kijöjjön belőle - én azzal sem kínlódnék, de ymmv.
De, a "golyózik tőle a szemem" az pont azt jelenti, hogy játszhatatlan. Tapasztalatból mondod amúgy, hogy játszható? Sztem ha a procidon letiltasz 4 magot a 6-ból, és kikapcsolod a HT-t, akkor valami hasonló eredményt fogsz kapni."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Dilikutya
félisten
Nem pont az FX41xx-re gondoltam, az a paletta alja volt, de egy 8350 már használható teljesítményre képes ma is. Neked leeht golyózik a szemed, de akkor sem játszhatatlan a 30-50 fps. A 30 már folyamatos látvány, inkább ingadozzon 30-50 között, kevésbé rossz, mint ha beesik 30 alá. Előbbire most be sem ugrik, hol látok olyat, de a 30 alá eső fps képe egyből bevillan.
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
PuMbA
titán
Én azt veszem észre, hogy a mai játékokba most kezd kicsit kevés lenni egy Ryzen 5600X. Nekem Cyberpunk 2077 alatt a városközpontban 60 fps alá esek magas népsűrűség vagy magas tükröződés (screen space reflections) beállítással egy 6700XT mellett RT nélkül. Ilyenkor látszik, hogy a GPU kihasználtság 70-80%-ra esik be. Kevésbé sűrű helyen megvan a 80-90fps.
A másik a Ratchet And Clank, ahol a CPU további plusz feladatokat kap, mint például a DirectStorage kezelése az amúgy is CPU igényesebb RT mellett még. A CPU igényesebb NVIDIA kártyák minimum fps-e be is szakad rendesen, a 6700XT jobb minimum fps-t produkál, mint egy RTX4080!
Bulldozereket hagyjuk, bármely mai játék két vállra fekteti: fps beesések és fps ingadozás mindenhol
[ Szerkesztve ]
-
Kansas
addikt
"Vicc, de már egy 5600-800 is bottleneck 4K mellett"
Az bizony, ráadásul elég gyenge vicc... mégis milyen GPU-val és/vagy milyen játékban? Meglepődnék, ha modern AAA játékban bármilyen GPU(kivéve talán RTX4090) mellett CPU limit lenne 4K render(!) felbontáson. Persze ha kapcsolsz egy DLSS-t vagy FSR-t akkor elméletben előfordulhat, de épp azért, mert akkor nem 4K-ban renderelsz, csak 4K-ban jelenítesz meg egy 1440p-n/1080p-n/stb. futó játékot...
Arról nem beszélve, hogy aki Ryzen 5600/5700/5800-at hajt, az többnyire nem 4090-et tesz mellé, és egy RX6700XT/RX6800/RTX3070Ti/RTX4070 elég ritkán fut bele CPU-limitbe, ha csak nem ilyen mosógépen is elfutó e-sport vagy multis lövölde esetében, de ott meg esélyesen amúgy is megvan a 2-300fps...Egy szó mint száz aki manapság CPU-limitbe fut az leginkább vagy nagyon spéci, főeg CPU-t terhelő rétegjátékot tol, vagy rosszul rakta össze a gépét, rossz alkatrészen spórolt... manapság egy VGA ára minimum a duplája egy őt vígan kihajtó CPU-énak...
Bulldozer FX kapcsán pedig egyrészt nyugodtan nézd meg, mit teljesítenek a velük kortárs Intel procik - szinte biztos hogy azokkal is CPU-limitbe fogsz futni komolyabb VGA-k mellett, másrést meg akik ilyen CPU-val szerelt gépeket hajtanak, a legritkább esetben tesznek melléjük combos videokártyát...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
nagyúr
Hát... egészségedre. Nem vagyunk egyformák
FX 41xx volt nálam igen rövid ideig. Valami nagyon prosztó i3 lett helyette.
#215 Dilikutya: itt is csak azt tudom mondani, nem vagyunk egyformák. Egy 30-50 FPS között ingadozó megjelenítés nekem játszhatatlan, golyózik tőle a szemem - annál még a fix 30 is jobb.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Dilikutya
félisten
Szóval nem mondtam, hogy az FX tökéletes lenne játékra, 11 éves CPU-tól az sem várható már el, hogy minden játékban értékelhető legyen. 10-20 éve ez elképzelhetetlen volt eleve. A 30-50 fps sem játszhatatlan. Nem vennék FX-et használtban, de ha lenne, most kezdenék még csak gondolkodni a cseréjén (ami volt: Richmond A10-6800K, 2 éve lett cserélve, faternál most is pörög).
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
nagyúr
válasz Dilikutya #211 üzenetére
A 40 FPS egyes játékokban valóban jól játszható, ha a videokártya limitációja miatt 40. Ha a CPU miatt, az sokkal kellemetlenebb, ránézésre is idegesebb lesz a megjelenítés, mert a 40-es átlag mellett sokkal rosszabb lesz a konzisztencia (faék példa: VGA limit esetén 35 és 45 között mozog az FPS, míg CPU-limit esetén 30 és 50 között).
Ráadásul egy olyan játékban, ami nagyon premizálja az egyszálas teljesítményt, az FX instant hulla.
Elméletben lehet mondani, hogy az FX a kiinduláshoz képest jobban öregedett, mint pl. egy 2C4T intel, de a gyakorlatban akkor is, most is érdemes messze elkerülni játék célra. Lehet vele játszani - ahogy sajtreszelővel is lehet... szóval tudod."We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Dilikutya
félisten
Nem mondtam, hogy 4K-ra is használható az FX, de akkor is használható. Ha már csak 40 fps valamiben, akkor 40 fps, de az bőven játszható sebesség, most hagyjuk a 240Hz-et és a "60 fps alatt nincs élet" okosságokat.
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
Sinesol
veterán
válasz Dilikutya #205 üzenetére
Dehogy jó, már egy 2600-as Ryzen is eléggé bottleneck, miközben a top Bulldozer fele olyan erős sincs. Láttam teszteket anno, valami 50-70 fps-t hoz az emlitett Ryzenhez képest, miközben már az sem túl erős. Vicc, de már egy 5600-800 is bottleneck 4K mellett, szal erős vga-t nem lehet melléé rakni, alacsonyabb felbontásoon meg mégjobban kijön a cpu limit.
Nagy divat volt egy időben mosdatni az AMD botrányosan gyenge generációját, de az azért furcsa, hogy még ma is műveli valaki.[ Szerkesztve ]
-
Dilikutya
félisten
válasz tasiadam #206 üzenetére
Nem papíron, néztem tesztet. Ennek fényében amit ma tud egy FX-8350, 10 évesen, az szerintem nem rossz. Lehet a konstrukció nem a legjobb, nem is az a lényeg, csak hogy profitál szépen ma is a 8 magból, vagy nevezzük akárminek, 4 modulnak 8 szállal. Bulldozerem nem volt, csak a kisebb Richmond, ami nem FX, de a felépítése hasonló, ott is valóban volt ami 2 magosnak mondta. De a Vram ugyanez, a 16GB minden kártyának éveket ad, a kérdés persze, megéri-e a felárat. Egy jó kártya mindenképp, bár ez az új generáció nem elég meggyőző eddig, de ki tudja.
Az RX570-ől se gondoltam anno, hogy a Battlefield 1-et 4K-ban fogom vele játszani ultrán.[ Szerkesztve ]
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
Csabis
aktív tag
Csendes olvasoként.. olvasgatok mindent.. vagy kérdezek CPu v agy alaplap oldalon..
Egy 3080Ti társaságában.. RTX 7seria vagy utáni fog érdekelni .. már ha nyugdíj előtt bele fog férni..
4060 már eleve elfuserált dolog.. mint az annak idején az FX egyes kártyái..[ Szerkesztve ]
-
tasiadam
veterán
válasz Dilikutya #205 üzenetére
Csak hiaba a papiron ooooo 4 eges es 4 fel, vagy 8 int es 4 float mag, ha nagyon nem konzisztens a felhasznalasa ennek, mert nehol az 8, nehol 4 magos. Egyebkent en siman beraknam szerverbe is az FX-et 2ghz-n akarmennyi maggal, csak nem enne keveset es lassu is lenne azon a frekin. De van aki epit belole render cluatert siman.
Még mindig másodrangú állampolgár
-
Dilikutya
félisten
A több mindig jobb. A 8GB-os RX570/580-ak is egész jól helytállnak ma is. Nem Vram, hanem CPU mag, de a megjelenésekor lesajnálták az AMD FX Bulldozer-t, és való igaz, az egyszálas teljesítménye nem volt túl acélos, de ahogy kezdték a játékok az egynél több magot értelmesen használni, úgy tartott ki a használhatósága, még ma is használható friss címeknél is.
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
Sinesol
veterán
Ja hat megmondoemberböl en is tudok valogatni, csak az a baj kutyatse erdekel, se ez az oldal se az az oldal fizetett promoja/ellenpromoja. A helyzet az, hogy 4K + framegen kb úgy nez ki mint a nativ, / mivel ugye nativ is/ de egy 1440p-röl való high quality skalazast is ember legyen a talpan aki megkülönböztet.
Carl18: Intelben en is bizok, hogy hoznak valami uj architekturalis megközelitest, versenyt, amivel esetleg lehet valami nagyobb elörelépés ár/ertek terén. Amugy a mostani gen sem rossz, kb nullarol a közepkategoria megvolt es az ar se rossz, csak driveres téren még kell fejlödni es jo lesz.
[ Szerkesztve ]
-
carl18
addikt
AMD Abban más hogy 8-10 helyet 12-16gb vramot kapol ami nem elhanyagolható különbség számomra.
Ja van 8 gigás 3060TI-3070 is van 100 körül de a 8giga nem olyan sok.
Pár év múlva biztos kevés lesz, akkor még a AMD 16 gigája elég lesz.
Élet tartalom alapján jobb a több ez a biztos, mint ha 2010-be 128 mb-os kártyát erőltetnék."1440P-n a ram miatt eret vágnom max a textúrát vettem le 2 darab játékban Ultráról Highre " Már most? 2023 van mi lesz 2 év múlva ?
Lesz Medium aztán Low texture.[ Szerkesztve ]
Hiába szúr, itt Ryzen a úr!
-
slmSIG
tag
Is DLSS Ruining Games? - YouTube
...
A lényeg, a fentebbi videóban benne van.
Nem kéne erőltetni, meg helyeselni, hogy a dlss, vagy egyéb új, 'rásegítés-technológiák' báááármelyike jó volna és elfogadott!
Ez a generáció, minden oldalról, de pláne az nVidia oldaláról egy vicc.
Eleve ők kezdték ezt az egészet, aminek értelme régi kártyákon volna, újon nem...
...Why Do People Hate DLSS 3 Frame Generation? - YouTube
DLSS 3 Kinda Sucks - YouTube
Radeon RX 6800 XT vs. GeForce RTX 4060 Ti 16G, 40+ Game Benchmark @ 1080p, 1440p & 4K - YouTube[ Szerkesztve ]
-
félisten
Nem látom hogy az AMD miben is más. Ez egy elavult, nárcisztikus hozzáállás.
Használtan az összes előző geenrációs kártya jó, nem csak az AMD . A 3070 is szuper 110 K ért megy a 3060 Ti 85 ezertől, ez a vram mizéria aztán elég jól túl van tolva.
A 10 Gigás 3080 145 K tól van 3080 Ti 12 GB vrammal 180K tól kapható. 3090 200 ezeről van.
Nekem 3080 kártyám van még soha nem kellett 1440P-n a ram miatt eret vágnom max a textúrát vettem le 2 darab játékban Ultráról Highre és boldog voltam, hogy cserébe van DLSS meg megfelelő RT teljesítmény és megszokott kezelőfelület.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Új hozzászólás Aktív témák
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Mercedes topic
- Motorola Moto G54 5G Power Edition - nem merül le
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- PlayStation 5
- Milyen RAM-ot vegyek?
- Milyen belső merevlemezt vegyek?
- Parfüm topik
- További aktív témák...
Állásajánlatok
Cég: Marketing Budget
Város: Budapest