Hirdetés
- Samsung LCD és LED TV-k
- Mindennél nagyobb: tesztpadon a Ryzen 9 9950X3D CPU
- Hisense LCD és LED TV-k
- Ryzen 7 9800X3D processzor: játékosokra hangolva
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Gyorsabban viszi ki a gyártást Kínából az ASUS
- Raspberry Pi
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- OLED TV topic
- Melyik tápegységet vegyem?
Új hozzászólás Aktív témák
-
#25237004
törölt tag
Nem beszéltem Nvidiáról, AMD-ről, ugyanúgy hányok az üzletpolitikájuktól (miközben egyben lenyűgözően okosnak is találom), mint bárki más... A 150 e Ft feletti kártyák közül pedig én sem a 8GB VRAM-osakat ajánlanám, az is biztos.
A mondanivalóm ettől függetlenül magáról a 8GB VRAM-ról szólt. Szerinted jók ezek a portok? The Last of Us, Jedi Survivor, Redfall, Forspoken, Gotham Knights, Callisto Protocol, stb. Felsorolni is nehéz. Némelyik rosszabbul néz ki mellé, mint az 5-6 éves játékok.
"Nyilván játéfüggő függő melyiknek mennyi kell de ha most 2023-ba ilyen rossz sokszor a 8gb vram mire lesz elég mondjuk 3 év múlva?"
Ez erős általánosítás. Melyik játékban rossz, milyen felbontáson, milyen beállítások mellett, azok között a beállítások mellett milyen látványbeli különbség van, hol van ez mondjuk 5-6 évvel ezelőtti játékokhoz képest (lásd Arkham Knights vs Gotham Knights, egy vicc). Összességében meg kb. ugyanarra lesz elég mint most. A tré portokra megjelenés után egy ideig nem igazán. Amúgy meg totálisan, nem látom, hogy az aktuális konzolgeneráció ideje alatt miért változna számottevően."A 6 gigás 1660 Superem 1440P-be nem a legújabb címekkel is meg tudom telíteni."
Ez már más kérdés, itt a topic-ban az 1080p-8GB VRAM temetése megy.cucka: Pontosan így zajlik, kiegészítve azzal, hogy ezeknek a játékoknak a megjelenéskori állapota egy vicc, ami pluszba torzít az eredményen.
-
Igazából nem ez történt szerintem. .Bocs a hosszú válaszért :
Egy számukra zseniális üzleti lépés történt az utolsó pillanatban, leszarva a vásárlók véleményét. Már leírtam más topikban a teóriámat. Bemásolom ide ha megengeded:
És gondolj bele ha 4060 és 4060 Ti nek hívnák most a 4070 és 4070 Ti-t akkor nagyon elégedettek lennénk 399 és 499 dolláros árral ezért teljesítményért. Ezért van keverés a 16 Gigás 4060 Ti vel ,mert az amúgy egy 8 Gigás 4050 és 4050 Ti lett volna az alsó szegmensben 300 dollár alatt.
Ezt írtam ott:"Igazából jól látszik mi történt, szerintem.
Lecsúsztatták az eredeti( mondjuk 1 évvel ezelötti) tervekhez képest a kártya nervezékeket . ( A 4080 12 GB már nem ment át a szűrőn de képesek lettek volna amúgy még azt is ránktolni)
Ha megnézed az SKU-kat tisztán látszik, hogy a most kiadásra kerülő 4060- és 4060 Ti valójában 4050 és 4050 Ti lett volna. ( teljesen ok 8 GB vrammal 128 Biten)
A 4070 és 4070 Ti lett volna a 4060 és 4060 Ti és így tovább. ( 12 GB 192 bit)
valószínűleg jön majd a 4080 Ti ezzel meg is lett volna a 4070 -4070 Ti ( 16 GB verzió)és a 4080 a z a mostani 4090 lett volna és a teljes értékű verzió amit majd kihoznak 4090 Ti néven 2000 dolláros áron lett volna a 4090 )Az egész itt meghalt hogy a 7900XTX ellen a 4080( úgy-ahogy) elég volt így minek adjanak 699-799 dolláros kártya árán a másik oldal csúcs kártyájának a szintjét ha eladhatják 1000 + dolláros áron..
Az összes SKU-n sokkal több pénzt keresnek így, mint az eredeti forgatókönyv szerint.( valószínűleg úgy is drágák lettek volna a kártyák, de mi jobban jártunk nem ennyire kompromisszumos lett volna a felhozatal.
A 4090 Ti hez képest szerintem a 7900XTX kb 30 % lemaradásban lesz 4 K -n.
A fenti konteót támasztja alá a mai bejelentés is, hogy a 4050 határozatlan ideig csúszik." -
Pöttön
őstag
Nyilván jelenleg teljesen kompromisszum mentes a 12gb vram, de ha az ember hosszútávra tervez vele (6-7-8 év) akkor azért csak jobb lenne ha 16gb lenne rajta.
A konkurencia közel azonos árszegmensben (rx6800) megtudta oldani, akkor az nv miért spórol ezen?
Van mondjuk egy tippem.. így csinál teret már előre az rtx5000-es szériának.
Azokon a kártyákon amiken lenne értelme a sok vram-nak ott spórol, hogy elöbb utóbb kompromisszumos legyen a kari, ott meg ahol nincs elég power gpu téren rárakja a 16gb-ot... -
cucka
addikt
válasz
#25237004 #294 üzenetére
1. jön a fejlesztő és berakja a játékba az ultrarészletes textúrákat, amik nem férnek be a 8gb vram-ba, hogy a cúscskártyák tulajdonosainak kedvezzen
2. jön a tesztelő, és neki összehasonlítható eredmények kellenek, ezért ultra részletességen tesztel
3. a játék nyilván szarul fut
4. jönnek a fórumozók, akik ebből levonják a következtetést, hogy 8gb ram-al lehetetlen normális minőségben játszani, és ezek a kártyák szemétre való vackok -
carl18
addikt
válasz
#25237004 #294 üzenetére
Nem is az Nvidia a hibás hogy lespórolja a Vramot.....
A portolás rossz.
2016-ba 7 éve 8 gigás volt a GTX 1070-1080, már most egy X60-as kártyának 12 gigásnak kéne lenni....
Nyilván játéfüggő függő melyiknek mennyi kell de ha most 2023-ba ilyen rossz sokszor a 8gb vram mire lesz elég mondjuk 3 év múlva?Ha a régi Tierből indulunk ki (Pascal például) RTX 4050 8 gigás lenne, RTX 4060 12gb
RTX 4070/4080 16gb RTX 4080TI 20gb RTX 4090 24Gb.
Valahogy ezeknek ilyen formátumba kellet volna piacra kerülni egy normális világba.
Vagy is ami számomra emészthető, lehet kifogásokat gyártani én akkor is hülyén érezném magam mondjuk 2023-ban egy 500 eurot fizetni egy 8 gigás kártyáért. (Ennyire jön ki magyar áfával) a 4060 Ti, számológép mindenki gépén ott van.Talán itthon 180E-200 között rajtolhat a 8 gigás 4060TI, és kb azt tudja majd mint a 3070 ami szintén ennyibe kerül árukeresőn. Csak a kisebb fogyasztás és a DLSS a újdonság, szóval nem vitték túlzásba.
(Saját tapasztalat)
A 6 gigás 1660 Superem 1440P-be nem a legújabb címekkel is meg tudom telíteni. -
#25237004
törölt tag
"de azt értsd meg, hogy sokan csak néhány primitívebb játékkal játszanak és full hd-n."
De még csak erről sincs szó 8GB VRAM-mal. Meg kell nézni mi fér bele ebbe:
Plague Tale: Requiem 4k ultrán (!) 7-8GB VRAM-ot kér és kineveti az elmúlt pár hónap címeit, amik kapcsán a VRAM-os sírás megy. Brutális részletes textúrák, gyönyörű látványvilág. Még egyszer: 4k-n, ultra textúrákkal, nem pedig 1080p-ben kínlódik. Nem a 8GB kevés, ilyen tré állapotban jelennek meg a játékok. Fentebb már írtam: Last of Us még mindig tré, de már jobb minőségű textúrák vannak benne, miközben 1,5GB-tal kevesebb VRAM kell hozzá.A hatalmas tanulság megint elcseszett, igénytelen AAA portok (amik az összes játéknak nem teszik ki a 0,0001%-át) megjelenéskori alfa állapotából van leszűrve, ami után a fejlesztők/kiadók nem győznek bocsánatot kérni. A tesztek is egyből megjelenéskor jönnek ezekről a játékokról, ez marad meg az emberekben, ebből vonják le a nagy bölcsességet.
-
-
Mans20
addikt
Kíváncsi leszek a Ti árára nálunk. Lesz vagy 200e, csak akkor a 16GB-s elég közel lesz a 4070 árához.
-
Pöttön
őstag
4060 8gb-al kapcsolatban meg:
Egyetértek azokkal akik azt mondják hogy 8gb vram elég.
Nagyon sok mindenre elég (kompromisszumal) és fhd felbontáson korrekt látványt lehet ezzel a vram mennyiséggel elérni.
Na de ennyiért legyen már rajta legalább 12gb.. 400usd-ért 8 gigás kártyát venni az elégnagy öngól..
Kb egyáltalán nem időt álló, mert már most is kompromisszumos.#289Pikari :
Az 1 slotos hűtéseket ne is erőltessék, nagy kár lenne.
2-2,5 slotban sokkal több lehetőség van, és kb minden gépházba befér gond nélkül. -
Pikari
addikt
Már az első dx10-es amd és nvidia gpuk is elmentek ebbe az irányba 2006-ban. geforce 8800, radeon hd 2900. Aztán a dx11-es gennel is elmentek ebbe az irányba. geforce 480 (fermi széria)... vagy pl radeon 7870.
Volt pár értelmes és relatíve sikeres próbálkozás, hogy visszatérjenek az 1 slotos és 6 pines dizájnhoz, emberi fogyasztás mellett (8800gt, radeon3850, 730gt), de aztán végül nyertek a behemótok
-
PuMbA
titán
Semmi baj sincs a performance / watt mutatóval. Az új kártyák ebben minden előző generációs kártyánál jobbak. Pár hozzászólással ezelőtt linkeltem: [link] A 4080, 4090 és a 4070 a Top 3. A 4070 például 200W-ból hozza egy előző generációs 320W-os kártya teljesítményét. Alulfeszeléssel ezt még tovább, 130-150W-ig le lehet vinni tesztek alapján, tehát 4060 szintre.
-
Pöttön
őstag
Pontosan ez a bajom nekem is.
Ez nem fejlődés ami jelenleg megy a vga iparban.
Növelik a teljesítményt a fogyasztással karöltve, a méret meg a súly meg nő az egekbe...
Performance/watt mutatóval meg senki se foglalkozik pedig ez lenne az igazán fontos!Ha 10 évvel ezelőtt mondta volna bárki hogy a jövőben 40 centis 4 slotos nagy bufla fos "csúcs" vga-k lesznek, amik önmagukban képesek annyit enni mint egy komplett pc kiröhögtem volna...
-
Európában van egy rakás külön szuverén állam, külön ÁFÁ-val, és ebből következően külön helyi MSRP-vel. USA egy ország, egy MSRP, viszont van 50 tagállam, más-más ÁFÁ-val.
Az európai (országok szerinti) MSRP-t legjobb tudomásom szerint vagy az adott cég központja, vagy a helyi képviselete határozza meg (nyilván a központ sugallatának hatására). Némi extra minden bizonnyal van rajta az eredeti MSRP + ÁFÁ-hoz képest, innen jön a képletemben a 3-4%, ami nyilván nem egy hivatalos szám (nem is lehet egy range hivatalos szám), hanem gyakorlati tapasztalat.
Vám vagy 0, vagy esetleg nagyon kevés van a technológiai termékeken. Ha USA webshopból rendelsz, akkor az USD árra a magyar ÁFÁ-t + a szállítást fogja rátenni. Innentől kezdve amúgy a netto MSRP nemigen térhet el Európában sem, ugyanis akkor tömegek rendelnék az USA-ból a helyi boltok helyett.
Az egyet nem értést elő lehet adni tárgyilagosan is, amibe nem férnek bele a "mióta van benne", "lehet, hogy neked... de nem sok köze van", "ja, mert... mi?" típusú fordulatok. Ez biza' vagdalkozás in my book. But YMMV. Piss... akarom mondani peace.
-
cucka
addikt
Amerikában a fogyasztóknak minden esetben a nettó árat írják ki. Az adó mértéke államonként vagy akár városonként is eltérhet, azt fizetésnél adják hozzá.
Szóval bemész a szendvicsboltba, ki van írva, hogy 10 dollár a szendvics, megveszed és a kasszánál fizetsz 11 dollárt.Európában az az előírás, hogy a fogyasztóknak mindig a bruttó árat írják ki, tehát a helyi ÁFA benne van.
Továbbá fogyasztóknak EU-n belül nem kell ÁFA különbözetet számolni, tehát ha német boltból veszel valamit, akkor azon a német 19% ÁFA van, a magyar állam nem tarthatja a markát a maradék 8% ÁFÁért.Az MSRP az a gyártó által ajánlott fogyasztói ár, és minden esetben nettóban adják meg.
A szállítási költségnek az égvilágon semmi köze a termék árához. Azt a szállításért fizeted.
-
Kansas
addikt
"Az USA-ban nincs, mert államonként más az ÁFA."
Ja, mert Európában mindenhol ugyanannyi, mi?"De ha kicsit gondolkodnál vagdalkozás helyett, szerintem magadtól is össze tudnád rakni, hogy a 299 dolláros netto MSRP-ből származó 329 EUR az aligha netto, amikor a 299 USD átváltva 278 EUR..."
Vagy nem az amerikai MSRP-ből származik az európai, vagy esetleg ahhoz képest még van némi extra rajta, úgymint vám, szállítás miegymás... amúgy nem rémlik hogy én vagdalkoztam volna, csak nem értek egyet a becsléseddel. De mondom, majd meglátjuk. -
Európában úgy kb. azóta, amióta az MSRP és az ÁFA fogalma létezik
Az USA-ban nincs, mert államonként más az ÁFA.De ha kicsit gondolkodnál vagdalkozás helyett, szerintem magadtól is össze tudnád rakni, hogy a 299 dolláros netto MSRP-ből származó 329 EUR az aligha netto, amikor a 299 USD átváltva 278 EUR...
-
Kansas
addikt
MSRP árban mióta van benne bármilyen ÁFA?
Tudtommal se az amerikai se az egyéb MSRP-kben nem számolnak ÁFÁ-val. Cserében benne van kb minden más:szállítás, vám nagyker/kisker árrés...
Az lehet, hogy neked a "USD-ár + ÁFA + 3-4%" számítás be szokott jönni, de attól még annak nem sok köze van bármi hivatalos számításhoz...
De mindegy, ne akadjunk le ezen, 1-2 hét múlva kiderül, kinek a bevslése pontosabb. -
carl18
addikt
Szerintem egy RX6600-zal szemben ha hosszabb távra keresel FHD kártyát, VGA-kímélő játékokhoz, lehet egy 12GB-os 3060 jobb választás.
De jelentősen drágább is, egy RX 6600 88-90E elvihető 3 év garival.
A legolcsobb RTX 3060 meg 135E körül indul, ami a inno3d kivitel 12 gb. -
RTX 4070 599$( 649€) MSRP-n számolva 267 ezer forint lenne a legolcsóbban, most boltban már van 255 ezerért, azaz MSRP ár alatt. L:https://aqua.hu/alkatreszek/palit-geforce-rtx-4070-12gb-dual-videokartya-ned4070019k9-1047d-t1325657][link] aprón meg 240 ezerért. Szerintem a 4060 olyan 130-140 K lesz.
-
Hogy ez az EUR-ár + ÁFA milyen egy kipusztíthatatlan tévhit
USD-ár + ÁFA + 3-4% szokott lenni a magyar MSRP, és a 4000-es széria mindegyik tagját lehetett is ennyiért kapni.
A 329 EUR-ból úgy tudsz magyar árat csinálni, hogy leveszed belőle pl. a német ÁFÁ-t (19%), és ráteszed a magyart. Az kb. 350 EUR-ra jön ki. -
Kansas
addikt
Szerintem egy RX6600-zal szemben ha hosszabb távra keresel FHD kártyát, VGA-kímélő játékokhoz, lehet egy 12GB-os 3060 jobb választás.
A 4060 MSRP-je nem tudom hogy jön ki neked annyira, eleve €329-őr indul, és erre még jön at ÁFA, arról nem beszélve, hogy évek óta nem láthattunk NV kártyát MSRP-ért adni kiskerben.
Ne legyen igazam, de lesz az 160-170e Ft is mire ideér... és annyival nem erősebb. -
A játszáshoz szükséges CPU-teljesítményt egy 2.5 éve középkategóriás Ryzen 5 5600X is hozza, 2x gyorsabb CPU-ból túl sok extra értéket nem veszel ki, csak ha spec igényeid vannak. Videokártyákkal most (ill. múlt ősszel) jutottunk el oda, hogy a toptop tudja a 4K + RT-t 60 FPS-sel, és még azt sem mindenhol.
#270 PuMbA: az első két hét mindig popcorn, bár a zöldmanóshopban szokott lenni induláskor MSRP-n áru.
#271 Pug: ha újat akar venni, akkor elég nehéz a választás. Egy szaros GTX 1650 még mindig 65k, és onnan 20e FT-onként ugorva jelentős extra teljesítményt lehet kapni (ie. javul az fps / ár).
-
Pug
veterán
Aki "csak néhány primitívebb játékkal játszik" az nem 150K környékén nézelődik VGA után, szerintem.
De lehet, hogy tévedek, az eladások majd úgyis megmondják mennyire jött be az nV számítása a 60-asnak "cimkézett" 50-es GPU-val, magas árral és a 8GB VRAM-mal.
Ebben az árkategóriában akkor már inkább egy 6700 XT, messze jobb vétel.
-
PuMbA
titán
-
kukulec
őstag
amúgy mi annak az oka, hogy cpu-ban nevetséges áron nagyon jó teljesítményt lehet kapni, míg gpu fronton megy ez a szerencsétlenkedés? csak bányászkodás + ai?
-
A 4060 MSRP-je 135-140e FT-ra jön ki, a 6600-zal szemben megint ott leszel, hogy jelentősen nagyobb sebességre és több szolgáltatásra már lehet, hogy megéri kiadni +45-50-et. Az elmúlt generációval szemben éppencsak jobban meg fogják érni ezek a
4050-ek4060-ak, csak az előrelépés kutyaf***a. -
Fücsök007
őstag
-
kukulec
őstag
de azt értsd meg, hogy sokan csak néhány primitívebb játékkal játszanak és full hd-n. tisztában vagyok vele, hogy nem 4k 120 fps lenne a kártya képessége. továbbá az a másik kérdés, hogy ki fog ennél jobbat olcsóbban gyártani idén. mert amennyire látom, azért eléggé egymáshoz igazítják a teljesítményt a gyártók.
-
Nagyjából ugyan az lesz , mint a 3060 Ti ,kisebb fogyasztással és DLSS3 extra ficsőrökkel. De az előbbi 160 K most újan boltban ,használtan 110 K tól kapható,.Ha 130 K körül kapható lesz akkor a 3060 Ti helyett jobb vétel lesz a 4060 már csak a fogyasztás miatt is és frame generation segíthet azért kompenzálni ezt -azt.
FHD-n még el lehet lenni vele egy darabig, ha nem is 4-5 évig,de a helyedben azért lehet megvárnám a teszteket minkét verziónál mert a 8 GB 4060 Ti. és az között lehet nem lesz túl nagy árkülönbség akkor esetleg jobban megérheti a Ti verzió. -
kukulec
őstag
jelenleg ASUS GeForce Dual RTX 3060 12GB V2 OC 373 euro. amennyiben ennyire lesz árazva a sima 4060, úgy mondhatjuk tisztességes vételnek?
-
válasz
#71316224 #253 üzenetére
Az utolsó ilyen kategóriás nagyon jó kártya a 750Ti volt. Az egy remek kis kártya volt ,elég jó teljesítménnyel játékok alatt és remek fogyasztással és még utána is sokáig a projektor mellett teljesített szolgálatot média kártyaként.
Ha most Nvidia nem 4060 -ként hanem 4050 néven adta volna ki ezt a két SSKU-t olcsóbban, akkor hasonló jó kártya lenne ma. ( elméletileg ezek a GPU-k vágás mértéke alapján xx50 kártyák) -
Kansas
addikt
"eltüntek a 75 wattos TDP limites kártyák"
Nem tűntek el, csak a kutya nem veszi őket, mert alig tudnak többet egy Intel IGP-nél.NV:
GTX 1630 - 75W - 60-65e Ft
GTX1650 - 75W(Kivéve a TU106 chipre épülőt, ami 90W) - ~70-75e Ft
AMD:
RX6400 - 53W - 55-65e FtEgyik szarabb, mint a másik... még a leghasználhatóbb a GTX1650, de az is ott tart, hogy FSR/NIS kell neki FHD-ban is normális teljesítményhez, ha csak nem kifejezetten régi(5+ éves) játékokkal tolja az ember. A modernebb játékoknál a 4GB VRAM azért korlátozó tényező - bár nem hiszem hogy sokan várnának el ultra beállításokat ezeken a kártyákon.
Az RX6600 némi UV-val szintén jó lehet, de az már 100e Ft-os kategória. -
carl18
addikt
Úgy ahogy írod, eltüntek a 75 wattos TDP limites kártyák, arra emlékszem volt egy Asus Strix GTX 1050 maga idejében elég jól teljesített és nem is kért sok energiát.
Most 2023-ban ott tartunk 100-120 wattot kér a belépő kártya, az a gond azért nem érdekli a gyártot már a TDP stb mert mindenki a teljesítményt szeretne fogyasztástól függetlenül.
Most az Nvidia a bányászláz és Chiphiány alatt rájött arra sokkal több pénzért is el lehet adni egy videókártyát mint ahogy eddig árazták. Így szép lassan oda jutottunk hogy a 110 dolláros belépő GTX 1050-ből lesz 6 év után 299 dolláros belépő MSRP árazás.
A Legjobb opció ha vásárolsz valami kártyát/ RX 6600 például is magadnak otthon alul feszeled így létrejön az a kategória amit szeretnél.
Manapság a másik hogy talán a gyártók elég maximalista módon kisajtolják a kártyákból a teljesítményt. Nvidia/AMD is egy részvénytársaság így a kapítalista gondolkozás alapja a növekedés. Most a vállalatnak a célja hogy egyre több pénzt keresen, a 4080/4090-es kártyával szakítanak nagyott.
Azt olvastam a RTX 5000 széria 2025-ben fog rajtolni, 1 évet csúszik mert nem elég nagy a kereslet a RTX 4000 szériára. Más felől ők mesterséges AI-ra fejlesztenek hardvert, abba még nagyobb pénz van mint a Dedikált videókártyákba. -
cucka
addikt
Ami még az olcsó gpu-k létjogosultságát adta régen, az ha több monitort akartál hajtani. Mittomén, a hányadék intel gma-val kaptál egy szerencsétlen dsub kimenetet, ha bármilyen ezen túlmutató igény volt, videókártyát kellett venni. Most meg ott tartunk, hogy a ryzen integrált gpu-ra rá tudsz kötni 3 darab 4k60hz képernyőt, úgy, hogy nulla forintot költöttél videókártyára.
-
cucka
addikt
Nem kényszerűségből, megszokásból és marketingből nincs ez a szegmens. Azért szűnt meg ez a szegmens, mert az integrált gpu-k egyre jobbak lettek.
Régen nem így volt. Amikor az integrált grafikát a hányadék intel gma950 jelentette, akkor volt értelme egy olcsó dedikált gpu-nak.
De mostanában ha modern 3d játékokkal akarsz játszani, akkor az aktuális "olcsó" és "kis fogyasztású" gpu-k jelentik a minimumot, ezek alá nem nagyon tudsz menni.
Ha meg nem akarsz modern 3d játékokkal játszani, semmi értelme dedikált gpu-t venni, mert minden igényedet kielégíti az integrált megoldás. -
Pikari
addikt
Egyetértek, én személy szerint a single slot kártyákat részesítem előnyben. Ma már azért nincsenek budget kártyák, mert az igények 99%-át lefedi az integrált grafika, ami alapból bent van a prociban. Azzal meg nehéz versenyezni, főleg, ha a videókártya se gyorsabb nála jelentősen. Tehát akinek mégis kell, az vagy gamingre, vagy régebbi gépekhez veszik (az aitól és hasonló speciális felhasználási területektől most a gondolatmenetben tekintsünk el).
-
Pug
veterán
Segitek, egyre koltsegesebb a GPU gyartas, igy a 60-80K alatti kartyak kora lealdozott.
Dedikalt kartya 80K-s arszegmens alatt nem nagyon varhato. Max elozo szeria atnevezett kiadasai
De mint mar tobben irtuk, ott van arra a szegmensre az IGP.
BTW ott a 6500XT 60K kornyeken, ha ennyire ez a teljesitmeny es arkategoria a megcelzott
-
Spec
őstag
Elhiszem, hogy most már kényszerűségből, és megszokásból nincs ez a piaci szegmens, mert kb. 10-15 év alatt gondosan leszoktatták az embereket erről a vonalról. Gyakorlatilag eltüntették az alsó szegmenst, és a közép kategória jó részét is. Ahogy ti is írtátok a top kártyák és az IGP között nincs jelenleg semmi, egy piaci szakadék van gyakorlatilag. Vagy nem veszel dedikált GPU-t, vagy veszel egyet annyiért, mint amennyibe az egész gép kerül. Közte nincs semmi.
Igazad van, hogy nincs meg már ez a piaci szegmens, mert gondos marketinggel, és gazdaságpolitikai lépésekkel kiirtották. De az még nem jelenti azt, hogy ez így rendben van. -
#25237004
törölt tag
"Engem pont hidegen hagy a visszhang, a saját tapasztalatom zavar, amely nem pozitív."
És miből indul a tapasztalatod? A Resident Evil 4 Remake-ből, ami ezen játékok egyike, és amiről konkrétan pont az általad pár hsz-szel fentebb linkelt Digital Foundry videóban is elmondják, hogy a textúrabeállítások viccesen (jobban mondva szarul) működnek:
RE 4 Remake
10:13-10:50 között. Ez a hibásan működő cucc sugallja neked azt, hogy több VRAM kell. Ez vajon azóta is ilyen?De persze mindenki más, más szokásokkal. Valahogy engem mindig elkerülnek ezek a problémák, de lehet abból adódik, hogy elvből nem játszok megjelenéskor a tré állapotban leledző játékokkal (még akkor sem, ha a kártya mellé adták, mint most a Last of Us-t). Nem látom a logikát abban, hogy több tíz órát arra szánjak, hogy egy bugos, hibásan működő játékon háborogjak, mikor fél év múlva, patchelve teljesen más élményt adnak, addig meg van más. Normális körülmények között persze nem így jelennének meg, de ez nem mostanában lesz.
-
cucka
addikt
Ez az általad elképzelt piaci rés nem létezik.
És attól, mert a legújabb gpu-t a gyárban alulfeszelik meg raknak rá gyengébb hűtést, attól nem fognak hipp hopp 50 ezer forintos kártyát varázsolni a 200 ezres kártyából.Szóval az igényed, hogy egy nem létező piaci szegmensbe gyártsanak egy nem megvalósítható terméket.
-
Dragon3000
nagyúr
Nem érné meg a gyártóknak, ezért nem is foglalkoznak vele. Mivel nagyon keveseket érint ez a szint, illetve az igp-k a nagy részét lefedik ezen igényeknek, így nagyon kevés eladásból kellene visszahozni a pénzt, hogy megérje vele foglalkozni, ami miatt magasabb lenne az ára, mint amennyit adnának érte, így csak porosodnának a polcokon az eladatlan példányok.
-
Spec
őstag
Igen, ezt a részét értem, és el is fogadom. Csak mondjuk lehetne valami budget/value változata is az éppen futó GPU-kra épülő kártyáknak, ami ugyanazt a GPU-t tartalmazza, mint a top kártyák, de jócskán gyárilag levéve az órajel, jócskán alul fesszelve, kevesebb memóriával, olcsóbb kiépítéssel, gyengébb hűtéssel, stb. Cserébe nem kérne külön tápot, és jóval olcsóbb is lenne, mint a nagy tesók.
Ezzel a full HD-ig játszók még mindig bőven ellennének, jobb teljesítményt is adna, mint egy IGP, de nem kéne egy Paks II hozzá. A zsebbe se kellene úgy belenyúlni, ami amúgy ráférne a VGA kártya piac alsó szegmensére. Egyszerűen évek óta eltűntek az alsó házból a még éppen használható szintű, de 30-50e huf ár körüli dedikált kártyák, amik azért egy IGP-nél mégis jobbak. -
Pikari
addikt
Az fx5200 pci még elindul win7 64 bit alól (újabbal nem próbáltam), de a képernyőn foltok és csíkok vannak, mintha a kártya hibás lenne (nem hibás) és 3d-re általában lefagy.
XP és 9x alatt kb a 45-ös drivertől kezdve kb az 55-ös forceware driverig bezárólag jó, fölötte instabil. Némelyik driver annyira szar, hogy minden játék után újra kell indítani a gépet, mert a második indításra már nem találja gyorsított eszközt a d3d -
Spec
őstag
-
cucka
addikt
Az ilyen alap videókártyákat kiváltották a cpu-ba integrált megoldások.
Aki játszani akar, annak mondjuk az nvidia 60-as széria a belépő szint.
Aki nem akar játszani, az jobban jár az integrált megoldással, az egyszerűbb játékokat az is simán elviszi.
A kettő közötti piaci rés az annyira vékony, hogy szinte nem is létezik.#217Pikari
Én értem, hogy vannak emberek, akiknél 20 éves kotladék fosok vannak még mindig. Azt nem értem, hogy a frisssen bejelentett, legmodernebb hardvereknek miért kéne ezeket továbbra is támogatni. -
Dragon3000
nagyúr
Mindenféle mód nélkül a 2070 super 1080p-ben cyberpunkban tud 65,7fps-t, míg a 2060 12GB 53,7-t, ahol neked 45-60 fps-t tud a 2070 super, ott a 2060 valószínűleg még annyit sem. A 2060 esetében elég lenne a vram, viszont a gpu miatt tapasztalnál akadásokat, mert beesne 30 alá is az fps.
-
Pug
veterán
Korabbi azonos telhesitmenyt most is folyamatosan alacsonyabb fogyasztassal kapod meg, generaciorol generaciora...
Sok esetben mar IGP altal...
Az hogy meg a csucs egyre magasabbra maszik fogyasztasban, az alap lesz amig jonnek be az ujabb eroforras igenyes "igenyek": RT, 4K...
-
Pikari
addikt
Hát a pci és agp korszakban a 640x480 vagy 800x600-as felbontás volt max az átlagpolgár arca előtt, nem volt szempont a full hd videó lejátszás, mert eleve nem is létezett ilyesmi egészen az agp korszak legvégéig. Amúgy sima PCI videókártyák most is vannak, túlélték az AGP-t.[link]
-
Spec
őstag
Jelenleg egy Gigabyte 1050Ti OC 4 Gb van a gépben, külön tápcsati nélkül. Idle-ben 32W-ot kér kb., TDP 72W. Átlagosan terhelve se nagyon megy 60W fölé. Na ez lenne az a szint, amit elvárna az ember, hogy tudják tartani a modern kártyák, csak úgy hogy mellette javul a teljesítmény.
Ezzel van bajom, hogy ok, hogy a csillagos égbe megy már a teljesítmény, csak ezzel arányosan nő a fogyasztás is a csillagos égbe.
Azért az nevetséges, hogy lassan 3x annyit eszik csak maga a VGA kártya, mint anno evett egy komplett gép.
Hol vannak már jó öreg VGA karik, amik egy sima PCI, vagy AGP slotból kivették a szükséges táp kakaót, és egy laza passzív bordával elvoltak. Na jó nyilván nem hasonlítom a mostani kártyákhoz őket, mert azoknak még egy HD videó lejátszás is kihívás volt a hőskorszakban, de az iránnyal nem értek egyet. Ha értitek mire gondolok... -
válasz
Dragon3000 #205 üzenetére
Én pont nem vagyok FPS huszár. A Cyberpunk 2077-ben 550 órányi játékidőm van, szénné modolva, RTX 2070 Super kártyán FHD RT + DLSS quality mellett 45-60 FPS van, 60-as cappel. Számomra teljesen élvezhető.
Mint említettem, az zavar, hogy például a HD textúra packoknál viszont már kevés a VRAM. És itt nem az átlag FPS-ről beszélünk, hanem konkrétan vagy megakadást látok, vagy hiányzó, tizedmásodperccel később megjelenő textúrák is voltak már. -
válasz
#25237004 #204 üzenetére
...de van róla videó, a High 3GB és a High 8GB beállítás között megint csak... zéró különbség...
Nem tudom ki és milyen videót csinált erről, de megnézve nekem, nekünk igencsak látszott a különbség, ezért fáj a szívem, hogy itthon nem tudom belőni magasabbra...Azt tartom különösnek, hogy ez a téma pont akkor kap ekkora visszhangot, ahogy mindenki papagájként ismétli, amikor a videokártyagyártók eladásai megzuhantak és minden trükköt be kell vetni, hogy rávegyék az embereket a fejlesztésre.
Engem pont hidegen hagy a visszhang, a saját tapasztalatom zavar, amely nem pozitív.
Én amúgy tök jól ellennék jelenleg FHD felbontáson az RTX 2070 Super kártyával... Csak egyre több a kompromisszum - és a képminőség terén...Most cserélem le a gép alapján AM5 platformra, de a VGA csere még várat magára, mert jelenleg nem látok olyan opciót, amivel elégedett lennék, és azért 3-4 évig kihúzhatnám vele. Rászánnék annyit egy 4070 / 4070 Ti-re, amennyibe fáj, de a 12GB ramot kevésnek tartom, az RTX 4080-at drágállom, jelenleg azt várom, hogy a 4060 Ti 16GB mit mutat....
Meg hogy a Radeon-onok mit tudnak a túloldalon felmutatni... -
Egy RTX 4070 tök jó lenne - 16GB rammal. De ilyen ugye nincs.
Nem szeretném évente-kétévente cserélni a kártyát. Váltanék Radeon-ra adott esetben, de például a Cyberpunk 2077 esetén az RT nekem nagyon bejön, viszont az nem erőssége a pirosaknak...Ha így haladok 4080 lesz a vége, de annyit nem akarok most kiadni egy dVGA-ért...
-
cucka
addikt
Hát valamikor el kell engedni ezeket a régi csatlakozókat. Van két monitorod, ami 2010-ben sem számított már korszerűnek, meddig akarod, hogy a gyártók támogassák azokat a csatlakozókat?
Parallel ATA sincs már, soros port, párhuzamos port, firewire, ps2-es port, PCI, AGP stb. stb.Azé ne várjuk már el minden gyártótól, hogy a modern megoldások mellett 10-15 éve elavult szarokat is mind hiánytalanul támogassák.
-
carl18
addikt
RX 6600 a sima nonX verzió sok kártya msi afterburner alatt el van 100 watt alatt.
Kell neki egy 6 pines de azt alul feszelve vagy minimális teljesítmény vesztés alatt kihozható a 70-80 watt.
Én is így gondolkozok hogy legyen fontos a teljesítmény/fogyasztás arány.
Nekem a 1660 Super 90-100 wattot kér alul feszelve 0,925 voltig tudtam lemenni.
Hiába van kártya ami 2X erősebb mint a enyém ha 2X annyit fogyaszt is.
Mert az új generációnak mindig adnia kéne plusz hatákonyságot is.
Minimális teljesítmény vesztés oltárán 3-5% és alul feszelés mellet 20-30% lehet csökkenteni a fogyasztáson talán. Szerencse is kell hozzá. -
kukulec
őstag
egyébként a 4060-as kártya mire lehet elég 4k-ban, ha valaki nem kapcsolja be az élsimítást és csak mediumra állítja a grafikát játékban?
-
Pikari
addikt
Sok hasonlóba futok bele én is. Magamnak csak olyat veszek, amin maximum 1 db 6 pines csatlakozó van, vagy pedig elvan kiegészítő csatlakozó nélkül. Ha arról van szó, hogy más embernek kell összerakni, akkor az esetek 90%-ában igyekszem mindenképpen olyan kártyát választani, hogy még véletlenül se legyen rajta semmiféle kiegészítő tápcsatlakozó sem. De ha ez elkerülhetetlen, akkor 6 pin max.
Persze ez felveti azt az érdekes filozófiai kérdést, hogy mi az a grafikai teljesítmény, amihez okvetlenül 300w-os videókártya kell, de a 140w-os videókártya már nem elég? Ezeknek a több száz wattos videókártyáknak a fogyasztása egy 30%-os downvolt és downclock hatására annyira leesik, hogy simán beleférnek akár 100-150w alá is. A nagy zöld aktivitásték és a szabályozás pedig annyira döbbenetesen alulinformáltak, hogy nem próbálják meg limitálni ezeknek a forgalmazását.
-
#25237004
törölt tag
"Látod-látod, itt a probléma, hogy egy olyan játékot veszel alapul, ahol rohadtul nincs időd a textúrák minőségét figyelni."
A beállítás után természetesen megnéztem a Fortress-ben. Zéró különbség a 3GB és a 7GB VRAM-ot igénylő beállítás között állóképnél is, ahogy azt már írtam. Megkockáztatom, hogy a low+sharpen jobban néz ki, mint az ultra sharpen nélkül. Ránézek már.A Resident Evil 4 Remake is jó példa a fentire, már a beállítások és a VRAM kezelés is érdekes, de van róla videó, a High 3GB és a High 8GB beállítás között megint csak... zéró különbség. Ahogy írtam, felettébb érdekes módon nagyon-nagyon kevés videó/cikk szól erről a részről, ami a lényeg lenne, hogy pontosan milyen minőségbeli különbségről beszélünk, amikor textúrákról van szó.
Én nem arról beszélek, hogy nem számít a jobb textúra, hanem arról, hogy a beállítások között nincs szemmel látható differencia (sok esetben akkor sem, ha közelről állva nézed a textúrákat, nem még mikor játszol), miközben hozzádobhatsz 2-4GB VRAM-ot. Azt tartom különösnek, hogy ez a téma pont akkor kap ekkora visszhangot, ahogy mindenki papagájként ismétli, amikor a videokártyagyártók eladásai megzuhantak és minden trükköt be kell vetni, hogy rávegyék az embereket a fejlesztésre.
Mindezt azért, mert volt 5 retek optimalizálatlan port.
-
Pikari
addikt
válasz
Csupingo #186 üzenetére
Stimmel, a monitorok, amiket említettem, egyik se full hd. Az egyik 1360x768, a másik pedig 1280x1024. Az nv 1030asból már csak analóg nélküli dvi-os változatot találtam egy gyors kereséssel, illetve az rx5xx széria is analóg nélkülinek tűnik, úgyhogy azokkal már biztosan nem szeretnék összefutni a közeljövőben.
-
PuMbA
titán
Ja, azt nem olvastam
Spec: TechPowerUp - Watt / frame. Előző generációs kártyák között a sima RX6800 a legjobb ebben a szempontból. FullHD-ra évekig elég lesz még. Új generációs kártyák között a sima 4070, de még ugye nem jelent meg az összes. 4060 Ti 16GB se lesz ebben rossz szerintem.
Új hozzászólás Aktív témák
Hirdetés
ph A zöldek három verziót kínálnak majd a középkategóriát célzó sorozatból.
- Spórolós topik
- Samsung LCD és LED TV-k
- Mindennél nagyobb: tesztpadon a Ryzen 9 9950X3D CPU
- Kerékpárosok, bringások ide!
- Samsung Galaxy S23 Ultra - non plus ultra
- Assetto Corsa Competizione
- Hisense LCD és LED TV-k
- iPhone topik
- Milyen légkondit a lakásba?
- Kínai és egyéb olcsó órák topikja
- További aktív témák...
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest