- Melyik tápegységet vegyem?
- Milyen videókártyát?
- Azonnali VGA-s kérdések órája
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Apple asztali gépek
- Samsung Galaxy Tab S10 FE - a szoftvertámogatás felára
- Milyen billentyűzetet vegyek?
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Gaming notebook topik
- Külső 2,5'' mobil rack-ek topikja
Új hozzászólás Aktív témák
-
GeryFlash
veterán
fasza, nem hogy a régi bga-knak vinnék le az árát:/ mi az hogy egy 4670-es 15ezer Ft? na mind1 míg itt néhányan sírnak a 5770-es vga-jukkal, és éphogy kihúzzak a bf3-ig, én meg egy 1Gb-os 4650-essel is elvagyok, pedig szeretek játszani.... csak igazából pont egy 4670-es kéne nekem
mert azért ddr2 memóriákkal nem könnyű néha.... de egy 4670 mindenre elég lenne....
-
vergilx
őstag
válasz
- = Zk = - #143 üzenetére
respect -
Brown ügynök
senior tag
válasz
Butcher-HUN #91 üzenetére
Kb. én is így vagyok ezzel. GeForce 2 MX 400 64 MB-t 2 éve cseréltem. Mondjuk az anyagiak is közrejátszottak.
-
vergilx
őstag
válasz
- = Zk = - #141 üzenetére
álltában? az úgy érdekes
-
krystman
őstag
Egyetértek teljesen! Én is nagyon elégedett vagyok ezzel a 4870-el! Nagyon jól elviszi a játékokat még most is. Annak ellenére hogy már nem mai darab. Én itt vettem használtan a PH!-en, 28ért, másféléve. És semmi gondom vele szerencsére. Előtte GF8800GT volt, amit szintén itt vettem, és azzal is nagyon meg voltam elégedve.
-
kpal
nagyúr
válasz
Butcher-HUN #91 üzenetére
Így van értelem cserélni vga-t.
-
vergilx
őstag
az első hsz között láttam egy kérdést,hogy mikor lesz értelmes kártya a 20-25k-s szegmensbe.
használtan már kapni 20-25 között HD4870et.
én még anno újonnan vettem,és nagyon nembántam meg.több mint kielégítő most is a teljesítménye,full hd-ban használom,nem volt olyan játék(amivel játszottam),ami ne ment volna röccenés mentesen max.ra csavart beállításokkal. -
dfdfdf
őstag
válasz
Butcher-HUN #125 üzenetére
metro dx11ben és dx9ben ég és föld dx10re hogy lehet kapcsolni?
-
HSM
félisten
válasz
Butcher-HUN #127 üzenetére
Én már 5 képet is linkeltem, te még egyet se...
-
krystman
őstag
válasz
Butcher-HUN #120 üzenetére
Én tudod úgy vagyok az efféle játékokkal mint a Crysis meg a Metroval is, hogy nem ezek a mérvadóak. Ezek direkt úgy vannak megírva, hogy csak is a felsőkategórián mennyen elfogadható sebességgel. Ez egyrészt a hardver gyártóknak is üzlet, mert az ilyen játékfejlesztők mögött maguk a hardver gyártók állnak, vagy legalábbis pénzelik őket. És mivel tudnák a felsőkategóriát eladni, amikor demoztatnak ilyen kártyát. Csak is egy ilyen játékkal. Ezzel persze a játékosokat el tudják kápráztatni. Amúgy én mindig is úgy voltam ezzel a Crysis-al, hogy nem igazán hozott lázba maga a játék! Inkább egy Tech demo ez is mint a Metro is. De a játékok 95%-nak közel sem kell ekkora brutális teljesítmény mint ezeknek.
-
krystman
őstag
Szerintem ő úgy értette, hogy eleve Dx9 alatt gyorsabb a játék mint Dx11 alatt.
Egyébként ez a játék nem rossz, de ez is direkt úgy van megírva, hogy minden kártya pusztuljon meg alatta. Én is végig vittem, de őrület mennyire nincs optimalizálva. Azért így kiadni egy játékot kész vicc.
-
HSM
félisten
válasz
Butcher-HUN #125 üzenetére
"az fps igen alacsony már bocs játszhatatlan pedig annak a játéknak gyorsulnia kellene ami használja a DX11-et nem pedig lassulni még hozzá radikálisan."
Igen, nem véletlen toltam fel a játék alatt 850/1200-ra a karit, úgy már játszható volt végig. (A képek alap 725/1000-en készültek.) Oké, egy-két jelenetnél úgy is leesett 15-20-ra, de megérte a látvány.
Amúgy meg ha úgy alkotsz DX11-et, hogy a DX9 módra rányomsz extra effekteket, akkor ugyan mitől gyorsulna? Még jó, hogy csökkenni fog a sebesség.Szartak optimalizálni DX11-re sajnos, ennyi a szitu.
"mert ez semmit sem igazolt ilyen grafikát tud az én GTX280-asom is
"
Ebben a tudatban fogsz akkor tovább élni, így is túl sok időt pazaroltam erre a hülyeségre. -
Butcher-HUN
senior tag
Akkor én fogom csinálni majd a DX10-es képeket és össze vetjük ok hogy van egy különbség! A DX11-es vga-ról csak annyit hogy használtam és volt is GTX460. DX11 fel toltam mindent Metro2033 alatt aztán néztem a diavetítést. Vissza tettem a GTX280 fel toltam minden DX10 maxra még a fizikát is és ugyan olyan grafika volt mint az előzőnél és még a sebességem is jobb volt. Ezek a DX11-es kártyák előnye hogy jobb az élsimítás 16-ról 32-re lehet állítani illetve szűrőket jobban kezeli. Vissza térve metro2033 mutass olyan képet ahol látszik maga a tesszaláció mert itt nem látom ráadásul az fps igen alacsony már bocs játszhatatlan pedig annak a játéknak gyorsulnia kellene ami használja a DX11-et nem pedig lassulni még hozzá radikálisan. Egy szónak is száz a vége DX10 VS. DX11 es képekre lennék kíváncsi: karakterek, tárgyak, objektumok stb... mert ez semmit sem igazolt ilyen grafikát tud az én GTX280-asom is
-
dezz
nagyúr
válasz
krystman #117 üzenetére
Nem értettél meg. Az LG akár TN árban is adhatná az IPS-es monitorokat!
Ehhez képest ők is és mások is jó ideig annyiért adták a LED-es TN-eket (sőt még most is előfordul 1-1 új modellnél), hogy alig többért már IPS-est lehet venni. Ez a profitmaximalizálás, marketinggel felöntve...
Ma már 60k-ért kapni full-HD-s IPS-t, nem is akármilyen márkát.
A szögek csak az egyik dolog, ha csak ennyit tudsz róla, akkor valójában nem tudod a különbséget. Különben sem 170 foktól torzul a TN, hanem már szemből sem egyforma és egy kisebb mozdulatra is változik. -
HSM
félisten
válasz
Butcher-HUN #118 üzenetére
Na, ezzel aztán adtál a szarnak egy jókora nagy pofont. Elárulom, "Normal" beállításokon a metro2033 legjobb tudomásom szerint semmi különbség nincs metroban a DX9 és DX11 között, talán csak annyi, hogy rá tudod tenni a DOF-ot meg a tesszelációt, de nem ez a DX11 lényege. Ellenben Very High-ra tett DX9 - DX11 között már a szemed kibökte volna a difi.
Nézd meg ezeket a képeket, most csináltam az előbb, direkt neked : [link][link][link][link][link]
A 80-ra állított JPEG minőség rengeteget ront a képminőségen, de azért a lényeg látszik. Nézd meg szépen a videódat, meg otthon ezeket a részeket, és vesd össze. Ha ezekután se látod a difit, vess magadra.(#121) Butcher-HUN: Ha neked ezeknek a videóknak a minősége bármire is jó, hát...
Elfelejted, hogy itt egy eléggé rossz minőségű digitális-analóg-digitális átalakítás történik, nyugodtan mondhatom, hogy katasztrófális minőségi mkutatókkal.
De ha neked ez jó, nézegesd csak a videókat, én meg tolom tovább DX11-ben.
Hihetetlen gáz, hogy itt osztod az észt a DX11-ről, olyanoknak, akiknek a gépében van, és használják, amikor te még csak képen láttál DX11-es VGA-t....
-
TESCO-Zsömle
titán
válasz
Butcher-HUN #121 üzenetére
De, csak a videó egy tömörített dolog, a tömörítés pedig veszteséggel és torzulással jár.
Ennek egy része hang, egy része szín, megint egy része pedig pixelek. Hogy miből mennyi, az a film készítőjén múlik.
Egy BluRay film bitrátája akár 45 Mbps is lehet, és ez már egy tömörített, tehát veszteséges felvétel.
-
Butcher-HUN
senior tag
válasz
krystman #119 üzenetére
támogatom amit írtál! Nézzünk csak jól mélyen a Geforce 8-as széria sem tudta rendesen fullon meghajtani a Crysis-t aztán csodát vártunk hogy majd a 9-es széria 9800GX2 is be dobta a törülközőt. Aztán jött az első GTX széria a GTX295 ha minden fel van tolva és ezalatt értem hogy minden maxon van szűrők, élsimítás, FullHD felbontás megakasztja a kártyát ez a kicsivel több mint 4 éves játék. Pedig hány generáció váltás volt azóta és a GTX 295 kb egy szinten van a GTX 480 aminek az új ára bizony 100.000Ft felett van! A Crysis 2 meglátjuk bár ott akkora grafikai áttörés nem várható már csak a multiplayer demo láttán is és többen írták hogy ez egy egy sima Crysis más a helyszínek meg a karakterek és egy kicsit megturbózták fizikával aztán ennyi. De nem akarok előre inni a medvebőrére.
-
krystman
őstag
Hát épp ezért nem éreztem hogy mindenképp váltsak valami 5-ös szériára. Igazából szerintem VGA-t ha cserél valaki egy generációt érdemes kihagyni. És a következőből választani valami megfelelőt. Így a kettő közt tuti érezhető lesz a különbség sebességben. Bár ez az én véleményem, én már régóta így csinálom.
-
Butcher-HUN
senior tag
amiket linkeltél képek egyszerű ' ambient occlusion ON/OFF ' mint az első kép is mutatja ' kövek ' A zászlós képnél már a Grid-ben ilyen volt mikor fújta a szél semmi szemet verő változás nincs, és végezetül marad az utolsó két kép ahol a kocsikat mutatják a startnál illetve a karaktereket. Azért életlen a kép mert le vannak véve a szűrők de egy tapasztalt gamert nem lehet átverni ugrik és rögtön a videokártyája driver control centerébe és ott be lehet minden lőni.
De ha már te is hoztál példát akkor én is mutatok!
http://www.youtube.com/watch?v=sQXzc9m_VuE
a videóban látottak alapján döntse el mindeni maga és ne befolyások alapján hogy van e különbség DX 10 és DX11 között. DX9 és DX11 között jó pár év van ezért amit a kolléga linkelt az olyan lett volna mint ha össze akartuk volna hasonlítani az első Dirt-öt a Dirt 2 vel... azért eme két technológia között azért van különbség nyilván! De DX10 és DX11 között már nincs látványbeli különbség de sebesség annál inkább! Gondoljunk csak vissza a Cryis-ra XP DX9.0c ugye és mégis egy egyszerű ' ini ' file átírásával előjöttek a DX10-es effektek. Azt hitték akkor hogy majd így több fps lesz mert hát mégis XP de sajnos nem volt. Akkoriban megkérdezték a Crytek szóvivőjét hogy mit szól az esethez de azt válaszolta hogy majd fel kerül a netre egy prezentáció amiben meg magyarázzák nekünk. Hát azóta is várjuk egy amúgy több újság köztük MO legnagyobb ezzel foglalkozó pc újsága is. Nem akarok senkit lebeszélni véletlenül sem hogy ne álljon át az új technológiára hanem csak a puszta tényekre hogy nincs szembetűnő különbség még. Ezt az egyik fórumos kolléga nagyon jól megfogalmazta olvashatjátok!
-----------------------------------------------------------------------------------------------------
Még mindig kevesek rendelkeznek DX11-es kártyával. Azalatt pedig ugye nincs (legalábbis a DX11-es megoldással kompatibilis) tesszelláció, ők csak az alapmodellt kapják. Ezért kénytelenek azt eleve részletesre csinálni, mert amúgy a régebbi vidkártya tulajok baltával hasított, ósdi szar modelleket kapnának. A már részletes modellen pedig sok valóban látványos részletet nem lehet pluszban rápakolni, illetve mivelhogy nagyon kevesek élvezhetnék, a fejlesztési időből nem is költenek sokat rá. Belevágnak valami gagyiságot tesszelláció címén, csak hogy utána lehessen nyomatni a marketinghazugságokat.
- A DX11-es tesszelláció csak "csicsa", a modellek fizikai tulajdonságait nem változtatja. Tehát ha nem szórakozol vele eleget/túl "nagy" az effekt, akkor szépen belelóg a tesszellált kitüremkedése a modellnek a talajba/a talaj fölött fog lebegni.
- A konzolokon nem igazán van tesszelláció (vagyis egyáltalán nem használják), így a portoknál ezzel pluszban kéne szarakodni. Újra kéne csinálniuk gyakorlatilag a modelleket, míg jelenleg azok lényegében kopipasztával mennek át a PC-s verzióba.
Normális tesszellációra a játékokban majd a következő konzolgeneráció terjedésével lehet számítani (addigra úgyis kint lesz már biztos a DX12, amiben kijavítják a DX11 hibáit). -
krystman
őstag
Tudom, hogy csinálhatnának IPS panelos monitorokat, mert én sem bánnám. De azt egyáltalán nem mondhatom, hogy egy LED-es TN olyan lenne, hogy nem felelne meg egy hétköznapi felhasználónak. Én úgy vagyok vele, hogy tényleg jobb lenne az IPS, de inkább legyen olcsó kategóriában TN, hogy olyan ember is tudja élvezni a full HD-ét aki nem tud akár 100ezret kiadni érte. Az meg hogy mindig mondják hogy a TN 170foktól torzul a képe, erre csak azt tudom mondani, hogy egy monitort nem nem a bal sarokból kell nézni, ha nem elölről. Azért veszem, hogy én nézzem, nem a havernak aki néha mellettem ül.
-
Abu85
HÁZIGAZDA
válasz
Butcher-HUN #114 üzenetére
Mert videót néztetek. Nézzétek meg a játékban a különbséget.
-
AMD Power
titán
válasz
themebuilder #111 üzenetére
Nekem mondod?
Fura is volt a HD2600XT után.
-
HSM
félisten
Hát komolyan mondom.
Nézd meg magad: [link]
De mások is észrevették, akik próbálták dx9 vagy dx11-ben. [link]
"Mar a menunel erzheto volt, hogy DX9 alatt fut, sokkal halovanyabb az egesz jatek, aztan elindult a verseny es Ultra modban sokkal fakobb az egesz, a viz is nagyon egyszeru, tenyleg jol lathato kulonbsegek vannak " [link]
Ennyi elég lesz? -
D-evil
aktív tag
válasz
Butcher-HUN #91 üzenetére
borzalmasan nagy hülyeségeket írsz.én kérek elnézést a rokonaid nevében is...
-
HSM
félisten
válasz
Butcher-HUN #94 üzenetére
Igazából értelmetlen dologról vitázunk, mert olyan dolgot próbálsz nekem egy videóval cáfolni, amit saját tulajdon szememmel tapasztaltam, mikor a Dirt2 kampány közepén lecseréltem a 4890-em 5850-re.
Én voltam a legjobban meglepődve a különbségen, DX11-ben azonnal szembeötlő módon szebbek a színek az új HDR-nek hála, és a fény árnyékok is sokkal részletesebbek. Pedig csak egy tök átlag 22-es TN monitorom van....
Ugye azt te sem gondolod komolyan, hogy a DX11-ben tapasztalható 30-40%-os sebességcsökkenés a semmire megy el? -
Abu85
HÁZIGAZDA
válasz
Joachim21 #55 üzenetére
A TSMC a 32 nm-re a gate first-et csinálta, de azt eldobták. Maradt a 28 nm-re a gate last. 22 nm-jük nem is lesz, mert a 32 nm-ről nem tudnak lépni. Elő tudják venni a 45 nm-ert, de az miatt dobták a 32 nm-ert, vagyis képtelenek 22 nm-re lépni. Ez majd egy számottevő hátrány lesz, mert a TSMC az FD-SOI felé tekinget, ami sokkal bonyolultabb és költségesebb, mint a PD-SOI (amit a Common Platform használ). Nyilván meg lehet csinálni, de 20 nm-re szerintem még nem fogják implementálni. 20 nm alatt lesz a SOI hiánya számottevő hátrány, és 10 nm alatt lesz kezelhetetlen a PD-SOI lebegőtest effektusa. Ez egy keletkező töltés a félvezető és a szigetelő között, amire vannak tervek a Common Platformnál, hogy hasznosítsák információ tárolására. Persze az elméleti tényezők alapján 8 nm-en ez a töltés kezelhetetlenül nagy lesz, vagyis érdemes megszabadulni a jelenségtől. A gyártástechnológiában mindennek van pró és kontra oldala.
A gate first nagyon hasonló a poliszilícium kapus eljáráshoz. A fémkapuk a gyártás elején kerülnek fel. A gate last esetében a kapuk a gyártás utolsó fázisaiban lesznek implementálva. A gate frist technikailag állandó előnyt jelentene a teljesítmény/fogyasztás arányban, de a felhelyezett tranzisztoroknak ki kell bírni a gyártás többi fázisát is, ami között benne van az is, hogy a cuccot ~1000°C-ra hevítik. Itt jön az a probléma, ami miatt a gate last alkalmazása az alacsonyabb csíkszélességen elkerülhetetlen. Olyankor kell elhelyezni a kapukat, amikor azok már nem lesznek kitéve ilyen extrém hőmérsékletnek. Fel lehet fogni úgy is, hogy a gate last egy kényszermegoldás, hiszen számos nem kívánt tényezője van. Bonyolultabb a gyártása, nehezebb a skálázás, és összességében az implementálás költségesebb, továbbá korlátozott a dizájn kialakítása. Utóbbi probléma a legrosszabb, de a 22/20 nm-es litográfiánál ugyanez a probléma fellép, vagyis ezzel a hátránnyal gate first mellett is meg kellene küzdeni.Az Intel gate last megvalósítást használ. Az kérdés, hogy a SOI-t bevetik-e 22 nm-en, mert valószínű, hogy az Intel az FD-SOI-t fogja választani, az pedig sokkal költségesebb, mint a PD-SOI. Időben is csúszna a gyártástechnológia bevezetése, akár egy évet is. Esetleg azt tudom elképzelni, hogy lesz egy SOI-s node is 22 nm-ből.
-
dezz
nagyúr
"pl : 6870 gyengébb mint az 5870"
Ennek magyarázatot itt találod: [link]
"nem is értem minek erőltetik ezt annyira , mikor nem sokat hoznak az új kártyák teljesítménybe ..."
Mint ott is írom, a HD6xxx széria eredetileg 32nm-en jött volna, egy körrel ráverve a HD5xxx-re minden tekintetben. De annak a csíkszélességnek a TSMC általi törtése miatt vissza kellett állni 40nm-re, mint amin a HD5xxx is készült, és hát adott csíkszélesség mellett nem lehet csodát tenni. Viszont pl. a tesszelátor teljesítménye megduplázódott, csak ezt kevés játék használja egylőre. (Plusz továbbfejlesztették a hw-es videódekódolást is.)
-
dezz
nagyúr
"de átlag embernek nem kell pva panel"
Nem-e? Akkor te csak vegyél TN-es tévét, mindenki más pedig a legújabb generációs IPS-eket, VA-kat, stb. veszi...
Vagy ha benézel a most menő IPS-es monitorok topikjaiba, nem egy olyan hozzászólás van, hogy "nem gondoltam volna, hogy ennyivel jobb a TN-nél", stb.
Ráadásul ma már alig drágábban gyártható az IPS, mint a TN. Ezek után nem kellene luxusnak számítania.
"ferrari 458, és gyémánt nyaklánc sem."
Téves hasonlat.
ps. nem akartam "kezdeni" semmit, csak kissé muris volt, hogy pont az LG (aki a most menő, korábbiaknál olcsóbb és sok tekintetben mégis jobb IPS panelok gyártója) hozott ki mindent, amit lehet a CCFL-ből egy TN-es monitorral. Ugye érzed?
-
radi8tor
MODERÁTOR
válasz
TESCO-Zsömle #42 üzenetére
Nem is tudtam, hogy ilyen nagy gamer vagy. Jó látni ilyet.
-
themebuilder
senior tag
válasz
Day 'n' Nite #7 üzenetére
mindig vannak és lesznek ilyen hardverfeszegető játékok
Mindkét fél érdeke ez. -
Butcher-HUN
senior tag
-
egoistus
tag
Hát ez igaz hogy jó játék mostanában nem jött ki, inkább úgy fogalmazok ami engem érdekel.
Régen imádtam az FPS-eket, aztán elkezdtem cs-source-ozni, utána egyszerűen megőrültem a scriptelt eseményektől meg a bot-ok értelmi színvonalától.
Full-hd ban használom(natív 24") a moncsim de 1-2 játék járt max a gépemen aminek érezhetően kevés a gts250-em. De ami az egészben a legrosszabb hogy nem is tudok a diabló3 kivételével erősen várós játékot.
Ps: azért én hülye 560 ti-re be fogok fizetni hamarosan.Dezz: kérlek ezt a tn kontra ips dolgot ne kezd, tudom hogy vágod a témát meg minden de átlag embernek nem kell pva panel, ferrari 458, és gyémánt nyaklánc sem.
-
dezz
nagyúr
"nyugodtan mondhatom, hogy amit ki tudtak hozni ebből a sima világításból, azt az LG kihozta."
Akkor mondhatnád "nyugodtan", ha minden monitorukba a saját maguk által gyártott H-IPS paneleket raknák... Csak hát azt ők is csak a prémium kategóriásaikba rakják, a többibe megy a szokásos TN.
(Már ha ezek mondanak neked valamit, de úgy tűnik, nem igazán.)
-
Butcher-HUN
senior tag
válasz
Runner_fxr #65 üzenetére
Maximálisan igazad van amit írtál!
Parasztvakítás megy ezerrel. Főleg ez a tesszaláció hát komolyan AVP3 vagy akár a Metro2033 mutatták meg a DX11 sebességét hát röhej és hogy miért? Mert nem nincs a grafikában semmi változás Tessalation on-nál + nem hogy gyorsult volna a játék DX11 alatt kevesebb fps volt mint DX10
Nem baj vegye a sok tudatlan az újabb kártyákat vagy anyuci apuci aztán fel teszi a játékot és nézi erősen fürkészi és nem lát semmi változást XD azt jön a sírás rívás meg a másra fogás biztos ezért meg azért van. Egy szónak is száz a vége nekem GTX280 van és majd akkor fogok én váltani ha amilyen felbontáson és beállításon én játszom diavetítés lesz. Na de addigra már ezeknek a csúcs kártyáknak az ára kb ott lesz mint most a GTX280 használt ára és akkor nyugodt szívvel küldöm nyugdíjba.
-
vittuka
aktív tag
válasz
Barthezz2 #88 üzenetére
Azok nagyrésze pár napos szórakozás, hosszú távon általában olyannak játszanak az emberek aminek nem ilyen magas a gépigénye. Nyilván a fejlesztôknek is fontos (mármint játékfejlesztôknek), hogy minél szélesebb körben lehessen eladni a cuccost.
Mondjuk kicsit magamból indulok ki, nálam a multiplayer játék marad csak talpon, a többi tényleg 2-3 napig amíg a csoda tart.. -
ftc
nagyúr
Én int 3200-s VGA-ról váltok most 6850-re...azt hiszem el leszek megint vagy 3-4 évig
-
Hát én úgy érzem sok generációt fogok ugrani egy váltásnál, ha eljön az ideje. Egy 4850-el lébecolok FullHD felbontáson, és nem mondom, hogy mindent maxon meghajt rendesen, de nem akadtam még bele olyanba, hogy azt éreztem volna, hogy most itt az ideje váltani.
Nem az a gond, hogy a mai játékoknak alacsony a gépigénye(aki ilyesmit írt, érzi a dolgon ugye, hogy máskor meg azért sírunk, mert magas?), hanem az, hogy mindez azért, mert leragadtunk egy grafikai max-nál. A legtöbb játék, ami meg erőművet követel, nem azért teszi, mert olyan brutálon néz ki, hanem mert b@sznak optimalizálni. Ezért meg részemről nem veszek új VGA-t..
-
-
-
krystman
őstag
Szerintem is az LG-nek van a legszebb képe! Nekem nem LED-es, de így is nyugodtan mondhatom, hogy amit ki tudtak hozni ebből a sima világításból, azt az LG kihozta. Egyik haverom is LG vett, LED-et, és én is le voltam tőle nyűgözve, hogy mennyire kellemes a képe. Azt írják hogy a LED-es monitoroknak hidegebb a képe, hát nem tudom. Nekem sokkal jobban bejön a LED képe. Főleg a fehéren ahol nagyon kijön a LED előnye. Kellemes nézni, és nem olyan vakítós fehér.
-
bozont
veterán
válasz
ProEvoFan #77 üzenetére
Ezen nem tudom mit kell csodálkozni, várható volt hogy úgy jóval lassabb lesz a játék. De szerintem közepes beállítások mellett azok a kártyák is elboldogulnak a legtöbb játékkal fullHD felbontás mellett is. Nekem egy 4870 van a 24" monitor mellé és a legtöbb játék szépen elfut magas részletesség mellett is, legfeljebb nem használok AA-t és kikapcsolom az árnyékokat ha nagyon muszáj. Viszont a 16xAF az alap minden játék esetében. Szóval aki képes kompromisszumra az gyengébb kártyával is élvezheti magas felbontásban a játékokat, de szerintem a mai monitorok már a natívnál kisebb felbontás mellett is szép képet adnak.
-
TTomax
félisten
válasz
ProEvoFan #77 üzenetére
Nekem ez előtt egy AOC 24"-os 1920-as monitorom volt,elajándékoztam,egy GTX260-al együtt...szépen elvannak egymással... egy GTS250-hez már egy 1680-as 22"-os monitor is túlzás lett volna!Még mielőtt jöttök..az aoc elött egy 22"-os samsung E2230-as volt...na a három monitor közül a mostani LG képe toronymagasan vezet,igaz ledes...
-
dkface
aktív tag
Érdekes ez a rohanás de egyszerűen a szoftverek nem követik a hardvereket: ha valaki megvette a 8800GTX-et 2006 (!) végén , az még a mai napig eltud játszani szinte bármivel 1280x1024-ben normális grafikai részletesség mellett , némileg megcsonkítva persze a szűrőket.
-
Pandaboy
tag
Valószinü azért is találták ki a Full HD-t 22"-re az 1680 után, hogy erősebb gépet is vegyenek alá. Később lehet majd 2560-as felbontás lesz a 22"-es monitorokon. De majd az lesz a jó, amikor olyan pixelmentes monitorok lesznek, amiket le lehet venni akármilyen felbontásra, mégis éles képet adnak. Én is gondoltam rá, hogy 19"-est kéne venni, úgy nativ felbontáson jobban mennek a játékok, de nekem fontos volt, hogy nagy legyen a monitor, igy lett 22"-es, és nem érdekel a nagyobb felbontás.
-
krystman
őstag
Nem vitatom, de én sem vettem észre igazából semmi különbséget az 1680 és a 1920 között 22"-on. Semmiféle pixelességet nem tapasztalok a két monitor között. Vannak méretek amiknél hiába full HD nem jön elő a különbség. Aminál tényleg van valami értelme meg különbség is, az 24" nál inkább. 22-nél nem igazán érzékelhető ez. Nem tudom milyen monitor volt a tied, de egy mostani 1680-as monitor 22-őn teljesen pixel mentesen jelenít meg mindent, és sima a kép. Max annyi értelme van full Hd felbontáson, ha valaki dolgozik és kell a hely. De én jobban favorizálom személy szerint a 16:10-es monitort, mint a 16:9-et. Inkább egy 16:10 24" 1920x1200-as monitort vennék. A másik meg szerintem javarészt 1680-ba tolja sokmindenki a játékot, egy full Hd monitoron, ami hiába hogy nem rossz, de ezzel az erővel lenne egyel kisebb a monitor, de akkor fullon ki lenne hajtva a monitor nativba. Én is inkább ez miatt döntöttem a 1680 mellett.
-
ProEvoFan
nagyúr
Én a 2 haveromból (is) indultam ki.Egyik 8800GT a másik GTS250 alá vett egy 22colos Full HD monitort, és úgy megbánták, h azt neked leírni nem tudom...valahogy nem fut úgy a játék mint azelőtt 1280x1024ben...
Persze Te tájékozott voltál, hiszen GTX580 alá jó a Full HD.Neked nem kell levenni semmi grafikai beállítást, így könnyű mondani hogy "le kell venni az extrákat" és jó lesz Full HDban is... -
HSM
félisten
válasz
Runner_fxr #71 üzenetére
"Szerintem már a dx10-re sem volt semmi a szükség a 11-re meg aztán pláne nem."
Próbáld ki szépen a Dirt2-t DX9-ben majd utána DX11-ben, maxon! Elárulom, nem kicsit szebb DX11-ben, mivel magasabb pontossággal számolja az árnyékokat és a HDR-t, emiatt összehasonlíthatatlanul szebb, megnyerőbb látvány DX11-ben. Megjegyzem, én se hittem, míg nem láttam a saját szememmel....
Amúgy rengeteg lehetőség lenne az új DX-ekben, csak már a DX9 is eljutott egy olyan magas szintre, hogy nem mindenkinek éri meg (pénzügyileg) beruházni arra, hogy új technológiákat fizessen, ha elég jó a régi. Ráadásul a konzolok is DX9 szint jelenleg, arról a legkönyebb portolni, ami megint csökkenti a költségeket.
(#63) Silentfrog: Persze, jó volna valami ütős játék... De akkor meg az lenne a baja mindenkinek, hogy milyen szarul an optimalizálva, hogy csak GTX580-on fut el maxon. Arra nem gondolna, hogy a már 2 éves középkategóriás VGA-ján kéne visszavegyen pl. mediumra... Nézd meg a GTA4-et, rengeteg mindenben ennyire előremutató, vagy a Crysis a maga idejében, mégis mindenki csak szidta a gépigénye mellett, pedig csak alig keleltt kompromisszumot kötni egy korabeli középkategóriás géppel is a tökéletes futásért.
A Metro2033-ban pl. nézd meg a prologue pályán, DX11 Very High a fényhatásokat, meg sima High-on... Az egyiknél fel se tűnik pl. az a jelenet, mikor a beszűrődő fényben a falra vetítődik egy olyan lény árnyéka, a másiknál meg csak állsz és ámulsz (amíg rád nem támad
)... Amúgy szerintem nálad az lehet a gond, hogy nem DX11-es a VGA-d... Csak DX11-ben működik a Very High mód, még ha be is tudod kapcsolni régebbi karival.... (Én is be tudom kapcsolni a Physx-et, mégse működik, mert nincs hozzá társkártyám) Ez a játék készítőinek figyelmetlensége.
-
-
Góliát
őstag
Kíváncsi vagyok én is a Crysis 2-re, egyenlőre nem cserélem le az 5870-es karit.
-
-
TTomax
félisten
válasz
Runner_fxr #71 üzenetére
A crysis nem tartalmaz DX10es kódokat,ezért is lehetett bekapcsolni XP alatt az extra ficsöröket.Egyébként teljesen igazat adok neked,lecsengett a DX10,itt a DX11 és nem látom azt amit anno DX7-röl DX9-re.Persze ez annak is köszönhető,hogy elértek jó néhány korlátot,én ugy látom a DX nem nagyon tud hova fejlödni.Egy-két bőrt még lenyúznak,mi meg megveszünk három-négy generáció vga-t,aztán jön a ray-tracing...
-
válasz
Runner_fxr #70 üzenetére
Ezért is mondtam azt, hogy gyakorlatilag a dx9 óta nincs fejlődés csak paraszt vakítás. Ha megnézzük a crysist láthatjuk, hogy még mindig az egyik legfejlettebb játék technológiailag! És szerintem az bizony dx9-es! Szerintem már a dx10-re sem volt semmi a szükség a 11-re meg aztán pláne nem. 10-es előtt is az volt a duma, hogy a dx9 nél szebb és ráadásul gyorsabb aztán láthattuk inkább csak lassultak nem is kicsit, dx11 el ugyan az a helyzet.
-
válasz
Silentfrog #67 üzenetére
Én úgy emlékszem még mielőtt a Crysis megjelent mindenhonnan a dx10 folyt! Tulajdonképpen ezzel a játékkal akarták megindítani a dx10-es vga-k iránti keresletet! Ami sikerült is. Ugye azt mondták vista köll meg dx10-es vga. xp-n "csak" dx9 lesz és az úgy nem olyan szép. A gyakorlatban ez úgy nézett ki, hogy xp alatt nem lehetett bekapcsolni pár dx10-es effektet ami valóban szebbé tette a játékot! Majd egyszercsak valami lelkes megszállott írt valami patch-et vagy már pontosan nem emlékszem mit a lényeg az volt, hogy egy kis variálással xp-alatt is előcsalhatóak voltak azok az effektek és tényleg ugyan úgy nézett ki. Viszont az tény, hogy xp-n tényleg nincs dx10. Ebből csak az következhetett, hogy a Crysis az mégiscsak dx9 nem dx10!
-
Silentfrog
veterán
válasz
Runner_fxr #68 üzenetére
Hasonloan gondolom én is,de lehet,hogy csak ketten vagyunk ezzel a nézettel!
-
válasz
Silentfrog #63 üzenetére
Én azért tartok még pc-t játékra mert szeretem az fps-t. Konzolon számomra ez a műfaj élvezhetetlen. Viszont tény, hogy nagyon kevés játék jön pc-re ahhoz képest amennyi jön konzolra. Ha ez még tovább fog csökkenni, hamarosan erős vga-kat sem lesz értelme fejleszteni mert nem fognak gazdára lelni! Ami érthető is. Sajnos már egy jó ideje van egy olyan fura érzésem, hogy ez a pc csak egy ilyen megtűrt platform a játékok piacán mivel a legtöbb játék fejlesztő csak húzza a száját amikor arról kérdezik kiadják e pc-re! Ugyanakkor meg egyre inkább nyomatni akarják a vga bizniszt és ez már kicsit kezd átmenni az emberek totál hülyének nézésébe. Igazából tényleg nem értem ezt hogy gondolják? Meddig fog ez így menni? Totális ellentétek vannak, egyre kevesebb a játék de egyre több az erősebbnél erősebb vga? Mi ebben a logika?
-
Silentfrog
veterán
válasz
Runner_fxr #65 üzenetére
Pont a Crysisben lehet látni szépen a dx 10 "ujitásait"
Bár a tévedés jogát fenntartom! -
válasz
Silentfrog #63 üzenetére
Én úgy tudom, hogy a crysis teljesen dx9-es. Még is az egyik legszebb játék! Szerintem a dx9 óta megtorpant a fejlődés. Azóta csak parasztvakítás van de nagyon durván!
-
Dr. Romano
veterán
válasz
szarnyalosas #49 üzenetére
Ezzel én is totál így vagyok. Igaz "csak" 1680-ban játszom, de valahol érdekes, hogy egy számtech mértékkel ilyen öreg vason is elfussanak a friss címek akár high beálltással (esetenként már szűrők nélkül).
Aminek persze én személy szerint örülök -
Silentfrog
veterán
Szerintem a 4850 oc is csak 5750 szint de mindegy végülis...
Én csak azt mondtam,hogy szeretnék játékot is, amiben látom,a grafikai előrelépést én nem utolsósorban játszható,érdekes játék is.
A kártyák jönnek,de amiért veszi az ember/hogy játszon,játékokon/ az nem nagyon van,legalábbis nem sok.
Vehetem én évente a nagyobb,sokkal gyorsabb,kevesebbet fogyaszto autokat is,ha nincs uj hely ahova elmehetek vele,csak a ház körül kocsikázok,amit már 100 alkalommal megtettem előtte.
Tesztelhetem, hogy milyen gyorsan járom meg az utat,meg milyen halk de akkor is nem azért vesz az ember autot,hogy mindig ugyanoda kocsikázzon.
Én probáltam dx 10.1-dx 11 el is a Metro 2033 játékot,de ha megköveznek akkor sem láttam nagy különbséget,amiért "kontra" lenne a dx 11 5770 javára -
krystman
őstag
Hát ha neked 1680x1050-ben homályos volt a képe annak a monitornak, akkor ott valami gond lehetett. Nekem LG 22" 1680-as van 1.5éve vettem, és idáig senki nem tudta megmondani, hogy nem Full HD a monitor. Tű éles képe van. Pedig sok full HD-és monitort láttam, de semmi kényszert nem érzek rá hogy cseréljek. Persze nem egy 3évvel ezelőtti LCD-ét kell hasonlítani egy maihoz. Akkor nyilván persze hogy szebb a mostani full Hd-es.
-
vittuka
aktív tag
A mostani fejlesztésekre leszek kiváncsi, hogy elegek lesznek-e a mostani vga-k.. (rage, skyrim például) Az ilyen teszt szerü játékokat kár ide venni mint a crysis, ha megint 5-6 óra játékidô lesz, a multival meg nem játszik senki.. Gyorsan jönnek valahogy a generációk tényleg, vagy gyorsan telik az idô nem is tudom. De egyenlôre az 5850-et sem használom ki.
-
HSM
félisten
válasz
Silentfrog #56 üzenetére
"Az idáig kijött játékok meg vigan elszaladgálnak egy 5770 teljesitményű kártyákon."
Próbáltál már erősebbet? Nekem volt 4850 1GB OC-m, ami a DX11-et leszámítva 5770 szint, és bőven volt értelme anno 4890-re leváltani. Tudom, lehet 30FPs-el is dirt2-zni, de valahogy nagyobb élmény 60-al, magasabb grafikán. GTA4 is meghálálta a váltást, és a Crysis-ek is. A Metro2033 meg esélytelen lett volna 4850-en, mivel a DX11-et se tudja, de erőből is bukta lett volna. És szerintem nem én vagyok elvetemült, 1680*1050-ben szeretek játszani, max 4X-es, leggaygibb féle AA-val, lehetőleg a legjobb képbeállítások mellett.
Szerintem inkább örülni kéne, hogy egyre barátságosabb fogyasztás mellett jönnek ki egyre gyorsabb kártyák, egyre olcsóbban. Bő 2 éve még bő 40K volt egy 4850 1GB, ma ugyanennyiért már egy 6850-et vagy GTX460-at kapsz, amik azonos fogyasztás mellett masszívan gyorsabbak, és már a DX11-et is tudják....
Persze, nem mondom hogy baj lenne, ha lenne játék is, ami kihasználja ezeket a képességeket...
Arra is gondolni kell, hogy ha ma veszel új VGA-t, azt elsősorban nem a "most"-ra veszed, hanem a következő 1-5 évre, vérmérséklet és pénztárca függvényében.... -
dezz
nagyúr
Nagyobb mérvű látványbeli előrelépést a ray-tracing bevezetése fog hozni, de ehhez még a újgenerációs kártyák is kevesek lesznek...
Az is remélhető, hogy a hamarosan megjelenő nyílt szabvályos, platformfüggetlen fizika is mélyebben beeszi magát a játékokba.
-
Pandaboy
tag
Igen a játékoknak is kellene fejlődni nem csak az újabb erősebb vga-knak. Sok mai játék a 2004-es Far Cry-t sem éri el grafikában. És a látványos javulás a Crysisban volt.
Nekem '22 Samu Full HD monitorom van és elmondhatom hogy 1680 és 1440 között kb 10 FPS különbség van COD2-ben. De majd futtatok egy tesztet. A 17' CRT-n 1024x768 -ban 90 FPS-em volt, most van 70 fps. Valóban egy régi gépen jobban érezni a különbséget, de egy 1-2 éves gépen nem. -
Silentfrog
veterán
Én mindig ugyanazt szajkozom
.Kártya,kártya,kártya játék meg szinte semmi.
Honapok ota semmi értelmes játék,a most megjelenő Dead Space 2 nek is nevetségesen alacsony a gépigénye.
Ráadásul alig különbözik az eslő résztől grafikailag.
Az idáig kijött játékok meg vigan elszaladgálnak egy 5770 teljesitményű kártyákon.
Persze "átlagos" felbontáson. -
Joachim21
őstag
Eddig a TSMC is gate first alkalmazó volt? Vagy vegyesen választhatott mindenki, hogy mit szeretne alkalmazni?
Ha már itt tartunk, az intelnél mit használnak? Ott is gate last van tudtommal, és az IvyBridge érkezésével annyi változik majd az eddigiekhez képest, hogy ők is áttérnek a SOI gyártásra.
Ez a része mindig érdekelt a dolgoknak, ha van ilyen hír, azt közölhetnétek mindig, vagy akár írhatnátok róla bővebben, én szívesen fogadom ezeket az infókat!
-
Abu85
HÁZIGAZDA
válasz
Joachim21 #43 üzenetére
A 28/32 nm-re jobb a gate first a Common Platform szerint, mert kisebb a lapkaméret azonos tranzisztorszám mellett. A GlobalFoundries 15-20%-os eltérésről beszél. Emellett a teljesítmény/fogyasztás arány 6%-kal jobb az IBM mérései szerint. Ezzel egyébként a TSMC is egyetért, mert az előnyöket tudják ők is, de a TSMC korábban mondta, hogy a 22/20 nm-nél a gate first már nem jó, mert kevés olyan tranzisztorkészletből lehet majd választani, ami kibírja a gyártás során alkalmazott magas hőmérsékletet (itt ugye ~1000°C-ról van szó). Ezt egyébként az IBM is alátámasztotta. Gary Patton mondta a múlt héten, hogy a gate first sok szempontból előnyösebb, de a tranzisztorkészlet 22/20 nm-nél tényleg olyan nehézség, hogy már korábban a gate last alkalmazása mellett döntöttek. Ha hihetünk a cégeknek, akkor a fejlesztés párhuzamosan zajlott. A GloFo és a Samsung felelt a 32/28 nm-ért, és a háttérben az IBM a 22/20 nm-re koncentrált.
A gate last-nek egy nagy hátránya van, hogy újszerű chipdizájn követel, vagyis az elmúlt évek alatt szerzett tapasztalatok nem érnek semmit. Ezzel a hibalehetőség óriásira nő. Az AMD az APU-kat biztos, hogy a GloFo-nál készítik. A GPU-kból valószínűleg a két legbonyolultabbat a GloFo fogja gyártani, míg a legkisebb lapkákat a TSMC-hez viszik. Valószínűleg úgy gondolkodnak, hogy a gate first a dizájn szempontjából kevesebb kockázatot rejt, így a gate last kitanulására jók lesznek a kisebb chipek, melyekkel amúgy is egyszerűbb bánni. -
válasz
Runner_fxr #52 üzenetére
Engem személy szerint azért zavar ez a konzol dolog sőt tüske a seggemben mert ez a tipikus mai agy mosott világnak a szüleménye. Mármint a konzol maga nem mert az már jóval régebb óta létező dolog csak ez az egész szarság, hogy leszo...ja mindenki azt a primitív gépet mert kényelemes, egyszerű vele játszani. Sok agy nem kell hozzá az igaz, beteszem, rácsapok ozt megy is. Sokkal komolyabb és precízebb dolog egy pc. Tény, hogy némi agy is kell hozzá meg fejleszteni kell, de legalább van egy fejlődés. Most meg nincs fejlődés csak jönnek az agyatlan, egy kaptafa játékok. Na nem is idegesítem magam tovább, elnézést ha megbántottam a konzolos lelkű embereket nem haragszom rájuk amúgy.
Inkább megyek most bringázni mert szép az IDŐ!!
-
Tényleg vicces ez, hogy így fejlődnek a vga-k. De igazából semmi szükség rá. Nekem full hd-s a kijelzőm és általában max felbontáson is használom. 4850-et nem érzem kevésnek hozzá. Na jó egy kis plusz kraft el kelne itt ott de tényleg csak minimális kompromisszumok kellenek és szépen megy. 40-60 közti fps-t kiköhög simán, az meg elég. Az én véleményem szerint azért nem fejlődnek annyira a játékok grafikában mert nem bírnák a konzolok az iramot! Az egész játékipart a konzol mozgatja és mindent annak rendelnek alá! Hiába elavultak már a konzolok a pc-hez képest sőt az nem kifejezés mennyire elavultak főleg a gpu, akkor is a konzol az elsődleges platform amire fejlesztenek. A pc verzio meg vagy nem jelenik meg vagy kb azonos szinten van. Ehhez a szinthez jó hogy elég a 4850. Ennek van előnye is, hogy olcsó géppel is lehet új játékokkal játszani meg hátránya is mert nem fejlődünk sehova!
-
TTomax
félisten
válasz
ProEvoFan #44 üzenetére
"Arról nem is beszélve, h sok tájékozatlan emberke megveszi a 22"os Full HD monitort, (aminek semmi értelme, Full HDnak 27" felett van jelentősége) hazamegy és a játékok nem mennek el neki úgy, mint a régi monitorán...de Full HD"
Láttál te már 22"on 1920-as felbontást?Nekem volt Samu 22"-os monitorom ami csak 1680-at tudott,nagyságrendekkel szebb a képe a mostaninak,és nem csak a játékokban,hanem a böngészőben is tűéles képe van.Ráadásul 1680-ban is szép képe van,nem kötelező a játékokat natívban tolni.Egyébként pedig nem a felbontás hanem az egyéb extrák eszik meg a VRAM-ot, mint pl AA, DoF, amit szépen ki lehet kapcsolni.Én direkt ilyen monitort kerestem,nekem nem kell 27" mert 60centiröl nézve nem hiszem,hogy okos dolog...
-
szarnyalosas
tag
Neharagudjatok meg de en megvagyok elegedve a 3 eves 8800 Gt mel.
-
Misi 007
őstag
Én még elvagyok a kis 3850-el.
A Crysis 2 miatt meg nem aggódom mert ez a városi hülyeség nekem eleve nem tetszik így különösebben nem is érdekel.
Majd év végén lesz pénzem egy komolyabb fejlesztésre addig meg kiszolgál a jelenlegi config... -
Gude
senior tag
Anyagilag követhetetlen ez a gyors hardver fejlesztés
-
capulet75
addikt
válasz
TESCO-Zsömle #42 üzenetére
Azért akad pár. Pl a Ghost Recon széria.
Azt ilyen 12 éves kis lámák nem játszák az tuti.
-
ProEvoFan
nagyúr
Full HD felbontású monitor alap?
Szerintem az vga zabáló,és nem nyújt annyival többet, mint az 1680x1050.Arról nem is beszélve, h sok tájékozatlan emberke megveszi a 22"os Full HD monitort, (aminek semmi értelme, Full HDnak 27" felett van jelentősége) hazamegy és a játékok nem mennek el neki úgy, mint a régi monitorán...de Full HDHiába jönnek az új vgak év végén, marad a konzol uralom.Maximum szarabbul portolják a konzol játékokat és jöhet a marketing duma: "Látjátok, ehhez már kell az új vga!!!'
(#20) .mf igen, én is elvagyok a HD4850el, de azért sok helyen már nem szereti a maximum árnyék beállításokat
-
Joachim21
őstag
Nem értem Abu néhány következtetését a gate first választással kapcsolatban. Nem az volt eddig, hogy mindenki a gate first miatt problémázott, mert gyártás szempontjából nehézkesebb? Nem ez az oka annak is hogy 22/20nm-nél már a GB is elhagyja a gate first-t eljárást? Kérdezem én, hogy ha ez így lesz, akkor nem az lenne logikus, hogy már most a gate last-ra szavaznak, főleg hogy a következő csíkszélesség már biztosan ilyen eljárásra épül mindkét bérgyártónál?
Vagy az APU-k miatt kell nekik a gate first? Mert akkor mindjárt érthetőbb, hogy olyan GPU-t akarnak, amivel már nem lesz probléma a későbbiekben CPU mellé ültetve.
Nv-ből meg kinézem hogy rögtön beküldi a TSMC-nek az 5 milliárd tranzisztoros Kepler vezérchipet, és boldoguljanak vele, aztán majd jön a GF7-es széria, amiben már minden részegység aktív lesz a GF6-os szériával szerzett tapasztalatokra alapozva.
-
TESCO-Zsömle
titán
Alapvetően az a probléma, hogy nincs játék felnőtteknek. A 22+-os dobozban is ugyanaz az egyszerű, bugyuta szar van, legfeljebb több a vér meg az ocsmányság.
Egy gyerek nem élvezi az autó-szimulátort, mert nehéz. Nem élvezné a ballisztikát sem, mert az is az.
Hány videó kering a megosztókon idegbajos p*cstalicskákról, akik rohamot kapnak, mikor vki oszt nekik egy heccsát-ot CS-ben, vagy bármi másban, amit nem is játszhatnának koruknál fogva még vagy 6 évig...
Az ilyenek a magukat vágnák földhöz -közvetlen a gép után- ha nem oda menne a golyó, ahova céloznak...Bíz isten én azt sem bánnám, ha egy komoly játékért 20-30k-t kérnének, de akkor az legyen is olyan!
-
leviske
veterán
Nem lenne biztosabb a Barts-t átültetni 28nm-re? Jelentősen nagyobb volna, mint egy 28nm-es Juniper utód. Bár igaz, hogy ezzel egy HD4800 <> HD4700 helyzet állna fenn, de mégiscsak jobban felkavarná a piacot.
-
Devid_81
félisten
Ha ezek így pörögnek lassan elavult lesz a 7900GS-em
Viccet félretéve ha ezek így nyomják lassan évenként két generációváltás lesz. -
krystman
őstag
Hát addig nem lesz változás még a konzolok nem fejlődnek rendesen. Az ugyan is először arra optimalizálják a játékokat, meg arra is lövik be pl. Dx9. A Pc-és platformra írásnál így az idő hiányába már nem jut optimalizálásra idő, meg az a Dx10-11 effekt amit rá tesznek szinte 0. Inkább részletesebb árnyék meg több fényt látni mint rendes Dx10-11 effektet. Durva, hogy manapság a Dx9 és 11 alig van valami látványbeli különbség. Mondhatni alig észrevehető. A véleményem az hogy azért mert 1-2 játék kijön az évben, és azért rákölteni 60-70ezret teljesen felesleges. Mert a játékok 95%-a vígan elmegy egy 4870-el is. Nekem ez van, és én sem érzem, hogy váltani kellene mindenképp, mondjuk én 1680x1050-ben játszok, és minden megy szerencsére maxon. Néha az árnyékot high-ról Médiumra kell venni, de ez a max.
-
Morden24
nagyúr
válasz
TESCO-Zsömle #31 üzenetére
Olyan ez, mintha az autóversenyből kihagynák a tapadást, vagy a tehetetlenséget.
Megnyugtatlak, ezek a faktorok pont olyanok a legtöbb autós játékban, mint a ballisztika az FPS-ekben...
Egyébként én mégis látok valahol igazságot abban, amit Archer mond, eyecandy nélkül is. Vagy jöjjön egy kardinális paradigmaváltás, rombolható környezet, teljes fizika stb., de ameddig azon megy a pattogás, hogy mennyire reális a fizikája a gravitációs ágyúnak meg a plazmavetőnek, addig szerintem ez whatever kategória. Igazából max. példák vannak a fizika használatára egyes játékokban, nem konkrétan fizika. Márpedig így kb. minden eyecandy és agrárfény.
-
capulet75
addikt
Amig a konzolok visszafogják, addig a pc-s játékok se fejlődhetnek olyan ütemben ami elvárható lenne ilyen technologiai újitások mellett. Lassan eljutunk oda hogy valamelyik gyártó ( és akkor a másik is ) ,a gpu méretének és energiafelvételének csökkenése miatt rárak egy komplett quad cfx-et vagy sli-t egy kártyára, nézhetnénk mint a moziban de max a szintetikus teszteken fogjuk látni hogy mire is lesz képes a vga-nk mert optimalizálni kell a gémeket azokra a sz@ros kis dobozkákra amit nem dobálnak ki évente mint a pc-s platformokat. Ez sem túl nyerő amúgy,hisz aki szereti követni a fejlődést annak bizony évente már többször is a pénztárcájába kell nyúlni, jó mélyen. Nincs igazság a földön...
-
Toninho13
aktív tag
Szép dolog ez a fejlesztgetés, de ameddig csak a profitot maximalizálják és a reklámokkal adják el az új kártyákat, nem a teljesítménnyel, addig felesleges ez a nagy generációváltogatás.AMD-ben az 5xxx-es széria hoztott utoljára nagy újítást, a 6xxx-os csak kis teljesítménytöbletet.A DirectX11 pedig szerintem egyelőre alulmúlja a várakozásokat.1,5 éve úgy lett beharangozva, mint a leggyorsabban elterjedő API, aztán olyan emlékezetes látványt egyik se tudott nyújtani, mint annó 2007-ben a Crysis...Látványban a legtöbb címben nem nyújt többet a DX10-nél.
-
Archer
őstag
válasz
TESCO-Zsömle #31 üzenetére
Abban igazad van. Mondjuk ahhoz nagy terek is kellenek, hogy ez érvényesülni tudjon. Szél iránya, erőssége, a lövedék típusa, tömege, röppálya görbéje, lélegzet visszafojtása meg a fene tudja még mi. Mindjárt értelmet nyernének az osztások a céltávcsövön. Az igazság valahol ott lehet amit mondasz: "a népnek" játszható játékok kellenek" .
-
Angel1981
veterán
Jogos a felvetés, ezen én is elgondolkodtam!
Szerintem már ez a generáció lesz az utolsó, ahol komoly szerepet kapnak fejlesztés tekintetében az alsó kategóriás kártyák.
Az Ivy Bridge elvileg megduplázza a SB garikus teljesítményét, így amellett tényleg nem sok értelme lesz az alsó kategóriának. -
TESCO-Zsömle
titán
Nem azt mondom, de például egy Shooter-ben (mindegy, hányadik személy) alapnak kéne lennie a ballisztikának. Vagy nem?
Olyan ez, mintha az autóversenyből kihagynák a tapadást, vagy a tehetetlenséget.
Persze más kérdés, hogy a "népnek" játszható játékok kellenek és nem valósághűek. Amíg ez fennáll ne csodálkozzon senki, ha csak eyecandy meg agyatlan hentelés van.
Olyan folytatásokat baxnak el a sablonos "még több vér, még több hent, még több fegyver" trióval, melyek elődje pont a kiegyensúlyozottságával és/vagy sztorijával hódított. Gyakorlatilag előre elk*rják a szériát. -
Malachi
addikt
nálam ugyanez a négyessel. Karácsony előtt teljesen odavoltam egy GTX460-ért, most viszont úgy néz ki, hogy mire odakerülök GTX560, esetleg ha jön, akkor 550 lesz. ha még tovább totojázok, akkor ki tudja, már a 28nm áldásait élvezhetem majd év végén.
mert igazából semmi szükségem új vidkarira. mégis kellene egy. na ki oldja fel ezt az ellentmondást?
-
Archer
őstag
válasz
TESCO-Zsömle #28 üzenetére
Amíg nem lehet teljesen rombolni a környezetet, szerintem olyan mindegy, hogy a benzines hordó mennyire reálisan esik a fejemre meg a villanyoszlop jobbra vagy balra dől, ha felrobbantom. Annyi fizika azért már van a legtöbb komolyabb játékban, hogy ne legyen valószerűtlen az egész ilyen téren. Ha meg egy Crysist megcsinálnának real-time rombolhatóra, nem lenne az a gép amin élvezhetően futna.
-
TESCO-Zsömle
titán
A láthatatlan effektek meg azt hiszem senkit nem győztek még meg eddig.
Ezért nem hemzsegnek a komoly fizikával megáldott játékok, ezért nincsen ballisztika egyetlen FPS-ben sem. A fizika zömét nem lehet látni, akció közben meg szinte semmit se látsz belőle. Azt elvileg érezni kéne.
Van helyette PhysX, ami ugyan egy kalap kaki aranypapírba csomagolva, de azt szépen kivilágítva odatolja az ember pofájába, had vakítson. -
Enton
addikt
De most komolyan.
Tényleg évente kéne uj teljesértékű benchmark Crysis-t kiadni ilyen tempó mellett. -
- = Zk = -
félisten
" Kétségtelen, hogy az aktuális Radeon HD 6000-es és GeForce 500-as generációs sem teljes, a vállalatok már a következő sorozatra koncentrálnak "
jah, bocs. itt lefőttem, mint a kávé
engem ezek a "mégújabb vasak" csakis az árverseny miatt érdekelnek -
kenwood3
addikt
ha így fogják dobálni kifele a kártyákat , akkor lehet nálam kimarad a 6xxx sorozat
-
Boxi88
őstag
Kíváncsi vagyok, hogy mit hoznak össze majd a nagyok!
-
Xaels
félisten
Erre csak azt tudom mondani, hogy így legyen. BF3-ig kihúzom az 5770-essel és ha jön az új széria ráérek egy szinttel feljebb lépni(6870/GTX560) mert akkor már elfogadhatóbb árban lesznek a kiszemelt kártyák. Gyerünk jöjjön csak az az árverseny
-
.mf
veterán
"A kisebb megoldások esetében nem lehet következtetni. Feltételezhetően további három GPU készül, melyek közül a két leggyengébb modell biztos a TSMC 28 nm-es HP gyártósorán készül majd, mivel csak a tajvani bérgyártó rendelkezik akkora gyártókapacitással, hogy az kielégítse az igényeket."
Hmm pedig már úgy sejtettem, hogy a kiskártyák elsorvadnak, mivel Intel és AMD is arra játszik, hogy az IGP legyen annyira ütős, hogy a kiskártyáknak már ne legyen értelme.
A folyó vitába bekapcsolódva: egyetértek azokkal, akik szerint a játékok látványbeli fejlődése az utóbbi években nagyon lelassult, lemaradt a videókártyák teljesítményének növekedéséhez képest. A gépigényt már inkább csak az optimalizálatlanság táplálja.
Másfelől legalább örülök, hogy a régebbi vasak is elegendőek. 4850-em már 2,5 éves, ilyen sokáig még egyetlen vidkari se húzta nálam, és még most se érzem kevésnek. -
Archer
őstag
Nagyon beragadt az áruk, november eleje körül akartam olyan kártyát venni, aztán mégsem vettem de ahogy nézegetem, azóta semmit nem csökkent az áruk, van amelyik még drágább lett. 25-30 között már jó lenne.
Más: csomószor a Metroval példáloznak, hogy az olyanok miatt kell a tuti VGA. Annyira jó játék, hogy érdemes legyen egy fillért is költeni a gépre miatta? Tesztekből nekem nem úgy jött le...
-
a metro 2033-bol kiindulva azért jöhetnek olyan játékok amik megizzasztják a vga kártyák közép kategoriátol lefelé esö kártyáit
-
Franklin
addikt
"Kétségtelen, hogy az aktuális Radeon HD 6000-es és GeForce 500-as generációs sem teljes"
Mikor lesz teljes? Mikor lesz 6770, 6750, 6670, 6570, 6550?
-
toldy
őstag
Én örülnék egy kimaxolt, 192bites 28nmes gts 550nek.
-
-
atti_2010
nagyúr
válasz
Day 'n' Nite #7 üzenetére
Azt nem hiszem hogy bemerik még egyszer vállalni, azért csináltak városi környezetet mert kevesebb erőforrás kell, persze a látvány is szegényesebb.
-
Day 'n' Nite
tag
No, majd elválik mi lesz.
A kihasználtsághoz: pl ha Crysis 2. része olyan lesz ( a hardverekhez képest) mint az első, akkor lesz ami megizzasztja ezeket.
Egyébként mindig vannak és lesznek ilyen hardverfeszegető játékok (szerintem)... -
Archer
őstag
-
Trolluska
tag
Soha. Biztos vagyok benne, hogy a legfrissebb, legcsúcsabb játékot is maxon lehetne futtatni egy kb. 3 éves középkategóriás konfigon, ha rászánnának némi erőforrást a kódoptimalizációra. Csakhát az nem kevés pénz+idő, és persze annyival később jönne ki, stb.stb.
Abban is igazad van, hogy a mai csúcskártyák csak akkor kellenek, ha minimum 2 tucat monitoron játszol. De valójában hány embernek van egynél több monitorja otthon? (rajtam kívül)
-
bartucc
addikt
Mindkettőtöknek igaza van, de már lassan megint a Gf 9600GT korszakot éljük, 50 ezer forintért kaphatóak már olyan kártyák, amik egy Full HD-s monitort/kijelzőt maradéktalanul kiszolgálnak. Nem lenne jobb érzés ha közepes beállításokkal is meg lenne az a képminőség, és lehetne még hova lépni? Veszteni nem veszítene senki, csak értemét nyerne egy Hd 58xx/HD 68xx sorozatnál nagyobb kártya vásárlása is, több monitor nélkül.
Jelen pillanatban is bőven elvagyok a 4770-el, és jó ideig nem is tervezek váltani, mert nincs miért. A Crysis 2-re kíváncsi leszek, de oda is elég lesz ez még 1366x768-ba.
-
Csabahun
senior tag
Valaki árulja már el,hogy a játékok/fejlesztők mikor fogják követni ezt a nagy teljesitmény növekedést?
És nem a 100000x1000000 felbontásokra gondolok.A vga-k csak jönnek ,és sok játék még 2005-ös szinten van.
Új hozzászólás Aktív témák
ph Az AMD és az NVIDIA eltérő stratégiát választhat a 28 nm-es átállásra.
- Melyik tápegységet vegyem?
- Tőzsde és gazdaság
- Milyen videókártyát?
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- Azonnali VGA-s kérdések órája
- Samsung Galaxy Z Fold6 - ugyanaz, sarkosan fogalmazva
- Hálózati / IP kamera
- Android játékok topikja
- Motoros topic
- Küszöbön a One UI 8 béta program
- További aktív témák...
- Lenovo ThinkPad 40AF docking station (DisplayLink)
- Csere-beszámítás! Számítógép PC Játékra! I3 14100F / RTX 3060 12GB / 32GB DDR4 / 500GB SSD
- Acer Nitro 5 AN515 - 15,6"FHD IPS 144Hz - i5-11400H - 16GB - 512GB SSD+1TB HDD - RTX 3050 - Win11
- Bomba ár! HP ProBook 450 G7 - i5-10GEN I 16GB I 256SSD I HDMI I 15,6" FHD I Cam I W11 I Gar
- Xerox WorkCentre 3025 hibás/donor
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest