Új hozzászólás Aktív témák
-
leviske
veterán
"gondolok itt az új csúcsra"
Óóó! Úgy tudtam! Nem lesz itt semmiféle felépítésbeli különbség a Barts és a Cayman közt. Egyszerűen csak azért változtattak a nevezéktanon, hogy "alapot adjanak" az árak növelésének.
És ezt eladni "létrehoztunk egy új, eddig nem létező kategóriát" marketing bullshittel...
Mind1, legalább megkapta a 150-250 dolláros kategória is a jól kiérdemelt teljesítményduplázást. Ez a lényeg.
-
Abu85
HÁZIGAZDA
-
Boxi88
őstag
Remélem ha bejön ez a szörnyeteg meg az ati 69xx-esei... jól lenyomja a többi kártya árát... és potom pénzért lehet majd GTX460-hoz, meg 5850-hez jutni... (és mint tudjuk teljesítmény ügyileg még ezek sem rosszak) szal egy átlag felhasználó olcsón vehet vga-t!
-
smkb
őstag
Ha HD5970 körüli teljesítményt hoz, akkor nyilván az ára is akörül lesz... aztán ahogy a konkurrencia ára mozog lefele, majd követi, más lehetősége nincs.
-
Abu85
HÁZIGAZDA
válasz
Ricco_hun #187 üzenetére
Valahol a gyártók lépése is érthető. Jelenleg a diszkrét asztali VGA-k piacán szart sem keresnek (ha keresnek is valamit). Be kell vezetni ezt az új luxuskategóriát luxusárral, ami nagyon drága lesz. Egy piac csak addig jó, amíg pénzt keresel rajta, amint ez mondhatni önhibádon kívül megszűnik át kell gondolni a lehetőségeket.
-
Ricco_hun
senior tag
válasz
tzsolesz #188 üzenetére
Én mindig úgy számolok, hogy az usd-s árat euro-nak veszem. Egy friss példa: HD6870 msrp 239USD. 239 euro = 65k HUF. Persze a kisker ár nem így jön ki, csak valamiért pont annyit pakolnak rá az usd-s árra mire ideér a kiskerekbe, hogy olyan, mintha euróból váltották volna át.
-
tzsolesz
nagyúr
válasz
Oliverda #185 üzenetére
Az igen. Ez ám az árazás. Mondjuk ha abból indulunk ki, hogy egy GTX470 átlag ára most 70K körül van, akkor ez a kártya 150K ott abban a boltban. Mivel több mint a duplája az ára.
Nem sok egy kártyáért az?(#187) Ricco_hun Jah, igen a magyar induló árakat még bele sem számítottam.
-
Ricco_hun
senior tag
válasz
Oliverda #185 üzenetére
Az szép! Hazai kisker ár: 190k. Az Nv ezt csak addig tudja megetetni a néppel, amíg nem jön a HD6990. Vagy azt az AMD hova fogja pozícionálni? Itt is előkerül az 1000 USD-s kategória, mint az Intelnél? Gyönyörű jövő, szép kilátások. A gyártók, már nem is akarják javítani az ár/teljesítmény arányt. Amennyivel gyorsabb az új széria, akkora felárat raknak rá és kész. Eszem-f*szom megáll!
-
Oliverda
félisten
-
Sanyix
őstag
válasz
Joachim21 #154 üzenetére
Aham, és melyik a juniper? Mert a junipernek megfelelő shadermennyiségű chipbe, bizony bekerült egy uvd3 plusz nagyobb lett a teljesítménye nem kicsit mint a junipernek... átnevezés aha? mobility meg nem érdekel, de ott eddig is csak minden másodig generáció ment... képzeld az integrált 42xx-as sem 4xxx-es valójában...
-
leviske
veterán
válasz
hugo chávez #170 üzenetére
Miután a német tőlem totálisan idegen, ezért ha nem nagy baj megkérdezem: Ez a 4D-VLIW-ALU valami tranzisztorigényes fejlesztés? Mert más esetben nem igazán látom indokoltnak, hogy miért kellett volna pont a kisebb GPU-kból kihagyni.
Amúgy csak a táblázat miatt még nem feltétlen kötelező bedőlni neki. Mint már fel is hoztam példának, ugyanilyen hivatalosnak tűnő prezin volt felvezetve a HD6700-as széria teljesítménye a HD57-esek és HD58-asokhoz viszonyítva.
Ez a külön architektúra dolog egyedül arra adna magyarázatot, hogy Abu miért a HD6900-asok tesztjéhez ígérte a mélyrehatóbb elemzést.
Mind1, majd meglátjuk. Ettől függetlenül tartok tőle, hogy az új nevezéktanban semmiféle misztikum nincs, csak "olcsón" akarták lejjebb faragni a 800-as család árát, hogy ne hőzöngjön a nép.
-
értem, hogy SC2, de emlékeim szerint az a benchmark nem csak a GTX480-nál verte ki a biztosítékot (meg a TDP-t). olyan példák kellenének, ahol más kártyák uniform tartják a TDP-jüket, a 480-as meg lóg kifelé a szabványból
#169: sztem akkor nagyon meg fogsz lepődni november végén
-
Devid_81
félisten
Jöhetne már valami új szabvány a VGA-kra, itt a tél a nyakunkon 300Wattal még nem lehet befűteni egy átlagos 20-25nm-es helyiséget
Szeretem, hogy egy kicsit javítgatnak és máris generációváltás lesz az "eredménye".
Mindkét gyártóra egyaránt büszke vagyok most. -
MZperX75
addikt
válasz
max-pain #172 üzenetére
Ya!
Néhány éve még temették a pc-t,játékaival együtt(a konzolok miatt)
kb ez a hír is ennyit ér"minden progi felhőben fog futni",persze lesznek programok amik használják "felhőben" futást.
Apropó felhő alapu számolás,a "felhő" az csak egy elnevezés,ezt valaki ki tudná fejteni bővebben is?Ez valami programozástechnika ?vagy mi a szősz?Vagy már régóta létezik csak megnevezése nem volt....
(úúú azért így karácsony elött nem lesz rosz a VGA piac,tesztek tesztek viták,érvek)
6970 us gtx580
6990 us ?
6950 us gtx480
jó lesz ez nekünk? én akkor már 2generációval le vagyok maradva...
Azért érdekes régebben 2-3éve egy középkategoriás VGA val közepes felbontásba közepes beálításokkal lehetett játszani.hd48701g val ,még elvagyok--elég jól.
Mostani 6000-es és gtx4-es szériával, minden maxon full hd-ben.(akkor valójában mi a frásznak 6970-6950-gtx580 és társai?)
Talán a krizis 2 profitál ebből valamit,ha jól tudom a decemberi megjelenésnek lőttek,majd csak tavasszal..... -
hugo chávez
aktív tag
Hát, nem akarok itt nagyon átmenni Ati/AMD találgatósba, de a nagy sunyiskodásból, meg a Barts-okra épülő kártyák logikátlannak tűnő elnevezéséből (68xx) arra következtetek, hogy jóval nagyobb lesz a különbség a Barts és a Cayman között, mint a Barts és a Cypress között.
A lehetséges eltérésekről nem nagyon mernék nyilatkozni (tekintve, hogy annyira nem értek hozzá), de pl. vannak pletykák 4D-VLIW-ALU-król [link]
-
leviske
veterán
válasz
hugo chávez #168 üzenetére
Így már értem. Amúgy az első GT212 pletykák idején már megjelent a Fermi név is egy roadmapon, csak akkor még nem igazán lehetett tudni, hogy konkrétan mi is az, miután (ha jól emlékszem) egy elég általános roadmapon jelent meg, amin az összes CUDA-s cucc jelenvolt.
Az meg engem meglepne, ha a Cayman a R600 architektúrától jobban eltérne, mint a Barts. Nem hiszem, hogy lett volna annyi idejük, hogy valami teljesen újat kidobjanak 40nm-re, főképp úgy, hogy ez nem is indokolt. Esetleg a Master-Slave felépítésű több GPU-s megoldások megjelenését tudnám elképzelni a HD6900-as szériában, de ennek a rendszernek a bevezetése még nem volna eltérés az R600 vonaltól. (De így legalább értelmet nyerne az új nevezéktan miértje és a dupla CFX hidak hiánya a HD68-asokról.)
-
hugo chávez
aktív tag
Kódnevet írtam, mint pl. a Fermi és a Fermiről a nevén kívül semmit nem lehetett tudni tavaly őszig, de a neve is csak tavaly nyáron derült ki, de akkor még csak Abu erősítette meg[link]. A Kepler és a Maxwell meg már elég biztosnak látszik:[link]
Nem azt írtam hogy ismerjük a felépítést, hanem hogy néhány dolgot róla. Abu már írt egy pár dolgot, ami persze nem biztos még, de mint írtam, a Fermiről tavaly nyáron még ennyit sem tudtunk. Kepler: "A fejlesztés természetesen nem áll le, mivel már készül a Kepler architektúra, amiben az eddigi adatok szerint megjelenik a virtuális memória támogatása, továbbá két ARM processzormag is helyet kap benne."[link]
Maxwell: (#117) Abu85"Felépítés szempontjából meg igazándiból a Northern Islands esetén jól titkolózott az AMD, mert csak a nemlétező Southern Islands kapcsán lehetett tudni, hogy az R600 felépítését követi."
Én azért fenntartanám a kételyemet azzal kapcsolatban, hogy a Cayman az R600-ra fog épülni.
-
DeathAdder
veterán
nVidia
-
-
Henkei
tag
válasz
Cyberpunk #159 üzenetére
angol kiosztasu gepeim vannak es amugy sem tartozik rad hogy eppen mit hogyan irok. reagalni sem kotelezo ra amugy foleg ha nem hozzad szoltam.
az otvarhulladek geforcerol meg csak annyit hogy nalunk 4 macbook pro doglott meg vegleg a selejtes vgajuk miatt. persze ezt egy ilyen geforce vallasu biztos nehezen hiszi el.
joahim: ezzel be is bizonyitottad azt amire valaszoltal. koszike!
-
leviske
veterán
(#152) Sanyix: Ettől függetlenül hatalmas hülyeség volt ezeket HD6800 néven kiadni. Főképp, hogy a régebbi roadmapokon, amiken már megjelentek a pontos adatok, még a HD6700 név díszelgett.
Ha ilyen nevezéktannal érkezett volna a HD5-ös széria is (tehát mondjuk Juniper - HD5800; Cypress - HD5900; Hemlock - HD5900X2), akkor westlake joggal szapulta volna az AMD-t a megjelenésükkor.
(#153) hugo chávez: 1-2 évvel a megjelenés előtt már tudni a nevet, meg a felépítést? A nevezéktanra ellenérvnek ott a HD3000 széria, amiről megjelenésekor derült ki, hogy nem HD2005 lesz. Felépítés szempontjából meg igazándiból a Northern Islands esetén jól titkolózott az AMD, mert csak a nemlétező Southern Islands kapcsán lehetett tudni, hogy az R600 felépítését követi. És igazándiból azt még most sem tudni, hogy a 2011 végén, a Scorpius platformba megjelenő architektúra marad-e az R600 vonalnál, vagy az AMD elindul egy új úton.
Amúgy, ha javult a kihozatal, akkor nem szóltam. Úgy már tényleg nincs értelme a GTX480 áránál olcsóbban adni az elkészült GF100-asokat. Akkor a GTX470 egy újabb papírkártya, amivel könnyű versenyezni.
(#154) Joachim21: Elképesztő, de még mindig tudsz agyf*szt okozni egyes hozzászólásaiddal.
-
Abu85
HÁZIGAZDA
válasz
adamssss #160 üzenetére
Játékfüggő. A Mafia 2-ben főleg a cloth viszi a teljesítményt, ami eleve CPU-n fut, de ha lesz egy tűzpárbaj, akkor szívás van, mert a particle modulok is a CPU-n futnak.
(#161) Joachim21: Érzékelni fogod, ha belinkeled a benchmark eredményet, ami egy meglehetősen akciódús jelent. Nem számítok sok FPS-re.
Szerencsére a VGASpeed volt olyan kedves és lemérte a PhysX teljesítményét, hogy más is láthassa, hogy mit hagy ki.
Azzal, hogy elengeded a füled mellett a problémát nem teszed játszhatóbbá a játékot, csak beletörődsz, hogy az NV rászedett a PhysX-szel, ami futhatna gyorsabban is. Nyilván felteheted a kérdést, hogy mikortól kell majd SLI+dedikált GeForce a PhysX-hez, mert a zárt technológiával az NV úgy bánik ahogy akar. Ezért nem szeretik a piacon a zárt rendszert, mert nincs kontroll mögötte, úgy fut a szoftver rajta, ahogy az a gyártónak jó, és következősképpen a usernek nagyon nem jó. Vagy te örülsz, hogy a CPU-n fut a cloth, amikor a GPU-n kellene? -
Joachim21
őstag
Abu:
Én ebből semmit nem érzékelek, te lehetsz az elenyésző kisebbség akinél ez a probléma jelentkezik, de ezzel mit kezdjen a cég? - (remélem ismerős)A felvetés arra vonatkozott ha core2 superpí tesztje alatt futna a prime95 is, míg az AMD rendszere alatt nem, ugyanis változatlanul állítom, ez a benchmarkos felvetés valójában egy ügyeskedés volt ami nem jött be.
#158
Henkel nem kell! Vagyis nem kell megvédened senkit. Ha végigolvasod a HSZ-eket láthatod hogy bizonyos kételyek másban is felmerültek, nem csak bennem. A valyon miért megválaszolását már rád bízom, nekem nem tisztem itt embereket győzködni egyik vagy másik rendszer felsőbbrendűségéről, én csak leírtam a tapasztalataimat, amik ugye nem multiplayer 3200*2560 +3 gép multiba kötve gyakori felállásokból származtak, ellenben ellentmondanak egyes véleményformálók itt leírt igazságával. -
Nekem egy hd 5870-em van. Még sohasem láttam physix-el játékot. Gondoltam bekapcsolom.
És működött, ráadásul játszható sebességen. Ez létezhet? Szóval én tudok annak hinni aki egy gtx460-al fullon tud játszani vele. -
Cyberpunk
félisten
Te meg odafigyelhetnél a helyesírásodra. Mondatok nagybetűvel kezdődnek és ékezetes betűket sem ártana használni
.
Ja és ha már témánál vagyunk kifejthetnéd bővebben ezt, hogy idézem: "sok bugos hulladekaik". Erre lennék kíváncsi. Mert a flame az megy úgy látom, de érvekkel sem ártana alátámasztani a kijelentéseidet. -
Abu85
HÁZIGAZDA
válasz
hugo chávez #156 üzenetére
Nem mondhatok semmit, de egy pislogást megengedhetek a havi csatára.
-
hugo chávez
aktív tag
Köszi a választ.
Amúgy én nagyon várom a GTX 580-at, meg a Radeon HD 6950-6970-et is, remélem, hogy a hónap végére kint lesz mindhárom és akkor mehet a Cayman vs GF110 csata.
(#157) Abu85:
Az a rohadt NDA.
Az eddig napvilágot látott infókból, bár ezek hitelessége még ugyancsak kérdőjeles, én úgy tippelnék, hogy nem lesz nagy különbség a GTX 580 és a HD 6970 között, bár, ha ez utóbbi órajelét jó magasra (900Mhz körül, vagy magasabbra) lehet belőni, akkor lehet, hogy lenyomja a GTX-et.
-
Abu85
HÁZIGAZDA
válasz
hugo chávez #153 üzenetére
Gyártják a GTX 480-at. Mostanában a tuningolt GeForce GTX 480-ak vannak gyártásban, mert ott nem kell tartani a 300 wattos fogyasztási határt, és nem jelent problémát a gyártósorok gondja. Persze sokáig már nem gyártják ... a GF110 mellett értelmetlen.
A GF100 esetében nem a hibás részekkel van probléma. Sosem az volt a nagy gond. A TSMC már majdnem hibátlan wafereket csinál, de a chipek termikus varianciája még mindig eltérő. Persze már nem kell 100 wattos különbségekre gondolni, mint tavasszal. Most már bőven kezelhető a helyzet, ha a 300 wattos határt nem kell tartani, márpedig a gyári tuningtermékekkel nem kell.
(#154) Joachim21: Én is játszok a játékkal. Egész hétvégén ezt toltuk a szomszéddal. Ha harc van, akkor szívás van aktív PhysX mellett. Erre jó a benchmark, ami egy akciódús jelenetet tesztel. Nekem gáz, ha ilyen jeleneteknél leesik az FPS, valakinek nem számít. Ez is érthető. Persze sokkal jobb lenne, ha támogatnátok Zogrim kezdeményezését, hogy legyen a cloth modul is GPU-s, mert az még gyorsabb teljesítményt eredményezne, de erre nagyon kicsi az esély. Bele kell törődni, hogy a Mafia 2-t szépen kiherélték a GPU PhysX szempontjából. Ez számomra nem elfogadható, és alapvetően szerintem senkinek sem az, hiszen milyen dolog egy technológiát mesterséges korlátozásokkal futtatni. Ebből a user nem profitál. Ilyen negatív hátszél mellett meg ne csodálkozz, hogy a PhysX szekere nem megy.
Mi a baj azzal? Ha jól tudom az említett programok nem alkalmaznak mesterséges korlátozást az AMD Phenom processzorokra. A valós eredményt kapod az adott számításra.
-
Joachim21
őstag
Én játszok a játékkal, tudom hogy én vagyok kisebbségben.
De én is, és te is tudod, hogy a benchmarkot arra hegyezik ki, hogy minél több látványelem, és effekt legyen összezsúfolva, tehát ilyen szempontból ez egy elég alattomos kérés volt. Legközelebb Prime95 mellett futtatva a SuperPi-t kell majd demonstrálnom a Core2 clock_to_clock felsőbbségét a Phenom II-vel szemben?
#152
Jó hogy mondod, mert a Junipert épp most készül átnevezni az AMD vmilyen 6XXX-nek, nem beszélve a Mobility Radeonokról, ahol 5XXX-ként árult 4XXX-es chipet, szóval gyorsan tanul az AMD. -
hugo chávez
aktív tag
Abu, a #104-re valamit?
(#121) leviske:
Én is csak találgatok, de arra gondolok (meg mintha Abu is írt volna valami ilyesmit, de ebben nem vagyok biztos, ezért is lenne jó, ha válaszolna), hogy, mivel a GTX 470-en is ugyan az a chip van, mint a GTX 480-on, tehát a chip előállítási költsége ugyanannyi, de a GTX 480-at jóval drágábban lehet árulni és így nagyobb a haszon, ezért, ha már csak kevés chipről kell letiltani részeket, mert a TSMC már képes olyan jó kihozatallal gyártani, akkor érdemesebb a GTX 480-at megtartani és, ha becsúszik egy-egy rosszabb, amiből le kell tiltani, akkor azok mehetnek jelentős haszonnal a Quadro-kra, mert ott jelenleg amúgy sincs olyan GF100-zal szerelt változat, amin 480 sp aktív.
Egyébként az is érdekes, hogy már most, a tervezett megjelenés előtt 1-2 évvel is ismerjük a két következő generáció kódnevét és a felépítésükről is lehet tudni valamennyit, míg a Fermiről jóformán csak kb. 6-7 hónappal a tényleges megjelenése előtt lehetett konkrét dolgokat tudni, a nevét is beleértve
-
Abu85
HÁZIGAZDA
válasz
Joachim21 #149 üzenetére
Lefuttatsz egy benchmarkot? Kíváncsi vagyok az eredményre.
(#148) gbors: Régebbi driverrel a StarCraft 2-ben mérhetsz komoly fogyasztást. Ott még nem volt a teljesítmény korlátozva. A Furmark-ot lealázza a játék, nem véletlenül döglöttek a túlterheléstől hardveresen nem védett kártyák. Erről volt egy hír is.
(#144) schwartz: Volt egyszer egy Cypress chip. Az AMD a Radeon HD 5800 nevet adta neki. Egy évvel később az AMD elkészítette a Barts lapkát, aminek a Radeon HD 6800 nevet adta. Itt a mese vége ...
-
Joachim21
őstag
"A Mafia 2 esetében a CPU-s cloth korlátozás jó példa erre. Minimum két GeForce kell a High opció élvezhető futásához."
Lehet csak azért mert 1680*1050 a felbontás, de egy GTX460-as van a gépben, Physix minden maxon, és 60 fps-t produkál a fraps szerint, bár van hogy néha leesik 40-re egy két másodpercre.
A marketinggel tényleg vigyázni kell, mert az élet csúnya dolgokat művel!
-
leviske
veterán
válasz
jozsef11 #138 üzenetére
Hm. Ahhoz képest, hogy "kiszivárgott", elég hihető. A gond csak annyi, hogy a HD5870 teljesítménye jelenleg a 250-150 dolláros kategóriában képviselteti magát, míg azért a GTX580 a $400-500-os piacot célozná meg, amivel meg már inkább a Caymant kapja a nyakába ellenfélül, az meg ha hozza a HD6870 teljesítményének dupláját...
És akkor az Antillest még fel se hoztam.
Ha igazak lesznek a 25%-ról szóló pletykák, akkor nem lesz itt szép küzdelem.
-
de könyörgöm, hol az a több program, amiben >300W-ot eszik szerencsétlen 480-as? nekem 210-220W-ot sikerült kipréselnem belőle. de nézd meg a saját teszteteket: load-ban 285W-tal eszik többet a GTX480-as rendszer, mint idle-ben, ami a táp hatásfokával kompenzálva mondjuk 240W - és ezen ugye osztozik a CPU és VGA (a többit hanyagoljuk). miután a 3.6-os i7 sem éppen visszafogott zabálógép, sokat mondok, ha a 240W-ból 180W a VGA-ra jut - ha ehhez hozzáadod az idle fogyasztást, akkor 230W alatt vagy. nem értem én ezt...
#89: minor komment: a GTX460 1G egyáltalán nem tűnik ROP/sávszél-limitáltnak, úgyhogy ha ezt megdobják 50%-kal, az a világot nem fogja megváltani. ill. a 384 SP-ről tudjuk, hogy érdemben nem 384
#96: hát ez egy nagyon bátor elemzés, csak éppen az összes alapfeltételezés hibás. ha ezek után igazad lesz, akkor megkereslek a jövő heti lottószámokért
-
jozsef11
tag
Hmm érdekes GTX 580 teszteredmény!!!
[link] -
Srodney
senior tag
biztos vagyok benne hogy ez nem egy septibe összerakot vacak lesz,szerintem gyorsabb lesz vmivel mint az 5970,de ritka elérhetettlen lesz...idő kell még a polcokra jut...ismét a címszerszés a lényeg a nagy versenyben...
-
Árban mennyi lesz az új jövevény?
-
Henkei
tag
ha elpucolnak majd jon helyettuk az intel. az legalabb egy normalis ceg normalis termekekkel ahol nem atnevezesekbol elnek eveken keresztul.
konkurencia nelkul pedig lassabb lenne az amortizacio. nekem fontos az hogy mennyit er 1-2 ev mulva az amit megvettem. hosszutavon az arverseny nem csak a gyartoknak rossz hanem a vasarloknak is. csak illuzio az egesz.
-
Henkei
tag
ugyanaz a kapalozas es kapkodas megy mint a 480 eseteben ment. majd mutatnak egy kamu kartyat valami latvanyos bemutaton amibol jo ha jovo tavaszra lesz kaphato termek. erik mar nekik az utolso nagy bukta amivel vegleg elpucoljak magukat errol a piacrol. nekem nem fognak hianyozni sem ok sem a sok bugos hulladekaik
-
|nsane
tag
"Igen. Sajnos régóta van ez a probléma, de az olvasóbázis növekedésével már nagyon látványos lett a lassulás. Hamarosan hardvercsere és megszűnik a gond, addig csak a türelmet kérhetünk."
aha igen olvasóbázis növekedésével, nem is a fórumok telefirkálása nv vs. amd vs. intel szócsaták véget
-
Izzé
őstag
válasz
Cyberpunk #93 üzenetére
Nem kell mellédumálni, fejlesztésről volt szó, nem a teljesítményről.
De ha már teljesítmény, akkor:
Szvsz nagy ugrás szerintem sem lesz, de az elvárható lenne, hogy a 6950 hozza, vagy megközelítse, a 6970 meg verje olyan ~15%-al a gtx 480-t.(#121) leviske: Ne nekem mondd.
-
Abu85
HÁZIGAZDA
És mi az amit vesztettél az SM3.0-ig. Teljesítményben majdnem egál volt.
Hogyne számított volna. Láthatod, hogy az ATI mit ért el a HD 3000-rel, már ha az anyagi szempontokat nézzük. Az NV halálra kereste magát a HD 4000 megérkezéséig.Nem hiszem, hogy a vezetőség haragszik rám, mert korábban a GeForce 6-7 generációt ajánlottam, míg a PH pár tesztben az X800-at. Mint mondtam, szerintem akkor az NVIDIA kínálta a jobb terméket. Lehet, hogy ebben nem értünk egyet, de ettől még tartom magam az álláspontomhoz: az ATI X szériája nem volt nagy eresztés, függetlenül attól, hogy anyagilag jobban jártak, mint az NV.
-
Egon
nagyúr
Ezzel csak az a gond, hogy - a legtöbb plusz fícsörhöz hasonlóan - az SM 3.0 mire elterjedt, már bőven kevés volt hozzá az a vas, amiben először megjelent (közben nőtt az átlagosan használt felbontás, a játékok átlagos gépigénye stb.).
Egy adott kártya tesztelésénél azzal tudnak tesztelni ami van. 6800 Ultrám volt, ráadásul elég későn vettem, de nem nagyon emlékszem olyan játékra (AoE3-at leszámítva), ami az SM 3-nak köszönhetően, sokkal szebb lett volna.
Érdekes, az Ati 3000-res szériájánál nem számított a csúcskategória? LOL."Ezt lehet, hogy neked nehéz kezelni, de nekem ez teljesen természetes"
Nem, egyáltalán nem nehéz "kezelnem", pontosabban észrevennem a kis szurkálásaidat a cikkekben, hozzászólásokban, amit sokan nem vesznek észre. Egy-egy kirohanásnál amúgy is meg szoktál feledkezni magadról a fórumon, szóval csak a vak nem látja, hogy miképpen viszonyulsz a gyártókhoz. Persze ez egy házigazdától gáz kicsit, de ha a vezetőség ezt bevállaja... Az ő dolguk.
Szerk.: a témát a magam részéről lezártam.
-
Abu85
HÁZIGAZDA
Világosíts fel minket mi ellen készült az NV csúcsrendszere, ha nem az AMD csúcsrendszere ellen.
(#119) max-pain: A Maxwell esetében egyértelmű, hogy nem jó GPU-nak. Valószínű, hogy az NV mérlegelni fogja a piacokat. Állításuk szerint 2014-re már minden játék felhőben fut, tehát 2012 végén már kell valami látszat erre, vagyis lehet építeni a felhős gépeket.
-
Abu85
HÁZIGAZDA
Az akkori PH-s tesztekhez nekem nem sok közöm volt. Egyébként nyilván nem értettem egyet, de ez már nem változtat semmin. Aki a véleményemre volt kíváncsi az akkor is megtalált, és nagyon nem az x sorozatot ajánltam.
Ez nem terelés. Egyszerűen akkor a GeForce-ot tartottam jobbnak. Az okokat is leírtam miért.
Ki állította azt, hogy a 6600GT nem volt siker. Az alapfeltevés onnan indult, hogy egy technológia képességeit a legerősebb versenyző tudja megmutatni. Az Intelnek van a legerősebb processzora, tehát ők járnak technológiailag előrébb. Ugyanez igaz az AMD-re a VGA-k között, mert övék a leggyorsabb rendszer. Ár érték arányban meg könnyű versenyképesnek lenni. Az AMD is versenyképes ebből a szempontból a procipiacon, ahogy az NV is a VGA-piacon.
Véleményem szerint sokkal nagyobb gáz volt az ATI-nál a technológiai lemaradás. A GeForce SM3.0-t kezelt, ami jobb volt az SM2.0-nál. Értékelhető funkcionális különbségek voltak, ahogy például a DX10 és a DX10.1 között. Ezek a különbségek később ki is jöttek. Ezért ajánlottam anno a GeForce 6 sorozatot a Radeon X helyett. Nem kell a pártatlanság látszata, ha az egyik gyártót pártolnám, akkor nem ajánlanák generációnként más terméket. Ezt lehet, hogy neked nehéz kezelni, de nekem ez teljesen természetes. A jobb az jobb.(#123) [CS]Blade2: Kb. jól írod le. Ha így jelent volna meg a GF100, ahogy te visszakövetkezteted, akkor most nem beszélnénk arról, hogy a GF110 egy javított GF100.
-
[CS]Blade2
addikt
Annyira nem érdekel, csak nem jött össze egy a 15-20%. Mondjuk még mindig nem hiszem el, hogy ennyi lenne, mert akkor 5970 nem melegedne az 250W-os fogyasztásával, mint egy kazán. A másik, hogy Nvidia pedig akkor ezzel a GF110-el kegyetlen chipet alkotott, ahhoz képest, hogy csak a GF100-at reszelgette, mert akár 64W-al is kevesebbet fogyaszt, miközben 20-25%-al gyorsabb. GF110-ből csinálnának GTX480-at, kb 220W-ot enne több programban.
-
leviske
veterán
(#81) Killing: Ennyi erővel a Cypress is jöhetett volna már a Barts felépítésével. Most jelenleg mind a két gyártó a TSMC vergődősének a súlyát nyögi.
(#82) DeathAdder: Semmi. A HD6900-asok függvénye, hogy hova tudják belőni az árát.
(#84) woland_y2k: Gondolom Te már úgy születtél, hogy a PH! etikett genetikailag volt belekódolva az agyad kommunikációs központjába. Idővel majd beletanul, ha csak az atikettnácik el nem üldözik.
(#87) Izzé: Pont a GPU-val nincs gond...
(#97) Atom_Anti: A torokvagdalásra a HD5-ösök idején lett volna fél év. Nem éltek vele...
(#104) hugo chávez: Lehet, nincsenek egyik nagykerrel se kapcsolataim. Logikus lépés lett volna, ha a GTX465 mellett a GTX480 gyártását állítják le, miután a GTX480-hoz szükséges minőségű GF100-as chipekre szükség van a Tesla/Quadro piacán is. A GTX470 árával még mindig szórakoznak, szóval azt biztos nem vezették még ki. Gondolom a GTX465 is csak az OEM vonalra szorult vissza.
-
Egon
nagyúr
Megint terelsz. Jössz az ultimate architektúrával mindig (hogy mennyire dícsérted anno azt a szériát), de ez ritkán lényeges.
1. Ph tesztben a felsőkategóriában az Ati lett győztesnek kihozva akkor (hadd ne kelljen már linkeket keresgélnem).
2. Persze hogy növelte a részesedését az Ati: nyilván az előző széria hatásaként (pontosan úgy, ahogy az nV-nek is alig csökkent a gyászos emlékű FX szériával a részesedése: kitartott a GF4 lendülete).
3. A 6600GT szarrá alázott minden konkurens közékategóriás próbálkozást, és eladott darabszámban ez számít igazán (legalábbis sokkal jobban mint a felsőkategória).
4. Két (illetve most már három) Ati-s szériával ezelőtt, még nem számított a felsőkategória teljesítménye nálad - akkor hogy is van ez?Legalább a látszata meglenne a pártatlanságnak (ami most kimerül az ezeréves postok belinkelésében, mint most is),
-
Abu85
HÁZIGAZDA
válasz
max-pain #116 üzenetére
A Maxwell a GTC2010-es ismeretek szerint már full DP-s lesz, teljesen új elvekre építve, négy darab belső központi processzorral. Kicsi az esélye, hogy abból lesz PC-s GPU. Inkább a Keplert viszik tovább, mert a Maxwell már nagyon nem GPU. Az NV is inkább a Ray-tracing teljesítmény helyezi előtérben, valószínűleg az Optix motort is ilyen irányba fejlesztik.
-
Abu85
HÁZIGAZDA
Maximum azoknak volt a leggyorsabb, akik a leggyorsabbnak akarták látni. A GeForce 6800 Ultra sokkal inkább megfelelt a kor igényeinek. Ettől függetlenül az ATI sokat ért el az x800 sorozattal, mert akkor még szépen növelte a részesedését. A GeForce 7000 volt, ami ezt visszafogta. Erről egyébként sok vita volt. [link] - itt én is belekeveredtem egybe, sikerült találnom egy ATI fant. :Akkoriban még le is NV fanoztak
... pedig csak elmondtam, hogy nem jó az ATI X-es architektúrája.
(#114) Badman 4ever: HP Proliant DL585 G2 - 4 darab Dual-Core Opteron 8220, megy 64 GB memória.
-
Zénó1000
csendes tag
válasz
antikomcsi #105 üzenetére
Antikomcsi, milyen felvett tv műsor konvertálásról írsz? Ha esetleg T-home tv-d van és a set-top-box merevlemezére felvett műsort tudod valahogy kivarázsolni onnan és nézhető formátumra konvertálni, azt megírhatnád nekem, hogyan kell. Hálás lennék
-
-
-
Abu85
HÁZIGAZDA
válasz
antikomcsi #107 üzenetére
Szokásos szöveg. Bizony a tények ellen nagyon nehéz ... Köszönöm, hogy nem kell felesleges köröket futni.
(#108) Cyberpunk: Igen a marketing. Erre meg jön az a kérdés, hogy az NV, miért nem hozza ki a két-GPU-s csúcs-GeForce-ot ... máig sokan várják.
Nekik is egyszerűbb lenne az élet, hiszen újra trónra kerülnének, és nem jönne a le van maradva szöveg. Persze itt most felejtsük azt, hogy a GF100 a Hemlock ellen készült, ezt sokan nem képesek ennyire átlátni. 1.0-s júzer elméjével átgondolva egy dolog látszik a Radeon HD 5970 a leggyorsabb.
-
-
Abu85
HÁZIGAZDA
válasz
Joachim21 #103 üzenetére
Gondolom a PhysX korlátozásait sérelmezi. Mivel csak NVIDIA GPU-val működik, így az NV-nek az az érdeke, hogy minél több GPU-t követeljen a folyamatos futás. A Mafia 2 esetében a CPU-s cloth korlátozás jó példa erre. Minimum két GeForce kell a High opció élvezhető futásához.
Az AMD-nek egyébként szabványos GPGPU-s megoldásai vannak, ugyanúgy működik, ahogy a CUDA. Bár az ArcSoft már bemutatta az új OpenCL-es SimHD plugint, ami minden eddigi megvalósításnál gyorsabb, szóval előnyök is vannak, a nyílt platformokban ... nincs lehetőség a sebesség mesterséges korlátozására, mert versenyezni kell a gyors futás érdekében.(#105) antikomcsi: Ne másban keresd a hibát, ha nem látod az NV lemaradását.
Egyszerű példával szemléltetni lehet ezt. Melyik a világ leggyorsabb VGA-ja? Segítek HD 5970.
-
Bírom az ilyen "behozhatja végre a lemaradást az nv" típusu hozzászólásokat.
Milyen lemaradást? Ha nem vettétek volna észre, itt vannak a használható, jó árú nv kártyák is, GTX580 még nincs, és nem is az fogja megváltani a világot.
Most gyertek azzal, hogy útisten, 2 miliméterrel szélesebb az nv chip oldalankén, meg xy wattal többet eszik terhelve. Az a baj, hogy ez senkit nem érdekel, csak akik ebbe kapaszkodnak, hogy legyen miért útálni az nv-t.
Ez a gyártónak gond, nem nekem, ha én olcsón kapom. 35K a 768 megás gtx 460, ez annyira azért nem rossz.
(#101) Atom_Anti
Én nem érzem úgy, hogy megetettek. Lehet fiziksz nélkűl játszani, mert nem kötelező, de szebb vele a játék. Ez egy kis plusz szolgáltatás, amiért külön be kell ruházni. Akinek a látvány is sokat számít a teljes játékélményhez az vehet egy fizikai kártyát is az extrához, akinek nem fontos, az ugyanúgy élvezheti e nélkűl is.
A cuda, pedig egy arra alkalmas szoftverrel, sokkal gyorsabban kódol. Így remek szolgálatot tesz, amikor a tv-ből felvett x-faktort konvertálom át anyósomnak, hogy a dvd lejátszóján megnézhesse újra. Nem kevés időt, és ezzel együtt energiát megtakarítva nekem.
Kerek perec nem mondanám, hogy sz@r, inkább csak nem Neked találták ki esetleg.
-
-
Atom_Anti
senior tag
Árháború szempontjából nem lett volna jó, de többé nem etetne meg minket a phisixel, cudával, félreoptimalizált játékokkal, dx11 done right szöveggel. Lassulna a technikai fejlődés, nem kellene évente új videókártyát venni
.
Sanyix:
10-20% os teljesítmény növekedés hihetőnek tűnik a GTX480 hoz képest, ennél többet pedig a HD6970 sem fog hozni.
Új hozzászólás Aktív témák
Hirdetés
ph Már a következő hét elején megtörténhet a bemutató.
- Eladó egy használt MSI RTX 3060 Ti Gaming X 8GB LHR videókártya
- 3 hónapos Sapphire Pulse AMD Radeon Rx 7900 XTX 24 GB, 33 hó garanciával!!
- MSI GTX 1070 Ti 8GB GDDR5 GAMING 8G Videokártya!
- GIGABYTE GeForce RTX 2080 TURBO OC 8GB GDDR6 videokártya (használt)
- Csere-Beszámítás! Manli RTX 3070Ti 8GB GDDR6X Videokártya!
- OLCSÓBB!!! Dell Latitude 7420 és 7420 All-In-One i7-1185G7, Intel Iris Xe Graphics, 16GB, 256GB-2TB
- LG 25GR75FG - E-Sport Monitor - FHD 360Hz 1ms - NVIDIA Reflex + G-sync - AMD FreeSync - HDR 400
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RX 9070 XT GAMER PC termékbeszámítással
- Huawei P20 Lite 64GB, Kártyafüggetlen, 1 Év Garanciával
- Lenovo Thinkpad T14 üzleti i5-10310u 10th gen. 8-24Gb RAM 256GB-1TB SSD gar.
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest