- Milyen asztali (teljes vagy fél-) gépet vegyek?
- NVIDIA GeForce RTX 5060 Ti (GB206)
- Intel Core i3 / i5 / i7 / i9 10xxx "Comet Lake" és i3 / i5 / i7 / i9 11xxx "Rocket Lake" (LGA1200)
- Kódolás Qwen3-mal saját gépen, Cline AI-alapú autonóm kódolási ágenssel
- Projektor topic
- Asztrofotózás
- Milyen TV-t vegyek?
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Milyen széket vegyek?
- Milyen videókártyát?
Új hozzászólás Aktív témák
-
DemonDani
addikt
válasz
Badman 4ever #246 üzenetére
Ezeket inkább úgy érdemes elképzelni, hogy amik a DX11 egyéb adotságai miatt (Pipeop CS) képesek értékelhető sebességre azok, "nem léteznek" más API alatt, szóval vedd úgy h a CS-t használó effekt az nem lehet CS nélkül.
Kb ez olyan mintha most belöknék a Ray-Tracinget úgy hogy nincs jelenleg semmi amivel értékelhető sebességra képes, és 1FPS-sel menne a játék, ha lenézel lenne 2 XD -
Abu85
HÁZIGAZDA
válasz
Badman 4ever #246 üzenetére
Mert a két effekt nem jelenik meg DX11 alatti API-n. Nem engedik a fejlesztők, mert nem lenne értékelhető sebesség. Így nyilván DX11-ben nincs mihez képest gyorsulni, vagyis az effekt nélküli állapothoz lassul a rendszer, de bekapcsolhatók a DX11-es effektek, amik jöbb képminőséget eredményeznek.
Azt egyébként eldönthetik a fejlesztők, hogy a DX11 alatti API-kon rossz sebességgel futó effekteket engedélyezik-e. Általában nem teszik meg, de láttunk erre ellenpéldát is pl.: Stalker: SoC, BattleForge. Egyik játék sem játszható max. grafikával egy DX10-es kártyán. Még DX10.1-esen sem, pedig az is gyorsabb.
-
viktor82
őstag
Hát ahogy a specifikációt elfigyelem sok változás nincs a két gtx közt szerintem jobb lett volna a 480 Ultra név az jjobban illene rá és még kapósabb is lenne majd szerintem!
-
Abu85
HÁZIGAZDA
A pipeline optimalizálás alapból él. Ezt láthatod, ha nem raksz extra effektet a DX10-es kódba a DX9-hez képest. Ez átlag 1-5%-ot kínál pluszban. A compoute shader miatt gyorsabb a HDAO 7x és a Diffuse DoF 15x. Jelenleg ezek a legelterjedtebb részek a DX11-en belül. A probléma (ami látva a sebességdifferenciát nem is biztos, hogy probléma), hogy a HDAO-t és a Diffuse DoF-ot vagy más CS-re optimalizált Post Processt tiltanak DX11 alatt, mert szar lenne a sebesség.
-
Abu85
HÁZIGAZDA
Mert a gyakorlatban senki sem írja meg a DX11-es effekteket DX11 alá. Úgy vannak vele a fejlesztők, hogy sebességben használhatatlan a post process az LDS és a Gather4 nélkül. Ez amúgy nem meglepő, a HDAO DX11-ben például 7x olyan gyors, mint DX10-ben. A Diffuse DoF-nak is van DX10-es verziója, de 15x lassabban fut, mint a DX11-es. Ilyen sebességkülönbség mellett nincs értelme engedélyezni az effekt futását DX11 alatt.
-
Abu85
HÁZIGAZDA
De csak azért, mert a legtöbb DX11-re tervezett effektnek a programozók csináltak egy DX9-es eljárást is. A BattleForge is ezért gyorsul, mert a HDAO-nak van DX10-es kódja. Ha ezt több játékban be lehetne állítani, akkor mindenhol gyorsulás lenne az eredmény, csak ezt azért nem játsszák meg a fejlesztők, mert egy HDAO úgy sem menne DX10-ben jól. Erre tökéletes példa a Stalker SoC. Mindenképpen DX11-es kártya kell, mert a régi kártyák sebességben kevesek az effektre. Sokan ezért nem látják az értelmét DX11 alatt leképezni a modern eljárásokat.
-
... nem költötte el a sebességet extra effektekre. Más fejlesztő ezt megtette.
erősen szkeptikus vagyok én ezzel kapcsolatban. a battleforge-on kívül egyetlen játékot láttam (stalker), ahol azonos DX10 / DX11 beállítás mellett számottevően gyorsabb volt a DX11, a többiben semmivel nem javult a sebesség az új API alatt.
-
Abu85
HÁZIGAZDA
Miben korlátozottabb a DX10-11, mint az OpenGL megfelelő verziója?
A BattleForge nem költötte el a sebességet extra effektekre. Más fejlesztő ezt megtette. Miért baj ez. Megtehették volna mondjuk azt, hogy az adott effektet lekódolják DX9-be, csak nem lenne olyan kártya, ami jó sebességgel futtatná.
-
Sanyix
őstag
Hát egyébként az az első probléma, hogy d3d-ben programoznak
ugyanis pazarlóbb, és butább is mint az opengl, ráadásul korlátoltabb is (vista kell dx10-hez, meg ilyenek), persze az m$-nek sikerült a szokásos módszerrel a d3d-t előltetni.
A mai játékok közel sem fotorealisztikusak, nagyon nemazt hogy jól nézzenek ki különböző trükkökkel érik el, aminek nagy része nem a programozástól hanem a 3d modellezőtől függ, hogy milyen trükköket használ (tudtad hogy az árnyékok nagy része nem valós, hanem textúrába van égetve?).
Na meg ugye ezek a nyomorék dx10-11-es próbálkozások, amikor az eredetileg jóval gyorsabb api-t használva még is sokkal lassabb lesz a játék. Az is elcseszett programozás eredménye, meg lehet nézni a battleforget, az nem csak szebb, de jelentősen gyorsabb lett az dx10.1 és 11-től.
És még nanapság is sokszor kihagyják a több mag használatát ami egy alap optimalizációs hiba.Manapság egy olyan játékot sem tudok mondani, mint mondjuk '96-ban hogy "ááá ezt nem hiszem el, hogy tényleg valós időben renderelve ilyen szép ilyen gyenge gépen", mondjuk a mafia2 közel áll ehhez, de a játékok többsége nem olyan, tehát durván optimalizálatlan.
Bizony rendes optimalizálással a játékok többségénél úgy 3-4 gpu generációnyit lehetne spórolni...
-
smkb
őstag
Itt még 128 TMU szerepel és 244w tdp vs GTX480 250w. Meg van akár hihetőnek is tűnő benchmark.
-
válasz
tzsolesz #228 üzenetére
nem hiszek abban, hogy a chip változásától javult a CF-teljesítmény - szerintem inkább a driver körül lehet a megoldás, csak kérdés, hogy milyen. majd ha a 10.11-gyel és a 10.12-vel is ugyanez lesz a helyzet, akkor örvendezünk.
smkb: ja, de pont azt mondom, hogy 800 körüli órajellel már nem belső konkurencia lenne.
-
Atom_Anti
senior tag
-
smkb
őstag
Ezért írtam alapórajeleket. A GTX460-nak meg az NV nem véletlen nem merte/akarta 750-800-ra jelölni a gpu-ref-et, hiába is bírják jól. Megtehette volna, ami nem bírja meg megy GTX460/768nak (mint a HD6850/70 esetében). Csak épp ekkor a GTX460/1GB ott lógna a GTX470 nyakán, amiből meg volt még készlet rendesen a nyáron... ki vette volna így? Be lett volna lőve a 2 GTX szinte a HD5850 meg a HD5870 közé egymás seggében. Bár így is érdekes lett, hogy így meg a kicsi és a nagy GTX460 van egymás seggében, de még mindig jobb, mint egy magasabb profitra kijelölt, magasabb presztizsre beállított kártyát kinyírni.
Rábízták a partnerekre, tegyenek amit akarnak, csinálják ők OC kártyaként, az NV nem végzi ki papíron a GTX470-et az új GTX460-al. A 465-el megtehette, szinte alig volt készlet belőle.
Mi ez, ha nem marketing
-
-
smkb
őstag
válasz
Oliverda #224 üzenetére
Igen, igazából értelmetlen, főleg 336 shaderrel. A GTX480-nak állítanának vele konkurrenciát, nem a HD5970-nek, attól elmaradna. Egyszerűen nincs értelme NV szemszögből. Akkor lehetett volna ezt meglépni, ha GTX470 körüli, feletti teljesítményt hozna alapórajeleken ezzel a TDP-vel, de ugye akkor meg az a gond (még ha sikerült volna is), hogy ha ennyit tudott volna a GTX460, kinek adják el a GTX470-et? Vagyis GTX470 utódnak kellett volna kihozni a GTX460-at teljesítményben, a jelenlegi TDP-vel Akkor egyrészt a dual gpu megoldás kellően erős lenne, a GTX480 fölé lépett volna a HD5970 konkurrenseként, és attól sem kellett volna tartani, hogy beragadnak a GTX470-ek, mert már nincsenek.
Ez ugye az egyik rákfenéje a Radeonokhoz képest eltolt teljesítménykategóriáknak, hogy így ilyenkor dupla gpu-val, pont saját maguknak adnak konkurrenst.
GTX5xx szériában mindenképp okosabban kell a teljesítményszinteket NV-nek belőni, ha el akarják kerülni a jelenlegi ördögi kört.
-
Boxi88
őstag
válasz
tzsolesz #222 üzenetére
Próbálkozások azért vannak ilyen téren a 104-el is... csak nem biztos hogy magas darabszámba piacra kerül...
-
DigitXT
félisten
D3D-t nem nagyon programoztam, amúgy informatikus mérnök vagyok:
és én is tisztában vagyok az optimalizáció értelmével és lehetőségével.De a konkrét esetben (3D grafika) úgy érzem, olyanok dobálóznak ilyen
szavakkal (lenézve a programozókat), akik azt sem tudják, milyen durva
(számítási) teljesítményt jelent, hogy egyáltalán megjelenjenek a képek,
amik ma már sokszor szinte "fotó-realisztikus" minőséget (is) nyújtanak
mindezt úgy, hogy nem pl. sok-sok órás renderelés eredményei, hanem
akár 60 képkocka is elkészül belőlük másodpercenként. Természetesen
vannak, és mindig lesznek esetek, amikor egy "rossz" kód hazavágja az
egészet, de kötve hiszem, hogy mindig erről lenne szó... De "vérpistike"
mindig ezzel jön: azért megy szarul, mert "nem optimalizálták". (Amúgy
meg mindenki kezében ott van a "háztáji optimalizáció" lehetősége: be
lehet lőni a játék grafikáját (Ultra alá is), csökkenteni a felbontást (jó,
TFT esetében ez már nem annyira szerencsés), stb. Csak éppen az a
trend, hogy mindent full maxra és akkor csodálkozik, hogy nem megy,
meg fikázza, hogy csak azért kell erősebb vas. Nem, nem muszáj.emléxem az első pár gyorsítós játék csak a filteringben volt szebb
És azzal is tisztában vagy, hogy mire volt képes egy akkori 3D gyorsító?
Mert akkor különösebben nem kellene meglepődni ezen... Sőt, mondok
jobbat: volt olyan játék is, nem olyan hű-de-régen (2000), ami szoftveres
módban ugyanazt tudta, mint gyorsítva. (2003-ban lett Athlon XP 2400+
procim, amin simán elment a cucc gyorsítás nélkül, annyira "brutál" volt
az a proci a játék eredeti gépigényéhez képest - konkrétan a GP3 volt.)Badman 4ever: vannak szar játékmotorok. Az NFS szériának az van.
Azért az tényleg röhej, hogy nem tudták kihozni belőle, hogy folyamatos
60 fps-t kitekerjen egy eléggé "csúcsgépen", miközben a grafikától sem
dobsz egy hátast. Persze hogy többet lehetne kihozni (mindig lehet). De
ahogy írod: a 9800 Proval már eléggé kompromisszumképesnek kellene
lenni, az meg már kiveszett az emberekből: jön fikázni, hogy nem megy
fullon, meg ez csak azért van, hogy el lehessen adni egy 200K-s VGA-t.Persze, azért is van ez, hiszen ha nem kellene "erős vas", akkor nem is
fejlesztenének ilyen ütemben: nyilván ez üzlet is, de nem kellene folyton
összemosni a kettőt. Szvsz az tudja megbecsülni egy mai VGA értékét,
aki végigjárta a 3D nélküli, majd a "kezdeti 3D s fejlődése" korszakot.
Aki "egy darab semminek" gondolja a videokártyát, az nyilván nem ilyen. -
Badman 4ever
őstag
Ég és föld különbséget lehet vele elérni. Lásd mafia2 hogy fut nem túl modern gépeken és hogy néz ki, és az még mindig nincs a végletekig optimalizálva.
+
DigitXT: Más kérdés, hogy nem muszáj ezen a grafikai színvonalon játszani: hiszen
ugyanazokat a játékokat még most is lehet futtatni egy 9800 Pro-n, amiket
anno futtatni tudott... De ezzel visszakanyarodtunk oda, hogy kötelező-e
játszani? A legújabb játékokkal? Ultra grafikával? FullHD-ben? 8xMSAA-val?Nem kötelező játszani, de ha nem nagyok az igényeink (és a pénztárcánk se), nem is kell a legújabb hardver az új játékokhoz, csak használni kell az eszünket.
A 9800 Pro-n (maradva a példánál) rengeteg mai játékot is el lehet futtatni, lehet nem maximum grafikán és FullHD felbontásban, de 1024x768 minimumon elmegy vele egy Crysis, H.A.W.X. vagy a Call Of Pripyat is, a F.E.A.R. 2-vel még a közepes beállítások is megkockáztathatóak.
Az optimalizáltság nem a mai játékok erénye, sokkal jobban meg lehetne csinálni a nagy részét, jó példa erre a Need For Speed széria a trehány optimalizáltságával. De állítom, hogy meg tudnák oldani, hogy egy 9800 Pro-n vagy hasonlón, hogy ezek az új játékok, amik elfutnak rajta, gyorsabban menjenek és szebben nézzenek ki, csak ez nem érdeke a játékkészítőknek, mert az sok energia menne el az optimalizálással és ugye sok pénzt is kapnak mondjuk az NVIDIA-tól vagy az AMD-től, akiknek meg az az érdeke, hogy új kártyát vegyél és ez a játékok minimális rendszerigényén is meglátszik.
Van erről amúgy egy részben idevágó írásom is: Egy-két szó a minimális rendszerigényről...A lényeg, hogy a mostani VGA-kból (HD 5000/6000 és GTX 400) is sokkal többet ki lehetne hozni rendes optimalizálással (jól látszik ez az új meghajtóknál, ahol mindig +5-50% közötti gyorsulást ígérnek egyes játékoknál), csak ez a felhasználón kívül sajnos nem sok mindenkinek érdeke.
-
gameplusz
csendes tag
"megmaradt az 512 darab CUDA mag és a 64 textúrázó csatorna"
Ezt így...?
-
SzlobiG
félisten
-
leviske
veterán
válasz
hugo chávez #205 üzenetére
Nem aludtam egész nap, el ne várd, hogy én a google fordító művét átfordítom "angolról" angolra, hogy aztán értelmezzem is magyarul.
A cache, meg SSE5 pletykákra én is emlékszem halványan még az Evergreen találgatós időkből, de ezek a 2011 végi Northern Islands-ra voltak pletykálva, amiből a Barts után úgy gondoltam a 2011 végén van a lényeg, nem pedig a NI-on.
Mondjuk Abu nagyon nem akar ebbe a beszélgetésbe belefolyni, szóval esélyes, hogy igazatok van.
Ettől függetlenül én még nem tartom logikusnak, hogy "generáción" belül ekkora eltéréseket vezessenek be, szóval megtartom a kételkedés jogát az elemzés megjelenéséig.
-
Sanyix
őstag
"Sajnos akárhova optimalizálod
a játékokat (szvsz sokan úgy dobálóznak ezzel, hogy "nagyjából" fogalmuk
sincs, mit jelentene) nem tudsz kihozni olyan grafikát, ami ma már elvárás."Miért kipróbáltad?
(megsúgom tisztában vagyok az optimalizálás fontosságával, mert programozó vagyok
)
Ég és föld különbséget lehet vele elérni. Lásd mafia2 hogy fut nem túl modern gépeken és hogy néz ki, és az még mindig nincs a végletekig optimalizálva.Én pedig játszottam full 3d programmal, ami igen jól nézett ki, még a szoftveres időkben... és gyenge gépen is szépen futott, na az volt az optimalizáció fénykora, úgy 95-96-97 környékén. Aztán jött a 3d gyorsítás és jól elengedték magukat.. emléxem az első pár gyorsítós játék csak a filteringben volt szebb mint a szoftveres, másban nem.
-
zuchy
őstag
válasz
Ricco_hun #208 üzenetére
De akkor minek ez a folytonos vesszőfutásod? Ha szerinted semmi, akkor mér fáj, hogy x forintba kerül? Hidd el, van az optimalizálva, persze nem olyan szinten, mint a konzolokra, na de ott azért is könnyebb, mert a hardver fix. Manapság nem kell olyan mélyen az embernek a zsebébe nyúlnia, hogy találjon egy normális kártyát.
-
DigitXT
félisten
válasz
Ricco_hun #208 üzenetére
egy darab semmiért
Azt hiszem ezzel a hozzáállásoddal jobb is, hogy a téma lezárva.kpal: én meg nem értek egyet. Ki mondta, hogy kötelező játszani?
Amúgy talán épp ez a baj a fiatalabb generációval, nem képes megbecsülni
azt a hihetetlen mérnöki teljesítményt, amivel ez az egész valós idejű (!) 3D
renderelés eljutott oda, ahol most tart. Aki mondjuk X800-zal kezdte, az már
azt sem tudja, mi volt a Voodoo 1, vagy milyen volt anno a "szoftveres" 3D...
Vagy mennyire nem volt még 3D egyáltalán.Vagy milyen volt, amikor egy
9800Pro álomkártyának számított, amiről azt írták, hogy feleslegesen erős.Most mennyit tud, mennyit ér egy 9800Pro? Sajnos akárhova optimalizálod
a játékokat (szvsz sokan úgy dobálóznak ezzel, hogy "nagyjából" fogalmuk
sincs, mit jelentene) nem tudsz kihozni olyan grafikát, ami ma már elvárás.
Más kérdés, hogy nem muszáj ezen a grafikai színvonalon játszani: hiszen
ugyanazokat a játékokat még most is lehet futtatni egy 9800 Pro-n, amiket
anno futtatni tudott...De ezzel visszakanyarodtunk oda, hogy kötelező-e
játszani? A legújabb játékokkal? Ultra grafikával? FullHD-ben? 8xMSAA-val? -
Ricco_hun
senior tag
Jó, most kössetek bele az autós példámba. omg
A lényeg az, hogy egy kisebb vagyont kell kiadni egy darab semmiért, amitől lesz 4-szer annyi fps-ed, miközben a játékok optimalizálásával akár 100-szorosára is növekedhetne a teljesítmény. Csakhát meg kell fejni a jónépet. Valaki odaáll a vödör fölé, szíve joga, én nem fogok. Téma lezárva!
-
hugo chávez
aktív tag
Á, az én német szókincsem kb. 20 szóból áll, de szerencsére van "Google Translate".
Hogy mennyire tranzisztorigényes, arról fogalmam sincs, feltétel nélkül hinni a táblázatnak meg persze, hogy nem kell, direkt azért is írtam, hogy "pletyka".Amúgy, ha már pletyka, valahol olvastam arról is, hogy az L2 cache "képességein" is alakítanak valamit és talán a méretét is növelik.
(#199) leviske:
"Óóó! Úgy tudtam! Nem lesz itt semmiféle felépítésbeli különbség a Barts és a Cayman közt."
Csak azért is: De igen, szerintem lesz különbség.
Persze lehet, hogy tévedek, de, ha minden igaz, 23 napon belül úgyis kiderül.
Mindenesetre úgy tűnik, hogy nem én vagyok egyedül ezen a véleményen:(#176) gbors -
Boxi88
őstag
Abu85Akkor remélem a GTX560 legalább annyira ütős vétel lesz mint a GTX460 volt...
smkbAz biztos hogy ég és föld a különbség a cikkben említett és az általam említett kártyák között
és az is biztos hogy ezeket a felső-felső kategóriás kártyákat elég kevesen veszik, ahogy te is említetted.
-
DigitXT
félisten
válasz
Ricco_hun #201 üzenetére
Csak egy 200-ból vett kocsival nem biztos, hogy jól járnál...
Nyilván, aki 20-ért vesz VGA-t, nem fog 200-ért venni, de nem
is kötelező ezeket megvenni. (1000 dolláros CPU is szokott a
piacon szaladgálni, aztán nem mindenki veszi meg: csak van.)Szerk: amúgy anno egy "Voodoo1" is simán 30K volt: akkor azt
is drágának éreztük, azóta azért változott egysmás, mind az ár,
mind a "frame/sec" terén... Ha van rá igényed, és van rá kereted,
akkor megveheted. (Ha nincs rá igényed, akkor meg kár fikázni.)
Félreértés ne essék: nem is volt 30K-s Voodoo 1-em. Csak jóval
később, másodkézből vettem egyet 9K-ért.Aztán még később
egy Voodoo 2-t 5-ért: azért az már odavágott a P1-233MMX-szel! -
Ricco_hun
senior tag
Szóval a HD6990 megint elhozza a 200 ezer forint feletti vga-k korát? Nice, very nice. Annyiból inkább kocsit vennék, mint egy téglányi műanyagot meg némi fémet. Ilyenkor örülök, hogy 20k-ért vettem anno a HD4670-et, többet nem is ér egy ilyen kis vacok (itt az összes vga-t értem), ami kandikál kifelé az alaplapod pci-e csatlakozójából, csakhogy több legyen a frame/sec.
-
leviske
veterán
"gondolok itt az új csúcsra"
Óóó! Úgy tudtam! Nem lesz itt semmiféle felépítésbeli különbség a Barts és a Cayman közt. Egyszerűen csak azért változtattak a nevezéktanon, hogy "alapot adjanak" az árak növelésének.
És ezt eladni "létrehoztunk egy új, eddig nem létező kategóriát" marketing bullshittel...
Mind1, legalább megkapta a 150-250 dolláros kategória is a jól kiérdemelt teljesítményduplázást. Ez a lényeg.
-
Abu85
HÁZIGAZDA
-
Boxi88
őstag
Remélem ha bejön ez a szörnyeteg meg az ati 69xx-esei... jól lenyomja a többi kártya árát... és potom pénzért lehet majd GTX460-hoz, meg 5850-hez jutni... (és mint tudjuk teljesítmény ügyileg még ezek sem rosszak) szal egy átlag felhasználó olcsón vehet vga-t!
-
smkb
őstag
Ha HD5970 körüli teljesítményt hoz, akkor nyilván az ára is akörül lesz... aztán ahogy a konkurrencia ára mozog lefele, majd követi, más lehetősége nincs.
-
Abu85
HÁZIGAZDA
válasz
Ricco_hun #187 üzenetére
Valahol a gyártók lépése is érthető. Jelenleg a diszkrét asztali VGA-k piacán szart sem keresnek (ha keresnek is valamit). Be kell vezetni ezt az új luxuskategóriát luxusárral, ami nagyon drága lesz. Egy piac csak addig jó, amíg pénzt keresel rajta, amint ez mondhatni önhibádon kívül megszűnik át kell gondolni a lehetőségeket.
-
Ricco_hun
senior tag
válasz
tzsolesz #188 üzenetére
Én mindig úgy számolok, hogy az usd-s árat euro-nak veszem. Egy friss példa: HD6870 msrp 239USD. 239 euro = 65k HUF. Persze a kisker ár nem így jön ki, csak valamiért pont annyit pakolnak rá az usd-s árra mire ideér a kiskerekbe, hogy olyan, mintha euróból váltották volna át.
-
tzsolesz
nagyúr
válasz
Oliverda #185 üzenetére
Az igen. Ez ám az árazás. Mondjuk ha abból indulunk ki, hogy egy GTX470 átlag ára most 70K körül van, akkor ez a kártya 150K ott abban a boltban. Mivel több mint a duplája az ára.
Nem sok egy kártyáért az?(#187) Ricco_hun Jah, igen a magyar induló árakat még bele sem számítottam.
-
Ricco_hun
senior tag
válasz
Oliverda #185 üzenetére
Az szép! Hazai kisker ár: 190k. Az Nv ezt csak addig tudja megetetni a néppel, amíg nem jön a HD6990. Vagy azt az AMD hova fogja pozícionálni? Itt is előkerül az 1000 USD-s kategória, mint az Intelnél? Gyönyörű jövő, szép kilátások. A gyártók, már nem is akarják javítani az ár/teljesítmény arányt. Amennyivel gyorsabb az új széria, akkora felárat raknak rá és kész. Eszem-f*szom megáll!
-
Oliverda
félisten
-
Sanyix
őstag
válasz
Joachim21 #154 üzenetére
Aham, és melyik a juniper? Mert a junipernek megfelelő shadermennyiségű chipbe, bizony bekerült egy uvd3 plusz nagyobb lett a teljesítménye nem kicsit mint a junipernek... átnevezés aha? mobility meg nem érdekel, de ott eddig is csak minden másodig generáció ment... képzeld az integrált 42xx-as sem 4xxx-es valójában...
-
leviske
veterán
válasz
hugo chávez #170 üzenetére
Miután a német tőlem totálisan idegen, ezért ha nem nagy baj megkérdezem: Ez a 4D-VLIW-ALU valami tranzisztorigényes fejlesztés? Mert más esetben nem igazán látom indokoltnak, hogy miért kellett volna pont a kisebb GPU-kból kihagyni.
Amúgy csak a táblázat miatt még nem feltétlen kötelező bedőlni neki. Mint már fel is hoztam példának, ugyanilyen hivatalosnak tűnő prezin volt felvezetve a HD6700-as széria teljesítménye a HD57-esek és HD58-asokhoz viszonyítva.
Ez a külön architektúra dolog egyedül arra adna magyarázatot, hogy Abu miért a HD6900-asok tesztjéhez ígérte a mélyrehatóbb elemzést.
Mind1, majd meglátjuk. Ettől függetlenül tartok tőle, hogy az új nevezéktanban semmiféle misztikum nincs, csak "olcsón" akarták lejjebb faragni a 800-as család árát, hogy ne hőzöngjön a nép.
-
értem, hogy SC2, de emlékeim szerint az a benchmark nem csak a GTX480-nál verte ki a biztosítékot (meg a TDP-t). olyan példák kellenének, ahol más kártyák uniform tartják a TDP-jüket, a 480-as meg lóg kifelé a szabványból
#169: sztem akkor nagyon meg fogsz lepődni november végén
-
Devid_81
félisten
Jöhetne már valami új szabvány a VGA-kra, itt a tél a nyakunkon 300Wattal még nem lehet befűteni egy átlagos 20-25nm-es helyiséget
Szeretem, hogy egy kicsit javítgatnak és máris generációváltás lesz az "eredménye".
Mindkét gyártóra egyaránt büszke vagyok most. -
MZperX75
addikt
válasz
max-pain #172 üzenetére
Ya!
Néhány éve még temették a pc-t,játékaival együtt(a konzolok miatt)
kb ez a hír is ennyit ér"minden progi felhőben fog futni",persze lesznek programok amik használják "felhőben" futást.
Apropó felhő alapu számolás,a "felhő" az csak egy elnevezés,ezt valaki ki tudná fejteni bővebben is?Ez valami programozástechnika ?vagy mi a szősz?Vagy már régóta létezik csak megnevezése nem volt....
(úúú azért így karácsony elött nem lesz rosz a VGA piac,tesztek tesztek viták,érvek)
6970 us gtx580
6990 us ?
6950 us gtx480
jó lesz ez nekünk? én akkor már 2generációval le vagyok maradva...
Azért érdekes régebben 2-3éve egy középkategoriás VGA val közepes felbontásba közepes beálításokkal lehetett játszani.hd48701g val ,még elvagyok--elég jól.
Mostani 6000-es és gtx4-es szériával, minden maxon full hd-ben.(akkor valójában mi a frásznak 6970-6950-gtx580 és társai?)
Talán a krizis 2 profitál ebből valamit,ha jól tudom a decemberi megjelenésnek lőttek,majd csak tavasszal..... -
hugo chávez
aktív tag
Hát, nem akarok itt nagyon átmenni Ati/AMD találgatósba, de a nagy sunyiskodásból, meg a Barts-okra épülő kártyák logikátlannak tűnő elnevezéséből (68xx) arra következtetek, hogy jóval nagyobb lesz a különbség a Barts és a Cayman között, mint a Barts és a Cypress között.
A lehetséges eltérésekről nem nagyon mernék nyilatkozni (tekintve, hogy annyira nem értek hozzá), de pl. vannak pletykák 4D-VLIW-ALU-król [link]
-
leviske
veterán
válasz
hugo chávez #168 üzenetére
Így már értem. Amúgy az első GT212 pletykák idején már megjelent a Fermi név is egy roadmapon, csak akkor még nem igazán lehetett tudni, hogy konkrétan mi is az, miután (ha jól emlékszem) egy elég általános roadmapon jelent meg, amin az összes CUDA-s cucc jelenvolt.
Az meg engem meglepne, ha a Cayman a R600 architektúrától jobban eltérne, mint a Barts. Nem hiszem, hogy lett volna annyi idejük, hogy valami teljesen újat kidobjanak 40nm-re, főképp úgy, hogy ez nem is indokolt. Esetleg a Master-Slave felépítésű több GPU-s megoldások megjelenését tudnám elképzelni a HD6900-as szériában, de ennek a rendszernek a bevezetése még nem volna eltérés az R600 vonaltól. (De így legalább értelmet nyerne az új nevezéktan miértje és a dupla CFX hidak hiánya a HD68-asokról.)
-
hugo chávez
aktív tag
Kódnevet írtam, mint pl. a Fermi és a Fermiről a nevén kívül semmit nem lehetett tudni tavaly őszig, de a neve is csak tavaly nyáron derült ki, de akkor még csak Abu erősítette meg[link]. A Kepler és a Maxwell meg már elég biztosnak látszik:[link]
Nem azt írtam hogy ismerjük a felépítést, hanem hogy néhány dolgot róla. Abu már írt egy pár dolgot, ami persze nem biztos még, de mint írtam, a Fermiről tavaly nyáron még ennyit sem tudtunk. Kepler: "A fejlesztés természetesen nem áll le, mivel már készül a Kepler architektúra, amiben az eddigi adatok szerint megjelenik a virtuális memória támogatása, továbbá két ARM processzormag is helyet kap benne."[link]
Maxwell: (#117) Abu85"Felépítés szempontjából meg igazándiból a Northern Islands esetén jól titkolózott az AMD, mert csak a nemlétező Southern Islands kapcsán lehetett tudni, hogy az R600 felépítését követi."
Én azért fenntartanám a kételyemet azzal kapcsolatban, hogy a Cayman az R600-ra fog épülni.
-
DeathAdder
veterán
nVidia
-
-
Henkei
tag
válasz
Cyberpunk #159 üzenetére
angol kiosztasu gepeim vannak es amugy sem tartozik rad hogy eppen mit hogyan irok. reagalni sem kotelezo ra amugy foleg ha nem hozzad szoltam.
az otvarhulladek geforcerol meg csak annyit hogy nalunk 4 macbook pro doglott meg vegleg a selejtes vgajuk miatt. persze ezt egy ilyen geforce vallasu biztos nehezen hiszi el.
joahim: ezzel be is bizonyitottad azt amire valaszoltal. koszike!
-
leviske
veterán
(#152) Sanyix: Ettől függetlenül hatalmas hülyeség volt ezeket HD6800 néven kiadni. Főképp, hogy a régebbi roadmapokon, amiken már megjelentek a pontos adatok, még a HD6700 név díszelgett.
Ha ilyen nevezéktannal érkezett volna a HD5-ös széria is (tehát mondjuk Juniper - HD5800; Cypress - HD5900; Hemlock - HD5900X2), akkor westlake joggal szapulta volna az AMD-t a megjelenésükkor.
(#153) hugo chávez: 1-2 évvel a megjelenés előtt már tudni a nevet, meg a felépítést? A nevezéktanra ellenérvnek ott a HD3000 széria, amiről megjelenésekor derült ki, hogy nem HD2005 lesz. Felépítés szempontjából meg igazándiból a Northern Islands esetén jól titkolózott az AMD, mert csak a nemlétező Southern Islands kapcsán lehetett tudni, hogy az R600 felépítését követi. És igazándiból azt még most sem tudni, hogy a 2011 végén, a Scorpius platformba megjelenő architektúra marad-e az R600 vonalnál, vagy az AMD elindul egy új úton.
Amúgy, ha javult a kihozatal, akkor nem szóltam. Úgy már tényleg nincs értelme a GTX480 áránál olcsóbban adni az elkészült GF100-asokat. Akkor a GTX470 egy újabb papírkártya, amivel könnyű versenyezni.
(#154) Joachim21: Elképesztő, de még mindig tudsz agyf*szt okozni egyes hozzászólásaiddal.
-
Abu85
HÁZIGAZDA
válasz
adamssss #160 üzenetére
Játékfüggő. A Mafia 2-ben főleg a cloth viszi a teljesítményt, ami eleve CPU-n fut, de ha lesz egy tűzpárbaj, akkor szívás van, mert a particle modulok is a CPU-n futnak.
(#161) Joachim21: Érzékelni fogod, ha belinkeled a benchmark eredményet, ami egy meglehetősen akciódús jelent. Nem számítok sok FPS-re.
Szerencsére a VGASpeed volt olyan kedves és lemérte a PhysX teljesítményét, hogy más is láthassa, hogy mit hagy ki.
Azzal, hogy elengeded a füled mellett a problémát nem teszed játszhatóbbá a játékot, csak beletörődsz, hogy az NV rászedett a PhysX-szel, ami futhatna gyorsabban is. Nyilván felteheted a kérdést, hogy mikortól kell majd SLI+dedikált GeForce a PhysX-hez, mert a zárt technológiával az NV úgy bánik ahogy akar. Ezért nem szeretik a piacon a zárt rendszert, mert nincs kontroll mögötte, úgy fut a szoftver rajta, ahogy az a gyártónak jó, és következősképpen a usernek nagyon nem jó. Vagy te örülsz, hogy a CPU-n fut a cloth, amikor a GPU-n kellene? -
Joachim21
őstag
Abu:
Én ebből semmit nem érzékelek, te lehetsz az elenyésző kisebbség akinél ez a probléma jelentkezik, de ezzel mit kezdjen a cég? - (remélem ismerős)A felvetés arra vonatkozott ha core2 superpí tesztje alatt futna a prime95 is, míg az AMD rendszere alatt nem, ugyanis változatlanul állítom, ez a benchmarkos felvetés valójában egy ügyeskedés volt ami nem jött be.
#158
Henkel nem kell! Vagyis nem kell megvédened senkit. Ha végigolvasod a HSZ-eket láthatod hogy bizonyos kételyek másban is felmerültek, nem csak bennem. A valyon miért megválaszolását már rád bízom, nekem nem tisztem itt embereket győzködni egyik vagy másik rendszer felsőbbrendűségéről, én csak leírtam a tapasztalataimat, amik ugye nem multiplayer 3200*2560 +3 gép multiba kötve gyakori felállásokból származtak, ellenben ellentmondanak egyes véleményformálók itt leírt igazságával. -
Nekem egy hd 5870-em van. Még sohasem láttam physix-el játékot. Gondoltam bekapcsolom.
És működött, ráadásul játszható sebességen. Ez létezhet? Szóval én tudok annak hinni aki egy gtx460-al fullon tud játszani vele. -
Cyberpunk
félisten
Te meg odafigyelhetnél a helyesírásodra. Mondatok nagybetűvel kezdődnek és ékezetes betűket sem ártana használni
.
Ja és ha már témánál vagyunk kifejthetnéd bővebben ezt, hogy idézem: "sok bugos hulladekaik". Erre lennék kíváncsi. Mert a flame az megy úgy látom, de érvekkel sem ártana alátámasztani a kijelentéseidet. -
Abu85
HÁZIGAZDA
válasz
hugo chávez #156 üzenetére
Nem mondhatok semmit, de egy pislogást megengedhetek a havi csatára.
-
hugo chávez
aktív tag
Köszi a választ.
Amúgy én nagyon várom a GTX 580-at, meg a Radeon HD 6950-6970-et is, remélem, hogy a hónap végére kint lesz mindhárom és akkor mehet a Cayman vs GF110 csata.
(#157) Abu85:
Az a rohadt NDA.
Az eddig napvilágot látott infókból, bár ezek hitelessége még ugyancsak kérdőjeles, én úgy tippelnék, hogy nem lesz nagy különbség a GTX 580 és a HD 6970 között, bár, ha ez utóbbi órajelét jó magasra (900Mhz körül, vagy magasabbra) lehet belőni, akkor lehet, hogy lenyomja a GTX-et.
-
Abu85
HÁZIGAZDA
válasz
hugo chávez #153 üzenetére
Gyártják a GTX 480-at. Mostanában a tuningolt GeForce GTX 480-ak vannak gyártásban, mert ott nem kell tartani a 300 wattos fogyasztási határt, és nem jelent problémát a gyártósorok gondja. Persze sokáig már nem gyártják ... a GF110 mellett értelmetlen.
A GF100 esetében nem a hibás részekkel van probléma. Sosem az volt a nagy gond. A TSMC már majdnem hibátlan wafereket csinál, de a chipek termikus varianciája még mindig eltérő. Persze már nem kell 100 wattos különbségekre gondolni, mint tavasszal. Most már bőven kezelhető a helyzet, ha a 300 wattos határt nem kell tartani, márpedig a gyári tuningtermékekkel nem kell.
(#154) Joachim21: Én is játszok a játékkal. Egész hétvégén ezt toltuk a szomszéddal. Ha harc van, akkor szívás van aktív PhysX mellett. Erre jó a benchmark, ami egy akciódús jelenetet tesztel. Nekem gáz, ha ilyen jeleneteknél leesik az FPS, valakinek nem számít. Ez is érthető. Persze sokkal jobb lenne, ha támogatnátok Zogrim kezdeményezését, hogy legyen a cloth modul is GPU-s, mert az még gyorsabb teljesítményt eredményezne, de erre nagyon kicsi az esély. Bele kell törődni, hogy a Mafia 2-t szépen kiherélték a GPU PhysX szempontjából. Ez számomra nem elfogadható, és alapvetően szerintem senkinek sem az, hiszen milyen dolog egy technológiát mesterséges korlátozásokkal futtatni. Ebből a user nem profitál. Ilyen negatív hátszél mellett meg ne csodálkozz, hogy a PhysX szekere nem megy.
Mi a baj azzal? Ha jól tudom az említett programok nem alkalmaznak mesterséges korlátozást az AMD Phenom processzorokra. A valós eredményt kapod az adott számításra.
-
Joachim21
őstag
Én játszok a játékkal, tudom hogy én vagyok kisebbségben.
De én is, és te is tudod, hogy a benchmarkot arra hegyezik ki, hogy minél több látványelem, és effekt legyen összezsúfolva, tehát ilyen szempontból ez egy elég alattomos kérés volt. Legközelebb Prime95 mellett futtatva a SuperPi-t kell majd demonstrálnom a Core2 clock_to_clock felsőbbségét a Phenom II-vel szemben?
#152
Jó hogy mondod, mert a Junipert épp most készül átnevezni az AMD vmilyen 6XXX-nek, nem beszélve a Mobility Radeonokról, ahol 5XXX-ként árult 4XXX-es chipet, szóval gyorsan tanul az AMD. -
hugo chávez
aktív tag
Abu, a #104-re valamit?
(#121) leviske:
Én is csak találgatok, de arra gondolok (meg mintha Abu is írt volna valami ilyesmit, de ebben nem vagyok biztos, ezért is lenne jó, ha válaszolna), hogy, mivel a GTX 470-en is ugyan az a chip van, mint a GTX 480-on, tehát a chip előállítási költsége ugyanannyi, de a GTX 480-at jóval drágábban lehet árulni és így nagyobb a haszon, ezért, ha már csak kevés chipről kell letiltani részeket, mert a TSMC már képes olyan jó kihozatallal gyártani, akkor érdemesebb a GTX 480-at megtartani és, ha becsúszik egy-egy rosszabb, amiből le kell tiltani, akkor azok mehetnek jelentős haszonnal a Quadro-kra, mert ott jelenleg amúgy sincs olyan GF100-zal szerelt változat, amin 480 sp aktív.
Egyébként az is érdekes, hogy már most, a tervezett megjelenés előtt 1-2 évvel is ismerjük a két következő generáció kódnevét és a felépítésükről is lehet tudni valamennyit, míg a Fermiről jóformán csak kb. 6-7 hónappal a tényleges megjelenése előtt lehetett konkrét dolgokat tudni, a nevét is beleértve
-
Abu85
HÁZIGAZDA
válasz
Joachim21 #149 üzenetére
Lefuttatsz egy benchmarkot? Kíváncsi vagyok az eredményre.
(#148) gbors: Régebbi driverrel a StarCraft 2-ben mérhetsz komoly fogyasztást. Ott még nem volt a teljesítmény korlátozva. A Furmark-ot lealázza a játék, nem véletlenül döglöttek a túlterheléstől hardveresen nem védett kártyák. Erről volt egy hír is.
(#144) schwartz: Volt egyszer egy Cypress chip. Az AMD a Radeon HD 5800 nevet adta neki. Egy évvel később az AMD elkészítette a Barts lapkát, aminek a Radeon HD 6800 nevet adta. Itt a mese vége ...
-
Joachim21
őstag
"A Mafia 2 esetében a CPU-s cloth korlátozás jó példa erre. Minimum két GeForce kell a High opció élvezhető futásához."
Lehet csak azért mert 1680*1050 a felbontás, de egy GTX460-as van a gépben, Physix minden maxon, és 60 fps-t produkál a fraps szerint, bár van hogy néha leesik 40-re egy két másodpercre.
A marketinggel tényleg vigyázni kell, mert az élet csúnya dolgokat művel!
-
leviske
veterán
válasz
jozsef11 #138 üzenetére
Hm. Ahhoz képest, hogy "kiszivárgott", elég hihető. A gond csak annyi, hogy a HD5870 teljesítménye jelenleg a 250-150 dolláros kategóriában képviselteti magát, míg azért a GTX580 a $400-500-os piacot célozná meg, amivel meg már inkább a Caymant kapja a nyakába ellenfélül, az meg ha hozza a HD6870 teljesítményének dupláját...
És akkor az Antillest még fel se hoztam.
Ha igazak lesznek a 25%-ról szóló pletykák, akkor nem lesz itt szép küzdelem.
-
de könyörgöm, hol az a több program, amiben >300W-ot eszik szerencsétlen 480-as? nekem 210-220W-ot sikerült kipréselnem belőle. de nézd meg a saját teszteteket: load-ban 285W-tal eszik többet a GTX480-as rendszer, mint idle-ben, ami a táp hatásfokával kompenzálva mondjuk 240W - és ezen ugye osztozik a CPU és VGA (a többit hanyagoljuk). miután a 3.6-os i7 sem éppen visszafogott zabálógép, sokat mondok, ha a 240W-ból 180W a VGA-ra jut - ha ehhez hozzáadod az idle fogyasztást, akkor 230W alatt vagy. nem értem én ezt...
#89: minor komment: a GTX460 1G egyáltalán nem tűnik ROP/sávszél-limitáltnak, úgyhogy ha ezt megdobják 50%-kal, az a világot nem fogja megváltani. ill. a 384 SP-ről tudjuk, hogy érdemben nem 384
#96: hát ez egy nagyon bátor elemzés, csak éppen az összes alapfeltételezés hibás. ha ezek után igazad lesz, akkor megkereslek a jövő heti lottószámokért
-
jozsef11
tag
Hmm érdekes GTX 580 teszteredmény!!!
[link] -
Srodney
senior tag
biztos vagyok benne hogy ez nem egy septibe összerakot vacak lesz,szerintem gyorsabb lesz vmivel mint az 5970,de ritka elérhetettlen lesz...idő kell még a polcokra jut...ismét a címszerszés a lényeg a nagy versenyben...
-
Árban mennyi lesz az új jövevény?
-
Henkei
tag
ha elpucolnak majd jon helyettuk az intel. az legalabb egy normalis ceg normalis termekekkel ahol nem atnevezesekbol elnek eveken keresztul.
konkurencia nelkul pedig lassabb lenne az amortizacio. nekem fontos az hogy mennyit er 1-2 ev mulva az amit megvettem. hosszutavon az arverseny nem csak a gyartoknak rossz hanem a vasarloknak is. csak illuzio az egesz.
-
Henkei
tag
ugyanaz a kapalozas es kapkodas megy mint a 480 eseteben ment. majd mutatnak egy kamu kartyat valami latvanyos bemutaton amibol jo ha jovo tavaszra lesz kaphato termek. erik mar nekik az utolso nagy bukta amivel vegleg elpucoljak magukat errol a piacrol. nekem nem fognak hianyozni sem ok sem a sok bugos hulladekaik
-
|nsane
tag
"Igen. Sajnos régóta van ez a probléma, de az olvasóbázis növekedésével már nagyon látványos lett a lassulás. Hamarosan hardvercsere és megszűnik a gond, addig csak a türelmet kérhetünk."
aha igen olvasóbázis növekedésével, nem is a fórumok telefirkálása nv vs. amd vs. intel szócsaták véget
-
Izzé
őstag
válasz
Cyberpunk #93 üzenetére
Nem kell mellédumálni, fejlesztésről volt szó, nem a teljesítményről.
De ha már teljesítmény, akkor:
Szvsz nagy ugrás szerintem sem lesz, de az elvárható lenne, hogy a 6950 hozza, vagy megközelítse, a 6970 meg verje olyan ~15%-al a gtx 480-t.(#121) leviske: Ne nekem mondd.
-
Abu85
HÁZIGAZDA
És mi az amit vesztettél az SM3.0-ig. Teljesítményben majdnem egál volt.
Hogyne számított volna. Láthatod, hogy az ATI mit ért el a HD 3000-rel, már ha az anyagi szempontokat nézzük. Az NV halálra kereste magát a HD 4000 megérkezéséig.Nem hiszem, hogy a vezetőség haragszik rám, mert korábban a GeForce 6-7 generációt ajánlottam, míg a PH pár tesztben az X800-at. Mint mondtam, szerintem akkor az NVIDIA kínálta a jobb terméket. Lehet, hogy ebben nem értünk egyet, de ettől még tartom magam az álláspontomhoz: az ATI X szériája nem volt nagy eresztés, függetlenül attól, hogy anyagilag jobban jártak, mint az NV.
-
Egon
nagyúr
Ezzel csak az a gond, hogy - a legtöbb plusz fícsörhöz hasonlóan - az SM 3.0 mire elterjedt, már bőven kevés volt hozzá az a vas, amiben először megjelent (közben nőtt az átlagosan használt felbontás, a játékok átlagos gépigénye stb.).
Egy adott kártya tesztelésénél azzal tudnak tesztelni ami van. 6800 Ultrám volt, ráadásul elég későn vettem, de nem nagyon emlékszem olyan játékra (AoE3-at leszámítva), ami az SM 3-nak köszönhetően, sokkal szebb lett volna.
Érdekes, az Ati 3000-res szériájánál nem számított a csúcskategória? LOL."Ezt lehet, hogy neked nehéz kezelni, de nekem ez teljesen természetes"
Nem, egyáltalán nem nehéz "kezelnem", pontosabban észrevennem a kis szurkálásaidat a cikkekben, hozzászólásokban, amit sokan nem vesznek észre. Egy-egy kirohanásnál amúgy is meg szoktál feledkezni magadról a fórumon, szóval csak a vak nem látja, hogy miképpen viszonyulsz a gyártókhoz. Persze ez egy házigazdától gáz kicsit, de ha a vezetőség ezt bevállaja... Az ő dolguk.
Szerk.: a témát a magam részéről lezártam.
-
Abu85
HÁZIGAZDA
Világosíts fel minket mi ellen készült az NV csúcsrendszere, ha nem az AMD csúcsrendszere ellen.
(#119) max-pain: A Maxwell esetében egyértelmű, hogy nem jó GPU-nak. Valószínű, hogy az NV mérlegelni fogja a piacokat. Állításuk szerint 2014-re már minden játék felhőben fut, tehát 2012 végén már kell valami látszat erre, vagyis lehet építeni a felhős gépeket.
-
Abu85
HÁZIGAZDA
Az akkori PH-s tesztekhez nekem nem sok közöm volt. Egyébként nyilván nem értettem egyet, de ez már nem változtat semmin. Aki a véleményemre volt kíváncsi az akkor is megtalált, és nagyon nem az x sorozatot ajánltam.
Ez nem terelés. Egyszerűen akkor a GeForce-ot tartottam jobbnak. Az okokat is leírtam miért.
Ki állította azt, hogy a 6600GT nem volt siker. Az alapfeltevés onnan indult, hogy egy technológia képességeit a legerősebb versenyző tudja megmutatni. Az Intelnek van a legerősebb processzora, tehát ők járnak technológiailag előrébb. Ugyanez igaz az AMD-re a VGA-k között, mert övék a leggyorsabb rendszer. Ár érték arányban meg könnyű versenyképesnek lenni. Az AMD is versenyképes ebből a szempontból a procipiacon, ahogy az NV is a VGA-piacon.
Véleményem szerint sokkal nagyobb gáz volt az ATI-nál a technológiai lemaradás. A GeForce SM3.0-t kezelt, ami jobb volt az SM2.0-nál. Értékelhető funkcionális különbségek voltak, ahogy például a DX10 és a DX10.1 között. Ezek a különbségek később ki is jöttek. Ezért ajánlottam anno a GeForce 6 sorozatot a Radeon X helyett. Nem kell a pártatlanság látszata, ha az egyik gyártót pártolnám, akkor nem ajánlanák generációnként más terméket. Ezt lehet, hogy neked nehéz kezelni, de nekem ez teljesen természetes. A jobb az jobb.(#123) [CS]Blade2: Kb. jól írod le. Ha így jelent volna meg a GF100, ahogy te visszakövetkezteted, akkor most nem beszélnénk arról, hogy a GF110 egy javított GF100.
-
[CS]Blade2
addikt
Annyira nem érdekel, csak nem jött össze egy a 15-20%. Mondjuk még mindig nem hiszem el, hogy ennyi lenne, mert akkor 5970 nem melegedne az 250W-os fogyasztásával, mint egy kazán. A másik, hogy Nvidia pedig akkor ezzel a GF110-el kegyetlen chipet alkotott, ahhoz képest, hogy csak a GF100-at reszelgette, mert akár 64W-al is kevesebbet fogyaszt, miközben 20-25%-al gyorsabb. GF110-ből csinálnának GTX480-at, kb 220W-ot enne több programban.
-
leviske
veterán
(#81) Killing: Ennyi erővel a Cypress is jöhetett volna már a Barts felépítésével. Most jelenleg mind a két gyártó a TSMC vergődősének a súlyát nyögi.
(#82) DeathAdder: Semmi. A HD6900-asok függvénye, hogy hova tudják belőni az árát.
(#84) woland_y2k: Gondolom Te már úgy születtél, hogy a PH! etikett genetikailag volt belekódolva az agyad kommunikációs központjába. Idővel majd beletanul, ha csak az atikettnácik el nem üldözik.
(#87) Izzé: Pont a GPU-val nincs gond...
(#97) Atom_Anti: A torokvagdalásra a HD5-ösök idején lett volna fél év. Nem éltek vele...
(#104) hugo chávez: Lehet, nincsenek egyik nagykerrel se kapcsolataim. Logikus lépés lett volna, ha a GTX465 mellett a GTX480 gyártását állítják le, miután a GTX480-hoz szükséges minőségű GF100-as chipekre szükség van a Tesla/Quadro piacán is. A GTX470 árával még mindig szórakoznak, szóval azt biztos nem vezették még ki. Gondolom a GTX465 is csak az OEM vonalra szorult vissza.
-
Egon
nagyúr
Megint terelsz. Jössz az ultimate architektúrával mindig (hogy mennyire dícsérted anno azt a szériát), de ez ritkán lényeges.
1. Ph tesztben a felsőkategóriában az Ati lett győztesnek kihozva akkor (hadd ne kelljen már linkeket keresgélnem).
2. Persze hogy növelte a részesedését az Ati: nyilván az előző széria hatásaként (pontosan úgy, ahogy az nV-nek is alig csökkent a gyászos emlékű FX szériával a részesedése: kitartott a GF4 lendülete).
3. A 6600GT szarrá alázott minden konkurens közékategóriás próbálkozást, és eladott darabszámban ez számít igazán (legalábbis sokkal jobban mint a felsőkategória).
4. Két (illetve most már három) Ati-s szériával ezelőtt, még nem számított a felsőkategória teljesítménye nálad - akkor hogy is van ez?Legalább a látszata meglenne a pártatlanságnak (ami most kimerül az ezeréves postok belinkelésében, mint most is),
-
Abu85
HÁZIGAZDA
válasz
max-pain #116 üzenetére
A Maxwell a GTC2010-es ismeretek szerint már full DP-s lesz, teljesen új elvekre építve, négy darab belső központi processzorral. Kicsi az esélye, hogy abból lesz PC-s GPU. Inkább a Keplert viszik tovább, mert a Maxwell már nagyon nem GPU. Az NV is inkább a Ray-tracing teljesítmény helyezi előtérben, valószínűleg az Optix motort is ilyen irányba fejlesztik.
-
Abu85
HÁZIGAZDA
Maximum azoknak volt a leggyorsabb, akik a leggyorsabbnak akarták látni. A GeForce 6800 Ultra sokkal inkább megfelelt a kor igényeinek. Ettől függetlenül az ATI sokat ért el az x800 sorozattal, mert akkor még szépen növelte a részesedését. A GeForce 7000 volt, ami ezt visszafogta. Erről egyébként sok vita volt. [link] - itt én is belekeveredtem egybe, sikerült találnom egy ATI fant. :Akkoriban még le is NV fanoztak
... pedig csak elmondtam, hogy nem jó az ATI X-es architektúrája.
(#114) Badman 4ever: HP Proliant DL585 G2 - 4 darab Dual-Core Opteron 8220, megy 64 GB memória.
-
Zénó1000
csendes tag
válasz
antikomcsi #105 üzenetére
Antikomcsi, milyen felvett tv műsor konvertálásról írsz? Ha esetleg T-home tv-d van és a set-top-box merevlemezére felvett műsort tudod valahogy kivarázsolni onnan és nézhető formátumra konvertálni, azt megírhatnád nekem, hogyan kell. Hálás lennék
-
-
-
Abu85
HÁZIGAZDA
válasz
antikomcsi #107 üzenetére
Szokásos szöveg. Bizony a tények ellen nagyon nehéz ... Köszönöm, hogy nem kell felesleges köröket futni.
(#108) Cyberpunk: Igen a marketing. Erre meg jön az a kérdés, hogy az NV, miért nem hozza ki a két-GPU-s csúcs-GeForce-ot ... máig sokan várják.
Nekik is egyszerűbb lenne az élet, hiszen újra trónra kerülnének, és nem jönne a le van maradva szöveg. Persze itt most felejtsük azt, hogy a GF100 a Hemlock ellen készült, ezt sokan nem képesek ennyire átlátni. 1.0-s júzer elméjével átgondolva egy dolog látszik a Radeon HD 5970 a leggyorsabb.
-
-
Abu85
HÁZIGAZDA
válasz
Joachim21 #103 üzenetére
Gondolom a PhysX korlátozásait sérelmezi. Mivel csak NVIDIA GPU-val működik, így az NV-nek az az érdeke, hogy minél több GPU-t követeljen a folyamatos futás. A Mafia 2 esetében a CPU-s cloth korlátozás jó példa erre. Minimum két GeForce kell a High opció élvezhető futásához.
Az AMD-nek egyébként szabványos GPGPU-s megoldásai vannak, ugyanúgy működik, ahogy a CUDA. Bár az ArcSoft már bemutatta az új OpenCL-es SimHD plugint, ami minden eddigi megvalósításnál gyorsabb, szóval előnyök is vannak, a nyílt platformokban ... nincs lehetőség a sebesség mesterséges korlátozására, mert versenyezni kell a gyors futás érdekében.(#105) antikomcsi: Ne másban keresd a hibát, ha nem látod az NV lemaradását.
Egyszerű példával szemléltetni lehet ezt. Melyik a világ leggyorsabb VGA-ja? Segítek HD 5970.
-
Bírom az ilyen "behozhatja végre a lemaradást az nv" típusu hozzászólásokat.
Milyen lemaradást? Ha nem vettétek volna észre, itt vannak a használható, jó árú nv kártyák is, GTX580 még nincs, és nem is az fogja megváltani a világot.
Most gyertek azzal, hogy útisten, 2 miliméterrel szélesebb az nv chip oldalankén, meg xy wattal többet eszik terhelve. Az a baj, hogy ez senkit nem érdekel, csak akik ebbe kapaszkodnak, hogy legyen miért útálni az nv-t.
Ez a gyártónak gond, nem nekem, ha én olcsón kapom. 35K a 768 megás gtx 460, ez annyira azért nem rossz.
(#101) Atom_Anti
Én nem érzem úgy, hogy megetettek. Lehet fiziksz nélkűl játszani, mert nem kötelező, de szebb vele a játék. Ez egy kis plusz szolgáltatás, amiért külön be kell ruházni. Akinek a látvány is sokat számít a teljes játékélményhez az vehet egy fizikai kártyát is az extrához, akinek nem fontos, az ugyanúgy élvezheti e nélkűl is.
A cuda, pedig egy arra alkalmas szoftverrel, sokkal gyorsabban kódol. Így remek szolgálatot tesz, amikor a tv-ből felvett x-faktort konvertálom át anyósomnak, hogy a dvd lejátszóján megnézhesse újra. Nem kevés időt, és ezzel együtt energiát megtakarítva nekem.
Kerek perec nem mondanám, hogy sz@r, inkább csak nem Neked találták ki esetleg.
-
-
Atom_Anti
senior tag
Árháború szempontjából nem lett volna jó, de többé nem etetne meg minket a phisixel, cudával, félreoptimalizált játékokkal, dx11 done right szöveggel. Lassulna a technikai fejlődés, nem kellene évente új videókártyát venni
.
Sanyix:
10-20% os teljesítmény növekedés hihetőnek tűnik a GTX480 hoz képest, ennél többet pedig a HD6970 sem fog hozni.
Új hozzászólás Aktív témák
Hirdetés
ph Már a következő hét elején megtörténhet a bemutató.
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Háztartási gépek
- Peugeot, Citroën topik
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- NVIDIA GeForce RTX 5060 Ti (GB206)
- Gitáros topic
- Intel Core i3 / i5 / i7 / i9 10xxx "Comet Lake" és i3 / i5 / i7 / i9 11xxx "Rocket Lake" (LGA1200)
- Milyen autót vegyek?
- Hardcore café
- Tőzsde és gazdaság
- További aktív témák...
- AKCIÓ! Gigabyte B450M R7 2700 16GB DDR4 512GB SSD RX 6600 8GB GDDR6 CM MasterBox 5 Lite 600W
- ÁRGARANCIA!Épített KomPhone i7 14700KF 32/64GB RAM RX 9070 XT 16GB GAMER PC termékbeszámítással
- Telefon felvásárlás!! Xiaomi Redmi Note 10, Xiaomi Redmi Note 10s, Xiaomi Redmi Note 10 Pro
- Csere-Beszámítás! Asztali számítógép PC Játékra! I5 12400F / RTX 3070 / 32GB DDR4 / 500GB SSD
- LG 49WQ95X-W - 49" NANO IPS 10 Bit - 5120x1440 5K - 144Hz - USB Type-C - HDR 400 - G-Sync - FreeSync
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest