- Nem a vámokra fogná, de felemelné az iPhone-ok árait az Apple
- Egymásra licitálnak a kiadók, hogy kihasználják a GTA VI késését
- A GEEEK új házainak nem lesz gondja a szellőzéssel, és az áruk sem vészes
- 500 Hz-re képes, kvantumpontos OLED monitor érkezik a Samsung névjegyével
- Letisztult külsejű, "lopakodó" alaplapok a Gigabyte égisze alatt
- Adatmentés - HDD - SSD - Flash
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- Épített vízhűtés (nem kompakt) topic
- Vezetékes FÜLhallgatók
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Apple asztali gépek
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Milyen egeret válasszak?
- HiFi műszaki szemmel - sztereó hangrendszerek
- Milyen alaplapot vegyek?
Új hozzászólás Aktív témák
-
#16939776
törölt tag
Úgy látom ebből is piros/zöld vita kerekedett
Van eltérés a két gyártó mentalitása/megoldásai között, egyiket sem nevezném 100%-os nak
Egyik a gyorsan kirakja a képet de kicsit darabos, másiknak meg több idő kell a kép összerakásához, de simább a futás...
Nekem mindkettő megoldás kompromisszumos, nem is merem ajánlani egyiket sem
-
matyiGo
aktív tag
nálam abszolút érezhető a CUDA töblet premierben. volt a gépemben 5770 is (most 460gtx) de azzal csak prociból dolgozott. sokkal gördülékenyebb így a vágás meg a real time effektezhetőség HD-ban. a renderelés meg szintén sokat gyorsult.
én nagyon meg vagyok elégedve ezzel az NV-vel. remélem majd lesz valami jó kis moddolt driver ami quadro izmokkal ruházza fel
-
KKaresz45
senior tag
Én nem mondtam, hogy nem szebb PC-n. Persze, hogy szebb. A PS3 5 éve jelent meg, a DX11 pedig tavaly mutatkozott be, tehát röpke 4 év van a 2 technológia között. Na, az lenne az igazi gáz, ha nem látszana a különbség. Az meg megint más kérdés, hogy árban mennyi különbség van a kettő között. Mert az eladásokat nem a minőség határozza meg, hanem az ár/érték arány.
És határozottan nem értek egyet azzal, hogy a jó játékélményhez nagyon szép grafika kell. Ha a grafika szép, az persze nem baj, de nem az határozza meg a játékélményt.
-
BeLucZ
addikt
válasz
KKaresz45 #139 üzenetére
nekem csak cod4nél viszonyitási alapom, haverom ps3asán okádékul nézett ki ugyanazon a monitoron, pcs graffal sokkal szebb az egész, élsimitás szürők jobb effektek szebb tisztább kép nagyobb felbontás, konzol graf elbujhat a sunyiba a pcs mellett, nekem nem lenne élmény olyan fossal jáccani, ezért rühellem a konzolokat, jó játékélményhez nagyon szép grafika kell, persze ez csak az egyik szempont aminek stimmelnie kell
-
KKaresz45
senior tag
Van különbség, látszik is, de nem annyi, hogy sok tízezer forintért videokártyát cseréljen az ember. Nemrég láttam (természetesen véletlenül
) egy PS3-as játékot (nem tudom, mi volt az, valami lövöldözés, talán COD), és behidaltam, mert baromi szép volt. Pedig az csak DX9.
-
Findzs
addikt
ez a diretx 11 csak marketing
alig, vagy semmi látványos különbség nincs a 10 vs. 11 között -
KKaresz45
senior tag
válasz
atti_2010 #136 üzenetére
Jó lenne, ha más lenne. A VGA kártyák piacának motorja a számítógépes játékok piaca volt. Ma már konzolon játszani sokkal olcsóbb, mint PC-n, és konzolokon is remek grafikát lehet elérni. A directx 10 és 11 nem tudott különösebb áttörést hozni látványban. Az a kevés PC only játék pedig keményen küzd a warezzal. Ugyanazt tudom mondani, mint a videokártyákra, hogy lesz még PC játék, de már nem annyi.
-
KKaresz45
senior tag
válasz
atti_2010 #134 üzenetére
Miért ne gyártanának holnaptól PC-s játékokat? Szerintem ez nem következik abból, amit írtam. Én azt írtam, hogy a VGA-kártya (és értelemszerűen a GPU) fejlesztéseket fogják vissza. Konzol portok simán lesznek továbbra is, a konzolos hardvereken már rég túlnőttek a PC-s VGA-k. Már így is a felső kategóriás játékok nagy része konzol port (sajnos). Van néhány PC only játék (jön majd a Witcher 2, a Heroes 6), de azoknak is bőven elég a DX11, még az sincs kiaknázva rendesen. A jelenlegi VGA-kat továbbra is lehet kapni, a technológia finomítása továbbra is menni fog.
A következő nagy lépés a grafika terén a következő konzol generáció megjelenésekor lesz, de az még minimum másfél év (de inkább kettő).
Csak annyit mondtam, hogy most senkinek nem érdeke kapkodni, szépen ki kell várni, hogy merre indul a piac, mennyi kártyát adnak el az IGP megoldások bevezetése után. Különben lehet, hogy olyan fejlesztésekbe ölik a pénzt, amik eleve egy halott piacra érkeznek mondjuk fél év múlva.
-
atti_2010
nagyúr
válasz
KKaresz45 #124 üzenetére
Az AMD biztosan nem áll le a fejlesztéssel, Nvidia utal rá néha de lehet nem gondolja komolyan, tény hogy nem éri meg csúcskártyát gyártani de az egész üzletet az viszi, ha holnap nem gyártanak PC-s játékot felesleges lesz jó pár hardver is, aminek pár gyártó biztos nem örülne, ezenkívül az ARM procik még harmatgyengék tehát nem várható hogy holnap holnapután átveszik a mostani procik helyét.
-
KKaresz45
senior tag
-
atti_2010
nagyúr
Szeretünk Nvidia, hol Hardveresen hol szoftveresen de mindig sikerül átvágnod minket.
-
Zso2
őstag
semmi nem lehetetlen.. Meg lehetne magyarázni ezt is
Pl. nem egy formán érzékenyek az emberek a 30 db-re mély és magas hangnál .Lehet hogy a Radeonok lapátjai magas hangokkal érik el 30 db az NV ventije meg mély hanggal, vagy fordítva. Az emberek úgy látszik jobban érzékenyek a Radeonra.. -
KKaresz45
senior tag
Most valószínűleg le fognak állni a VGA kártya fejlesztések egy időre (minimum fél év, 1év), addig mindenki figyeli, hogy a versenytársak platformjai menniyre sikeresek, illetve hogy hogyan alakulnak a VGA eladások ez idő alatt. Az Nvidia már be is jelentette, hogy nem csinálnak mostanában több GPU-t, az AMD-t pedig semmi sem sürgeti, szépen tejel majd neki a 6XXX széria addig is (persze az Nvidiának is az eddigi kártyái). Esetleg a csúcs VGA-kból jönnek ki korszerűbb, kisebb fogyasztású, jobb hűtésű darabok.
Érdekes lesz majd figyelni, hogy idő közben hogyan fejlődnek az APU-k, és főleg a bennük levő grafikus magok. Jelenleg ugyebár a legerősebb grafikus mag az AMD APU-jában lesz, bár ez még nem jelent meg. Elvileg egy 5550-es szintjét fogja hozni. Ha mondjuk egy- másfél év alatt eljutnának olyan szintre, hogy egy 6850-es (ne adj Isten 6870-es) sebességet hozó APU-t készítenek, akkor már majdnemhogy fölösleges újraindítani a VGA fejlesztéseket, mert az APU-k behozzák a kártyákat. Na persze, ezek elég merész feltételezések, elismerem.
Én is úgy gondolom, hogy lesznek továbbra is VGA kártyák, a csúcs VGA-k teljesítményét egészen biztosan nem érik el rövid időn belül az APU-k, de nem lesz az, ami eddig volt, hogy Dunát lehet velük rekeszteni. Mostantól nem fognak az új kártyák bejelentéseitől roskadozni a hírportálok.
D1Rect: Igen, ezt a jelenséget én is ismerem. Piros-zöld zajdifferencának nevezik a szakirodalomban. (red-green noise difference effect)
-
BeLucZ
addikt
Nem tom te hol élsz, de sokkal hangosabb a 6970, nézz be a topikjába, csomó ember megjegyezte hogy hangos a kártya és aftermarket hütő után akar nézni, nézz be az 580 topikba, mindenki dicséri a ref hütőt hogy milyen halkan, csendesen teszi a dolgát és mindezt nem kazán kártya mellett, amit én is tanusithatok, ennek ellenére szivesen kiprobálnám a 6970et, de nem hiszem hogy ennyi ember hazudik
-
Abu85
HÁZIGAZDA
Attól függ, hogy nagyobb áron mennyire van igény VGA-ra. Egyelőre mindenki látja, hogy milyen kategóriákra oszlik a piac. A vásárlások zöme, mondjuk úgy 65%-a 100 dollár alatt történik. Mindeközben 300 dollár fölött alig mérhető az eladás. Tehát le lehet vonni azt a konklúziót, hogy nagyjából 300 dollár az emberek lélektani határa. Ha a VGA-k ennél drágábbak lesznek, akkor nagyon kicsi lesz a piac. Olyannyira, hogy nem is éri meg külön GPU-t fejleszteni ide. Az egész mozgatórugója a 100 dollár alatti rész, ha azt kiütik a gyártók, márpedig az integrált megoldások szép lassan kiütik, akkor a gyorsabb kártyák árát emelni kell, mert a bevételi források 60%-a eltűnik. Kb. jelenleg olyan a helyzet, hogy egy 30-35%-os kiesés már érezhetően változtatna a VGA-k eddigi árazásán. Jelenleg bármelyik APU gyorsabb egy HD 5450 szintnél, ami az eladások 30%-áért felel. A helyzet tehát eléggé kritikus, és a VGA-gyártók el is kezdték az evezést az új piacok felé, mert a VGA-ból egyszerűen már nem élnek meg.
Az nyilvánvaló, hogy egy nagy GPU még mindig gyorsabb az APU-knál, és az évek múlásával is gyorsabb lesz, de ha nem lesz rá igény, akkor nincs értelme kifejleszteni. Akkor inkább raknak két foglalatot egy alaplapra, amibe rakhatsz két APU-t.Az AMD elképzelése nem különbözik a többi cégtől. Lehet, hogy más megvalósításban gondolkodnak, de alapjaiban a lényeg a CPU és a GPU ötvözése egy lapkán belül. Mindenki ezt csinálja.
-
MongolZ
addikt
Attól függetlenül, hogy én Zso2 két nem igaz állítására válaszoltam, Te mással indokolsz? De tessék:
Driver gondok berögződéséről én inkább nem beszélnék (ez érdekes indoklás egy NV driverhibás cikkben). Legyen elég annyi, hogy sokadik videókártyán vagyok túl, legutoljára TNT2-vel volt problémám.
Hang: http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/28.html dB-re pontosan ugyanolyan hangosak.
Elfogytak az érveid. Tisztán a szimpátia dönt csak. (PhysX meg CUDA az emberek kb. 0,1%-át érintik, mint ahogy az ATi Stream is) -
stratova
veterán
Hmm nosztalgiáztam kicsit:
2004.01.09. Tejas TDP 150(!) W
Kiszúrtam magamnak egy szintén régi nagy étvágyú versenyzőt:
Intel Pentium 4 Extreme Edition 3.73 GHz
Minimum/Maximum power dissipation (W) 81.78 (Stop Grant mode) / 148.16
Thermal Design Power (W) 115Mai nagyobb vasak (a felső kategóriát nézve gyártónként):
Intel Core i7 Extreme Edition I7-980X
Thermal Design Power (W) 130AMD Phenom II X6 1100T Black Edition
Thermal Design Power (W) 125Milyen esetben fordulhat elő ilyen brutális fogyasztás?
Néha elképesztő értékeket látok, maximális fogyasztás alatt. Mára ACP ide TDP oda Intel által megadott TDP a ti tesztjeitekben is be szokott jönni még ha nem is ua. a számítása mint AMD-nek. -
BeLucZ
addikt
580 nem csak a teljesitményben jobb kártya, ha csak a 10% teljesitmény difi lenne köztük akkor a kutya se venne 580at, hanem inkább azért mert sokkal csendesebb,hüvösebb és kiegyensúlyozottabb kártya, mindez remek szoftveres köritéssel(driver), na így már mindjárt más a szitu nem ?!!! fogyasztásban meg nem eszik annyival többet mert le van fojtva ugyis, szal sztem az nagyjábol egál
sokat gondolkoztam anno hogy melyiket válasszam de végül a zöld mezőre léptem
-
MongolZ
addikt
Tényleg nem akarok itt offolni, mert ez tényleg nagyon off, de itt egy teszt (ahogy láttam, sokan hivatkoznak erre az oldalra): http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/27.html
Performance/Watt: http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/30.html
+10% a 6970 javára. Ettől eltekintve nagyvonalakban az 580 erősebb a 6970-nél. -
Butcher-HUN
senior tag
Az api emulalasrol Meg csak annyit hogy engem szerencsere nem erint. A masik nVIDIA-ek uraljak a jatek piacot szerintetek erdeklik oket? Emulaljak az apit ed igy is gyorsabbak a jatekokban lasd gtx580 vagy ott van a Jo sikerult gtx560 Ti. Mezei user/gamer ebbol semmit nem fog erzekelni mert majd Jon DAO2 ala normalis driver es Meg lesz a normalis frame. En is valtas elott alok es ha lenne annyi penzem hiaba a hir akkor is Geforce-ot vennek. Nem vagyok nVIDIA fan egyszeruen miota az eszemet tudom Geforce-om volt es vissza emlekezve soha nem volt a jatekokkal s a teljesitmennyel problemam. A vegere csak annyit minden hir mint ez is 3 napig tart.
-
Paul119
addikt
egy kicsit más erről mi a véleményed?
-
Abu85
HÁZIGAZDA
A ray-tracing opció a jövőben, de inkább a távoli jövőben. Az elképzelhető, hogy a jelenet számításánál igénybe vegyük a ray-tracing-et pár felületre. Erre már van kapacitás. Többre nem igazán.
Érdemes kis lépésekben haladni. Először talán azzal kellene kezdeni, hogy elhagyjuk az API fix futószalagját. Az már egy számottevő előrelépés lenne. Persze a legjobb lenne elhagyni az API-t, és akkor nem lennének korlátozva a hardverek, de ez egyelőre csak álom. -
BeLucZ
addikt
Aham köszi a részletes felvilágosítást
Szeretem az ilyen szakmailag kielégítő magyarázatokat
És mi lesz a ray tracinggel? Kicsit durván jó lenne már az de gondolom ahhoz hogy azt gond nélkül lehessen fejleszteni meg futtatni , nagyon sokat kell még fejlődniük a gpuknak
Igaz nagyon elkanyarodtunk a témától de egy off még belefér
-
Abu85
HÁZIGAZDA
El tudom mondani, hogy miért ez az irány.
[link] - itt egy nagyon jó kép erről. Ezt az AMD rajzolta, de az NV és az Intel képe is kvázi ugyanaz, csak a színek mások.
A grafikonok a lényegesek.
Az első grafikon az egymagos procikat mutatja. Biztos emlékszel, hogy eljutottunk egy olyan pontra még a 2000-es évek közepe előtt, ahol a fogyasztás kezelhetetlenné vált. Ezen a ponton megakadt minden, és az Intel törölte is a Tejas projektet (az előző hozzászólásomban linkelt kép). Az út akkor a többmagos rendszerek fejlesztése. Lényegében több azonos képességű processzormag. Itt tartunk még mindig, de a helyzet kezd arra hasonlítani, ami az egymagos procik halálának idején volt. A fogyasztás ismét kezd kezelhetetlen szintre emelkedni, és alapvetően a rendszer sem skálázható tökéletesen. Ezt érzed is. Minél több mag, annál kisebb sebességelőny. A szoftverek nagyon lassan nőnek fel a feladathoz, és még több szál ezt csak bonyolítaná. Persze az egész elképzelésnek már az véget vet, hogy a magok számát sem lehet a végtelenségig növelni, ahogy az órajelet sem lehetett anno. A második grafikonon olvasható, hogy lassan, de biztosan közeledünk a kritikus határhoz, ahonnan nincs tovább. A harmadik grafikon a heterogén lapkákat jelzi, ami lényegében áll központi processzormagokból (CPU) és vektormagokból (GPU, amolyan Larabbee-féle), ahogy az Intel szokott erre utalni. Az AMD itt nem szarozik és CPU+GPU-magnak nevezi őket. Az NV késleltetésre (CPU) illetve adatpárhuzamos végrehajtásra (GPU) optimalizált magokat szokott emlegetni. Az elnevezés különbözik, de a lényeg ugyanaz. A GPU-val a szálakat egyszerűbb nyomon követni, mert másképp programozod az egységet. Arról nem beszélve, hogy a felkínált teljesítmény a fogyasztáshoz viszonyítva sokkal nagyobb a CPU-knál. Az út tehát világos. Integrálni kell, mert ha már a CPU-magok számát nem tudod növelni, akkor a csinálj másféle magokat. Aztán, hogy ezt ki hogyan oldja meg az a jövő zenéje. A heterogén feldolgozás lényegében megoldja a fogyasztással kapcsolatos problémákat. Persze nem végleg, de újra időt nyertünk.
-
BeLucZ
addikt
Nem értem miért a platform felé halad mindenki, kárt érte! Bár csak maradnának tovább a jó kis cpu-k és hozzájuk az erős diszkrét vga-k mind tovább és tovább fejlesztve minél modernebbre erősebbre, energiatakarékosabbra, ja és persze hozzájuk a jobbnál jobb pc-s játékok amelyek mint tartalmilag, mind technika megvalósítást illetően magas szintet képviselnek a felhasználók legnagyobb örömére
de ez csak álom tudom
-
Abu85
HÁZIGAZDA
Itt ez már nem a tapasztalatról szól. Ha nem fejlesztesz platformot, akkor kapsz a piacból egy jelentéktelen szeletet, ahol hülyéskedni sem érdemes.
Nyilván az Intelnek is fel van adva a lecke, nem véletlenül tolják talicskával a milliárdokat a Larrabee projectből született MIC fejlesztésébe.
A fejlődőképeshez annyit, hogy ez az egyetlen út.
A többmagos processzorok idővel ugyanarra zátonyra futnak, mint anno az egymagosok. Változtatni kell, mert megakadsz. Jelenleg a heterogén rendszer tűnik a megoldásnak. Persze az elképzelések nagyon eltérőek. Az AMD egyelőre egy magasfokú integrációt akar, ahol a GPU valamilyen szinten része a CPU-nak (enyhe Cell utánérzés). Kérdés, hogy ez mennyire kivitelezhető. Az NV a GPU-ra helyezi majd a hangsúlyt, ez nagyon egyszerű koncepció, de tény, hogy a gyakorlatban is kipróbált és működik. Az Intel egyelőre zsákbamacska, mert ők ugye eredetileg azt akarták, hogy a magok ugyanarra az utasításkészletre épüljenek, de a kiépítésük más legyen. [link] - itt egy elképzelés erről, de ugye ez a működés a Larrabee-ben zátonyra futott, így azóta szkeptikusan érdemes ezt a tervet vizsgálni.
-
BeLucZ
addikt
Aham szóval komplett cpu és vga párost az nvtől, érdekes.... nvidia cput ütős lenne látni kivi vagyok milyet csinálnak, azért nem kicsit lenne egzotikus NV cpuval nyomulni, bár sztem nincs vmi sok tapasztalatuk benne, de hát adja isten hogy jót fejlesszenek
az lenne a legjobb ha mind 3 óriás cég előrukkolna felsőkategoriás platformokkal, ha már ütős nv cpurol beszélünk, beszéljünk ütős intel vga-rol
Nincs ellenemre a platformosítás, ha mind ezt rendesen kategóriákra bontják és fejlődőképes lesz az egész
-
Abu85
HÁZIGAZDA
A Crytek elkészítette a játékot, és kiadják úgy ahogy ők azt elképzelték. Az NV ehhez vásárolt egy jogot a DX11-es mód elkészítéséhez. A megoldás, hogy a játék megjelenik úgy, ahogy a Crytek elgondolta, az NV meg kiadja hozzá a DX11 módot. Ha akarod feltelepíted. Azt még mindig nem tudni, hogy mit hoz a DX11, nyilván az, hogy jogot vásároltak hozzá azt jelenti, hogy olyan módot kreálnak amilyet akarnak. A Crytek valószínűleg nem szól bele, így a gépigényt akár az egekbe lehet küldeni (a'la Mafia 2), ami jót tehet majd a vállalat VGA-eladásainak. Valószínű, hogy a GTX 590-hez igazítják az igényeket.
Szerintem ebben az elképzelésben nincs kivetnivaló.
A döntés rajtad áll, hogy telepíted-e a módot. Gondolom a DX11 nem lesz teljesen hivatalos, mert mégis külön cég csinálta, de valószínűleg normális tesztelésen megy keresztül.
A VGA-piachoz: Azt sokan félreértik, hogy a VGA-piac jelenlegi gyengülése egyenlő az NV elvérzésével. Ez nem így van. A vállalat a CES-en világosan bejelentette, hogy processzort terveznek és a Windows 8-hoz platformot akarnak kínálni. Azóta kiderült, hogy ez a Maxwell lapka lesz, ami nem is GPU, hanem APU. Lényegében a cég nem tűnik el, csak a termékkínálat alakul át.
A jövőben minden ugyanaz lesz. Lesz Intel, AMD, NVIDIA. A különbség a mostani helyzethez annyi lesz, hogy nem CPU-t meg VGA-t veszel az említett gyártóktól, hanem komplett platformot. Lényegében a mixelés szűnik meg. Persze a Windows 8 mellé még más ARM-os cégek is érkezhetnek PC-s platformmal, de valószínű, hogy nem a felsőkategóriába. A mobil szinten biztos bepróbálkoznak. -
BeLucZ
addikt
Nah végre valaki aki frankón látja a szitut! Mondjuk ha le is szarja a diszkrét vga piacot az nv, én úgy veszem észre hogy presztizsből még így is odapakol az AMD-nek, nem hagyja magát és ne is hagyja, remélem a jövőben sem fogja! Dragon Age 2 meg egy kaka, főleg ha a látványt nézzük, én is amikor feltettem a demót mondom mi ez, azt 9 fpssel fut
Még ha kinézne valahogy
Kiváncsi vagyok a Crysis 2 dx11 módjának fejlesztéséből milyen előnyök fognak származni NV karikon... mármint sebességtöbbletre gondolok amd karikhoz képest, mert gondolom tuti nem lesz független a fejlesztés irányaMondjuk nem értem hogy mért külső cég fejleszti a dx11 módot??? Ezt a cryteknek kellett volna megoldania ezt a csili vili dx11 grafot ha már ennyire hangoztatták hogy ez lesz a legszebb játék a videojátékok történetében meg ilyen szövegek
-
Abu85
HÁZIGAZDA
De mikor érted meg, hogy az AMD-nek nem érdeke kibaszni a PC-vel. Nekik az a jó, ha a játékpiac virágzik, mert nincs mobil piacuk, csak a PC van nekik.
A diszkrét kártyáknak már nem sok szerepe van. Platform kell vagy kiestél a piacról. Az NV ezért fejleszti a Maxwell APU-t. Nem lesz több GPU-juk nekik sem. Gondolom hallottad a terveiket: Project Denver CPU és az integráció a Windows 8-as PC-s platformhoz.
Attól nem tudod drágábban eladni a kártyákat, hogy van egy DX11-es játékod. Az a baj a piaccal, hogy a diszkrét kártya gyártása drága. Ezért integrál az Intel és az AMD. Sőt ezért integrál az NV is. A platform a kulcs, és ha nincs platformod, akkor csak a piac egy jelentéktelen szeletéhez jutsz. Jelen helyzetben a PC-s GPU-piac 60+%-a IGP ... ez a szám csak nőni fog a VGA-k kárára.
Gondolom ott kap helyet a Dragon Age 2, ahol az AVP, a Stalker: COP, a Dirt 2, az F1 2010 illetve a Battlefield: BC2 csupa Gaming Evolved cím. Lehet, hogy kihagytam valamit. Annyi van már, hogy nehéz fejben tartani mindet.
A Dragon Age 2 nem 3.0-s értékeléseket kapott. A Metacritics-en a PC-s 84 ponton áll. A user score sosem érdemi adat, mert azok pontozzák le, akik nem ezt várták. A Crysis 2 sem fog tetszeni, annak aki Crysis-t várt, csak azok fogják kedvelni, akik COD-klónra számítottak. Természetesen aki a régi Crysist akarja az le fogja pontozni, de halad a világ, és haladnak a trenddel a fejlesztők. Olyanra csinálják a játékot, amilyen állapotban a legjobban eladható.
A karakterek textúrahibája ismert probléma és az érkező NV driver azt is javítja majd. [link] - itt vannak összehasonlítások a DX11-ről.Ha már a pontozásnál tartunk, akkor az NV eddig a Metro 2033-at, a Lost Planet 2-őt és a HAWX 2-őt hozta DX11-re. A Metacritics adatai szerint csak a Metro 2033 lépi át a 75 pontot, ami a hivatalos határa a zöld jelzésnek. Az AMD programján belül készített játékok közül 75 pont felett 9 játék teljesít. Az lehet, hogy te nem vagy hajlandó elfogadni, hogy ki dolgozik jobban, de a számok messze nem téged igazolnak. És ezek ellenőrizhető adatok: [link]
És persze megint én hordtam össze egy csomó ökörséget.
Az a fő különbség, hogy én linkekkel és adatokkal támasztom alá az "ökörségeimet".
Az EA nem magyarázkodik, még a Crytek sem. Egyszerűen a gépigény ki van adva. A dobozok le vannak gyártva. Ezeket nem módosíthatod az utolsó pillanatban. Ezért nem lesz a DX11 a játék szerves része. A patch mellett mehet az új UELA az új igényekhez, amit telepítés előtt el kell fogadnod. Ez ilyen egyszerű. Ha nem akarod elfogadni a feltételeket, akkor nem kötelező telepíteni. A DX11 mód nélkül is teljes lesz a program.
-
rocket
nagyúr
"Elfelejted, hogy a 16 DX11-es játékból 12 az AMD programján belül készült. Nem kell őket annyira sajnálni."
Nem a mennyiseg a lenyeg, hanem az ezekkel elert eredmenyek, hiaba 12 az AMD-e ha 1 van amivel teljesitmenyben tudtak valamit csinalni.
Nem az AMD novelte a piaci reszesedeset Q4-ben a 12 DX11-es cimevel, raadasul ugye az NV te allitasod szerint lesz@rja a diszkret piacot, ezzel egyutt megcikibb amit az AMD eload.Neha ugyerezem a hozzaszolasaidon, hogy elfelejted ez uzlet ami penzre megy, es nem piros pontra.
Crysis 2 hatalmas marketing lehetosegeket rejt, mint ahogy az elso reszre is igaz volt ez, meg mindig benchmark jatek tesztekben, hany tesztben szerepel a DA2 mint benchmark jatek?
Megtanulhatnad mar egyszer, hogy nem kell megprobalni AMD zoldben valaszolni allandoan, el kell fogadni, hogy bizony az AMD-nek van meg tanulni valoja, marketingben tovabbra is tonkre veri oket az NV, mert olyan cimekre torekszik amik nem 3.0-as ertekeleteseket fognak kapni a 10-bol, es nem ugynezki a DX11 mod, mintha 4 evvel ezelott jarnank a DX9 korszakban.
Megint osszehordtal egy vagonnyi okorseget, Crysis 2 EA-os magyarazkodasod meg a GIGALOL kategoria
-
Abu85
HÁZIGAZDA
válasz
pottyantós #92 üzenetére
Hivatalosan a kiadott verzió olyan lesz, mint a multi demó. Arra van a gépigény megadva. Ha ez nem tetszik, akkor felrakod az NV DX11 módját, ha megjelenik.
-
lujó55
addikt
Na ez NVidia módszer, nem csodálkozok egy percig sem...
-
Abu85
HÁZIGAZDA
A PCF-fel kapcsolatos problémák miatt rögzítették a DX10-től az API funkcióit teljes egészében. Ha egy valamit nem támogatsz megfelelően, akkor nem támogatod az API-t. Olyan már nincs, hogy ezt meg azt támogatom.
Semmiféle lefizetés nem volt a Dragon Age 2 esetében. Az NV nem készült el időben a driverrel. A TWIMTBP program már nem csak a PC-re dolgozik, hanem a Tegrára is. Nincs kapacitás a PC-s címekre.
Az AMD-nek meg nem egy partnere van. Elfelejted, hogy a 16 darab DX11-es játékból 12 az AMD programján belül készült. Nem kell őket annyira sajnálni.A Bioware elmondta, hogy készül egy NV driver, ami sokat dob a teljesítményen. A játék kódja változatlan marad, mert nem azzal van a baj. A Radeonnak annyi lesz az előnye, hogy támogat egy sebességet gyorsító funkciót, amit az NV emulál. Az AMD ezért semmit sem fizetett. Leadták a kódot és kész. Ezt csinálták eddig is 10 darab DX11-es játéknál, és idén is ezt csinálják a többinél is (jelenleg 5 megjelenés előtt álló játék biztosan Gaming Evolved lesz idén). Nem áll érdekükben a PC-s piac helyzetét rontani, mert számukra nincs egy Tegra, ami nagyságrendekkel jobban tejel. A fejlesztésből meg az NV-t eleve nem zárhatta ki az AMD, mert az NV Parallel Nsight szoftverével debugolták a játékot, amihez támogatás jár. Egyszerűen az NV elkéset a támogatással. Ezt nem nehéz kivitelezni, hiszen tavaszra 30 darab Tegrás címmel készülnek, vagyis a kapacitás nagy részét elvonja a mobil piac. Az AMD azért tudott időre elkészülne, mert nulla mobil játékon dolgoznak.
A Crytek sem szopat majd senkit a DX11-es móddal, mert nem lesz hivatalos. Nem azért mert az NV fejleszti, hanem azért, mert át kellene írni a gépigényt, amit az EA nem akar megtenni. Ezért lesz patchel elérhető a mód, hogy ne érje szó a ház elejét. Ha bajod van a gépigénnyel, akkor ne a Cryteknek címezd a reklamációd, hanem a mód készítőjének. Akarod letöltöd, ha meg nem, akkor játszol a hivatalos beállításokkal.
-
igu
csendes tag
Igazából engem az bosszant, hogy amíg 80ezer környékén a kedves játékos megkapja a szaros játékkártyáját és teljesen meg van elégedve vele (és legyen is- no offense), addig nekem 400 ezret kell kifizetnem ugyanazért a hardverért, ugyanazért a VASÉRT, csupán mert nem buzi ufókra lövöldözöm, hanem dolgozom a vga-val.
Ja hogy nincs 400ezrem egy normális quadrora? Ráb*sztam. THX NV!
Teljesen lehúzás. Ha sárga BMW-t akarsz, az 5 milla, de ha szürke kell, akkor 80 milla. Ugyanaz a kocsi bmeg!!!
-
rocket
nagyúr
Semennyire, csak evekkel kesobb mint kellett volna talalt egy partnert az AMD akivel megcsinalta azt amit az NV eljatszott mar veluk tobb tucatszor.
Ott volt anno a PCF, nem tamogattak a Radeonok, az NV akkoriban nagyon agressziv TWIMTBP programjanak koszonhetoen (pontosabban ugy is fogalmazhatunk, hogy az ATi-nak nem volt sajat fejleszto tamogato programja csak papiron) rengeteg jatek jelent meg ami hasznalta a PCF-et, pedig lett volna egyszerubb es gyorsabb megoldas, csak ez ugye mindket gyarto kartyain hasonloan produkalt volna teljesitmenyben, es nem ez volt az NV erdeke.
Ennek lett a kovetkezmenye, hogy elterjedt a PCF alkalmazasa, Radeonon meg jottek a kockas arnyekok, meg a magyarazkodas az ATi-tolNV piac vezeto diszkret dekstop VGA piacon (2010Q4-ben 58-42-re novelte a reszesedeset), szoval batorsag kell ilyet eljatszani, sot amikor az ATi 20% korul bohockodott akkor is felhaborito volt az egesz, hogy ilyet megmer tenni barki, megha a legkisebb piaci reszesedeset az ATi-nak vesszuk is tobb 10000 emberrel szurtak ki.
Tehat a potencialis vevoket szopatjak csak ezzel, de az is latszik van az a penz amiert ez megeri, mert boven fedezei az NV/AMD altal fizetett penz az esetlegesen ennek hatasara a jatekot nem megvevo embereket.Osszegezve kb. 73:1 az allas, es jon majd (allitolag mar csuszasban van, megjelenesre akartak osszehozni) a Crysis 2 DX11 modja, amit nem a Crytek hanem az NV fejleszt
Az valoszinuleg egy csoppet tobb figyelmet fog kapni mint a Dragon Age 2. -
Giot
addikt
Hm hát most erre mit lehetne mondani?
Nagy kár nem érte az nV tulajokat. Talán csak egy kis presztízsveszteség, de hasonló "sunyi" megoldások mindkét oldalon vannak/voltak. Meg driveres problémák is.
1:1 az állás még mindig. -
Móci
addikt
Én is kíváncsi leszek, hogy ezt a 'kimaradt' témát mennyire fogják használni a játékok. Ha nem nagyon, akkor végül is nem történt nagy baj az nv tulajokkal.
A quadros részt is megértem, mivel a vállalati/professzionális termékekre elég szép árcédulát lehet ragasztani, s biztos, hogy ahol valóban használják, ott meg fogják venni.
Naná, hogy rossz lenne (nézőpont kérdése), hogy ha kiesne egy rakat pénz, mert az olcsóbb geforce is képes ugyanarra... -
Abu85
HÁZIGAZDA
válasz
peterm711 #79 üzenetére
Több mint két tucat DX10.1-es játék van, mert a DX11 is képes DX10.1-es fallback módra.
(#77) bitblueduck: Legrosszabb esetben annyi számítás fut le, amennyi az SV_depth mellett. Több biztos nem fog, mert nincs több számítani való.
Nem tudom mennyi a tranzisztorigénye ennek. Nem hiszem, hogy drága lenne. A Fermibe valószínűleg azért nem került bele, mert az architektúra a HPC-be készül, a játékok alatti teljesítmény másodlagos volt. Ha a DX11 nem fogadta volna el az emulálást, akkor valszeg megoldották volna az implementálást, de mivel elfogadott, és szabványos az emulálás is, így kár lett volna erőforrást áldozni rá. A Fermi eleve nehezen született meg. -
-
Pug
veterán
válasz
bitblueduck #77 üzenetére
Szerintem a teljesitmeny az elsodleges, nem a megvalositas szepsege.
Ezt most hogy érted? -
bitblueduck
senior tag
Engem leginkabb az erdekelne, hogy ellehet-e szurni ugy a shadert, hogy a hagyomanyos szamitashoz kepest rosszabb eredmenyt erjen el? Masreszt mennyi tranzisztortobblettel jart volna az implementalas (pl ~6-7% teljesitmenynovekedes ~15%+ magmerettel gondolom felejtos)?
Flameloknek meg: mi tortent volna, ha nem jelenik meg ez a hir, nyugodtabban alszanak? Szerintem a teljesitmeny az elsodleges, nem a megvalositas szepsege. -
Pyzoo
aktív tag
válasz
peterm711 #70 üzenetére
Ez igaz amit irsz de nem mindenhol 20% minusz mostantól, meg nem is 20 lehet csak 5%. Jelentől is függ meg nem mindenhol érvényesül a dolog. Azonkivül az emuláláson hátha lehet még finomítani. Ezek a kártyák eddig is ilyenek voltak nem most lettek "hibásak" hirtelen. DX11-es játékok eddig is voltak azokon is tesztelték őket. Az AMD sem vehet meg minden játékot. Tényleg hatalmas katasztrófa hogy 80 fps helyet 76-64-et megy a kari.
Vérpistikéék sírni fognak. A tesztek meg megint más kérdés. Viszont egy olyan oldal tesztelése ami csak olyan játékokra alapoz amik ezt az eljárást használják az nem mérvadó. -
NOD
senior tag
Eddig is jöttek azért elég rendesen. Nem hinném hogy túl sok játék használná ezt (gondolom amit az nv egy kicsit is támogat az kilöve ilyen téren) mivel a játékfejlesztők se akarnak egy rétegnek "kárt" okozni (Physx is hány játékban volt ami ért is valamit? 2-3?).
Bár lehet hogy ez egy széles körben elfogadott "cucc" és ezért lehet hogy kiasználják az elönyét.... Nem tudom. -
hd.tv.zs
csendes tag
igen egy Játék, egyenlőre, és érkeznek szépen idén a dx11 re irtak tömegével... (amiben már lehet használják a készitők azt a bizonyos funkcióját a DX11.-nek)
Azért egy Játék, mert nála , vagy ez miatt került nagy nyilvánosság elé, szóval lehet ez csak a kezdet, de ne legyen igazam. -
LackoMester
addikt
Érdekes irás, köszi, okosabb lettem.
-
peterm711
aktív tag
na bumm, elég érdekes a reakciód. Szerintem ez nem vicc, fogalmazhatunk úgy is hogy minden egyes nvidia kártya most visszacsúszott 1 esetleg két kategóriával. 20 százalékos teljesitmény esés az már nem semmi. Képzeld el mi lesz ha a 6970 ráver +20 százalékot a gtx 580-ra. Nem tart semeddig, csak AMD bácsinak kell jobban kinyitni a pénztárcát a játékfejlesztők előtt.
-
Pyzoo
aktív tag
Tehát akkor feleslegesen számol a gpu. Megpróbálom vicces szemszögből nézni a dolgot ez legalább növeli télen a fűtőértékét a karimnak.
Hmm kár hogy jön a nyár.
Ha a számoknak hihetünk (5-20%) akkor ez 30-60 fps nél maximum 6-12frame minusz. Kicsit nagyobb lesz az fps ingadozás a jelenetek között, na bumm. Remélem mire a legtöbb játék erre fog építeni addigra lesz egy új nv gpu.
-
hd.tv.zs
csendes tag
Érdekes, na nem mintha nagyon számitana, de maga az a tudat, hogy eddig én erről semmit nem hallottam, pedig biztos, hogy nem most derült ez ki, de nyilvánosságot csak akkor kapott amikor már valamiben észrevehető volt ez a " hátrány".
Én inkább kicsit sunyi dolognak tartom.SZóval ez majdnem olyan mintha eltitkolt rejtett hiba lenne benne,
Akkor eleve úgy kellene árulni, nem teljes DX11 kari, cak mondjuk 99%-osVásárló mehet , és kérheti a pénzt vissza, teszemazt?
-
peterm711
aktív tag
Mennyire fognak játékfejelsztők a jövőben rákapni erre a fejlesztésre? Mer ha mostantól minden egyes game ilyen lesz, akkor lehet bajban leszünk
-
Abu85
HÁZIGAZDA
Ez jó, hogy ez jön le, mert erről van szó.
A lényeg, hogy vannak olyan számítások amelyeknek nem lesz eredménye a végső képkockán. A conservative depth ezeket még azelőtt ki tudja szűrni, mielőtt lefutnának, vagyis nem is kell lefuttatni őket. A GeForce-on lefutnak és az eredményük el lesz dobva.
A tényleges mérések szerint 5-20%-ot lehet nyerni a conservative depth alkalmazásával. Nagyon függ a dolog a jelenettől. -
-
Pyzoo
aktív tag
Sziasztok!
Abszolút nem vagyok jártas a témában ezért kérdezném hogy az emulálást ami ugye szoftveres akkor a proci végzi? Vagy ezt az emulációt rá lehet kényszeríteni a gpu-ra vagy egy részét? Vagy ugyan úgy a gpu végzi csak kerülőúton több számítással?
-
NOD
senior tag
(#58) KKaresz45 : Ez tény, kispóroltak/kihagytak/elcsaltak
egy fontos dx11-es "részletet" DE ez a gond max 10-15%-os sebesség növekedéstől vágja el az NV-t használókat. A maradék meg a driver hibája (hasonlóan az 58**-eket érintő gondot is hixelni kellett amd-nek driver szinten).
És akkor csodálkoznak egyesek hogy egy-két emberke visszaszól olyan megjegyzésekre hogy ez-az kimaradt de milyen nagy szilicium lap lett mégis.....
Cybertrone : Látod, burkoltan kell csak beszólni és akkor nem tesznek 5 órás kényszerpihenőre
-
#56573440
törölt tag
"Ez is jól bizonyítja, hogy nincs akkora különbség a pró kártyák és játékkártyák között, mint amennyi plusz ár van rajtuk."
üdv a való világban
egy proci előállítása kb 50 dollárban áll meg. és nem kell feltétlenül a szerverprocikat nézni hogy brutális haszonkulcsot lássunk. persze van egy halom más kiadásuk is, fejlesztéstől kedzve, de akkor is van hasznuk bőven.
vga fronton kicsit drágább a történet, de tényleg lehúzás. persze megtehetik, így meg is teszik. mindenki ezt csinálja minden piacon...
-
KKaresz45
senior tag
Nem, ilyesmit nem írtam én sem.
NOD: A DA2 esetében egyrészt van egy driver probléma, másrészt egy funkció nincs támogatva hardveresen. A diver hiba a szerző szerint is fontosabb, a hardveres támogatás hiánya miatt pedig 5-20% -os teljesítménynövekedéstől estek el az Nvidia kártyások. Ez van a cikkben, erről beszélünk, és szerintem érti mindenki. Igen, igazad van, nem katasztrófa, ettől még holnap fel fog kelni a nap, de azért valljuk be, hogy abban a hozzászólásban is van valami, amire válaszoltál ((#48) Kelvin).
Esetleg rosszul mondom, te mást olvasol ki a cikkből? No offense, csak kérdezem, hátha én értek valamit rosszul.
Szerk.: Igen, közben Abu85 is leírta ugyanezt, akkor jól értem.
-
Abu85
HÁZIGAZDA
Szerintem elbeszéltek egymás mellett.
NOD azt mondja, hogy főleg driveres a gond, ami a hírek szerint igaz. Ha már a Bio megerősítette.
Te azt emeled ki, hogy a conservative depth nincs hardveresen támogatva a GeForce-on. Ez igaz, de emulálható az eljárás, ahogy az MS mondta. NOD nem is állít mást. Nyilván az emulálás lassabb, mint a hardveres megoldás, de ez van. -
mrhitoshi
veterán
Oké hogy a játékokban semmit nem eredményez, bár ez így lehet kétségbe vonható.
DE a TUDAT emberek, hogy a dx11-es kártyám nem támogat 1-2 opciót, az már katasztrófa. -
Ren Hoek
veterán
Előre leszögezem GTX 460-am van.
Mindig is viccesnek találtam, hogy a professzionális szférában milyen iszonyatos pénzeket le tudnak húzni a cégekről, csak mert lehet. Ez is jól bizonyítja, hogy nincs akkora különbség a pró kártyák és játékkártyák között, mint amennyi plusz ár van rajtuk.
Mivel pont lenne egy összetett Blenderes melóm, fájó szívvel olvastam a hírt...
Az is elég vicc, hogy a CUDA képességeit még nem sikerült kihasználnom egyáltalán. TMPGenc és még 2 féle videokonvertáló el sem indul CUDA támogatással, Premiere Pro-ban nem is láttam ilyen beállítást (Mintha olvastam volna, hogy drivernél kell keresni) de semmi gyorsulást nem tapasztaltam. Ugyanúgy ment az alaplapi AMD-vel is.
Sőt ATI Stream-el videókat is konvertáltam elég gyorsan a HD4200-al. CUDA-t még nem sikerült működésre bírnom... Vagy nem gyorsít semmit éppen. (Majd még kísérletezek vele)
Annak ellenére hogy GTX-em van, totál szánalmasnak tartom a zöld tábort, az állandó flame keltés miatt. Az nVidiát magát pedig mégszánalmasabbnak a tettei miatt. (Marketing bullshit: 550 Ti, 460 SE, PhysX korlátoltság, játékok megkenése... meg stb stb )
-
Kelvin
őstag
"A Bioware-től származó információk szerint az NVIDIA az elkövetkező hetekben kiad egy új drivert, ami javít a helyzeten, de a conservative depth előnyeit továbbra is csak a Radeonok képesek kihasználni.
Felmerül persze a kérdés, hogy a Fermi miképp lehet kompatibilis a DirectX 11-gyel, ha az egyik funkciót nem támogatja."
"Mintha senki nem olvasta volna el pedig nem hosszú." Úgy látszik Te sem olvastad végig vagy csak az értelmezéssel vannak gondok......
-
NOD
senior tag
Na egy kis magyarázat : Well, technically you can support Conservative Depth Output with a driver based emulation, as GeForce support it this way. It's not a problem because the DX11 enable this solution, but the hardware based approach is faster.
This game just showing some benefit about it, but I didn't see the source code. I just said that Conservative Depth Output is one of the main reason of the performance difference, but not the only one. (driver gond)
I think most people misunderstood tessellation. You don't able to do micropoligon render with today's GPU. Rasterizing small triangles on a quad pixel pipeline is inefficient. Maybe DX12 improve this. -
bolondember
MODERÁTOR
Cybertrone elment egy kis pihire - többiek pedig ne vegyék fel a flém-kesztyűt.
Köszönöm. -
NOD
senior tag
De amint ez a cikkben is benne van, itt elsődlegesen driver probléma van..........
Miröl beszélunk egyáltalán? Mintha senki nem olvasta volna el pedig nem hosszu. Még ha egy 5 oldalas angol szöveg lenne telebaszva szakmai jellegu kifejezéssel akkor nem szolnék semmit de igy....... -
Cybertrone
veterán
Mondjatok már párat a játékok közül... mert akkor sűrgősen veszek egy Atit
-
JohnnyX
őstag
Nos, én úgy látom, hogy a megjelent cikkhez sok hozzászólásnak köze sincs, flame az egész. Törölném is a nem idevalókat egy jó moderátor helyében. Köszönöm.
-
kpal
nagyúr
Az a lényeg így vagy úgy de működik a dolog csak a Dao 2-ban van bibi .
-
Pug
veterán
válasz
Cybertrone #38 üzenetére
Rajtad kívül "szar"-ozott itt valaki? Mondta valaki, hogy szar az NV? Mondta valaki, hogy ettől most az AMD jobb? Nem...
Te kezdtél itt AMD vérszívózni, meg, hogy ez a DX11 feature "szar" és neked nem kell, az NV az 1 GPU-s király stb.. szóval ennyit a szakmai hozzáállásodról, amint látom neked lételemed a flame.... -
TESCO-Zsömle
titán
válasz
Cybertrone #20 üzenetére
Te biztos zöld-farkas vagy, ha így ismered (utálod?!?) a vörös vérszívókat...
-
-
Cybertrone
veterán
Ezt szeretem nyomjátok csak
-
SzlobiG
félisten
válasz
Cybertrone #35 üzenetére
Ha kicsit gondolkozol rájöhetsz, hogy pont te viselkedsz flém keltően a stílusod miatt, senki nem írt be ilyen stílusba te meg "azonnal" így indítasz, szal ne lepődj meg ha neked esnek.
A másik mind2 oldalon ha van valami jó/rossz hír az itt megjelenik ha neked nem tetszik, akkor nem olvasod és nem írsz bele semmit főleg nem ilyen stílusba, na de ez a te dolgod...
-
Kelvin
őstag
válasz
Cybertrone #35 üzenetére
Te személyes sértésnek veszed ezt a cikket?
A szart, fost, lóvét helyesen tudod leírni de a "láccik" már nem megy...Mindamellett én nem örülnék neki ha a dx11-es kártyám nem támogatná az összes dx11 "fjúcsört" pont most amikor beindulóban van.
-
Cybertrone
veterán
válasz
Alister71 #33 üzenetére
Megtisztelsz... most mit mondjak erre a hírre, ennél fontosabb jelenleg nem is létezik hírileg mint ez...
Attól hogy ez a szar nincs benne, még erősebb, és 1 gpu-ban jelenleg is a legerősebb... Most attól hogy a dragon age ami amugy fényévekkel van lemeradva az első részhez képest mellékesen erre alapul hát istenem, annyi hogy abba AMD pumpálta a lóvét, és kész, ez láccik is, csak azt nem értem hogy miért fosba teszik a lóvét, miért nem jó játékokba
-
"Ez a megoldás ugyan nem hoz magával számottevő sebességnövekedést, de az adott program működésére nincs hatással, vagyis az eredmény ugyanaz lesz."
Ezzel a dolog le is zárható, de amúgy meg LOL, már megint egy nV trükk...
-
Alister71
nagyúr
válasz
Cybertrone #20 üzenetére
Hát ez igazán gyönyörű hozzászólás. Főleg a szakmai része tündöklik, mint a kopasz patkány a holdfénynél.
-
keIdor
titán
válasz
Cybertrone #27 üzenetére
Miért, zöldnél nincs vérszívó?
Egyébként ennek tudatában még mindig GTX-580-at vennék 6970 helyett, hiába drágább. Szimpatikusabb az egész zöld oldal most... erről a Cayman-ról üvölt, hogy 32/28nm-en lenne az igazi és nem véletlen, hogy 32-re akarták eredetileg.
Fogyaszt mind az állat, többet az 580-nál, de közben lassabb...Dragon Age 2 amúgy elég szar lett, Origins-esek is ezt mondják, szóval kit érdekel hogyan fut ez GeForce-on.
-
shteer
titán
only Dragon Age 2
nagyszerű
-
KKaresz45
senior tag
válasz
Cybertrone #20 üzenetére
Én nem látok egy vörös vérszívót sem.
-
Boxi88
őstag
Érdeke, hogy ez a dx11-es funkció még csak most kapott "jelentős" szerepet...
-
NOD
senior tag
Radeonok is szoptak a DA2-ben fix nélkul, akkor miröl beszélunk?
Cybertrone : persze a vörös vérszívók jönnek majd erre a hírre is mint a hiénák a dögre
-
Abu85
HÁZIGAZDA
-
SzlobiG
félisten
Mik vannak. Nv tulajok örülhetnek, hogy még csak DA2-be lenne előnye az eljárásnak bár szerintem nem fognak sírni azért a 20%-ért alapból jelenleg játszhatatlan DX11-be szal inkább egy jó driver kéne oda.
-
dy_nmq
aktív tag
"mondjuk a Blender alatt, ahol igen részletes modellekkel is lehet dolgozni." vagy maya vagy max vagy bármilyen tényleg professzionális programban.
-
DMG
senior tag
Na majd ha nagyon lemaradnak az AMD mögött, egy csinos driverrel kiiktatják a korlátokat, vagy a játékokban az nem gyorsítana, csak az egyéb alkalmazásoknál?
Meg nem értem, mos mihez képes nem lassítja a játékokat, ha magához képest igen, mert ügye, ha elmarad a korlátozás miatt a gyorsulás, az azt jelenti, hogy erősebb lenne a kértya, ha nem lenne orlátozva, vagyis akkor magához képes igen is lassítja, vagy a kategóriához képest nem lassítja.
Belezavarodtam, túl hosszú volt a hétvége.
-
NOD
senior tag
Látom az AMD fanok csak a címet olvasták el
Amúgy külföldi oldalakon vannak erröl 4-5 oldalas cikkek.. azokat sem árt néha átnézni hogy tájékozódjon az ember.
-
RROD360
tag
Pedig én is vacilláltam a GTX 460 és 6850 között de már nem bántam meg a 6850-est
-
kcsa
veterán
válasz
Cybertrone #6 üzenetére
ajjaj egy márkafanatikus, fussunk
-
Pug
veterán
válasz
Cybertrone #6 üzenetére
Milyen a két kártyás radeon?
-
Alister71
nagyúr
válasz
Cybertrone #6 üzenetére
A Dragon Age 2 nem ezt bizonyítja.
-
Nem találtam meg a cikkben, hogy ez a korlátozás mennyire fogja vissza a játékokat?
(nem volt elég 4x leírni)
(#6) Cybertrone: Mi veri le a 6990-et? Miben? Lemaradtam valamiről?
-
kcsa
veterán
ahhoz képest hogy ez-az hiányzik, egész szép nagy szilíciumlapka lett belőle
-
Alister71
nagyúr
"mert érkezőben vannak azok a játék," nem játékok?
Éreztem, hogy 6850-est kell vennem, nem GTX-et.
-
#16939776
törölt tag
Ha csak annyi a lényeg hogy így tudak kimérhető különbséget generálni Geforce és Quadro között akkor ez kicsit elszomorít
Ha Driverből/profilbol meg lehet oldani amit szándékosan lekorlátoztak, akkor nekem mindegy.
-
adorjant
őstag
Ezt már egyszer eljátszották régebben a srácok. Hogy örültek akkor (is) az ATI tulajdonosok
Emlékeztek még a Max Payne-re?
Új hozzászólás Aktív témák
Hirdetés
ph Az NVIDIA DirectX 11-es termékei helyenként csak emulálják a Microsoft API-jának funkcióit.
- Bomba ár! Fujitsu LifeBook U7310 - i5-10GEN I 16GB I 256SSD I 13,3" FHD I HDMI I Cam I W11 I Gari!
- Telefon felvásárlás!! iPhone 13 Mini/iPhone 13/iPhone 13 Pro/iPhone 13 Pro Max
- Xiaomi Redmi Note 10 Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
- Bomba Ár! Lenovo ThinkPad W540 - i7-4810MQ I 16GB I 256SSD I K2100 I 15,6" FHD I Cam I W10 I Gari!
- LG 55B4 - 55" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest