Hirdetés

Hirdetés

!!! SZERVERLEÁLLÁS, ADATVESZTÉS INFORMÁCIÓK !!!
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!

Új hozzászólás Aktív témák

  • Bj Brooklyn

    aktív tag

    válasz Abu85 #298 üzenetére

    Élyfél után már lökheted is az infót a topicba, és azt is hogy mennyire használják ki egyes gémek a Physx-et és, hogy elérhető-ek e az Ageia tulajoknak is :DDD . Szóval MINDENT :DDD

  • Abu85

    HÁZIGAZDA

    válasz schwartz #297 üzenetére

    Ha akarjátok, akkor holnap felfedem az idei GF Physx játékokat ... lejár az NDA. :)) Ha nem, akkor hallgatok. ;] :P

  • schwartz

    addikt

    válasz Departed #294 üzenetére

    Figyelj, en egy arrogans fasz vagyok s megtortenik neha, hogy beirkalok ezt-azt... :D
    Sajnalom ha magadra vetted azt a hsz-t.

    rögtön itt ebben a topikban sokmindent olvashatsz a felépítésekről, ismérvekről, és szívesen olvasnék ilyeneket az Nvidia oldaláról is, hogy melyik elemük, ötletük miben jó, miben jobb az Ati elemeinél.

    Ez eleve egy NV talalgatos topic. Az NV vs. ATI-nek meg sosem lesz jo vege... :DDD

  • Abu85

    HÁZIGAZDA

    válasz schwartz #293 üzenetére

    És hol a glide? Amint jött a DX kihalt. A 3dfx abba halt bele, hogy nem volt képes felfogni, a glide vesztét.

    Crytek: A Techland azt mondta, hogy a motorba most építették be a tesszellátort, de még nem döntötték el, hogy használni fogják-e. Először az új Call Of Juarezt kell befejezni, mert az ubi nyárra kéri.
    Ellenben a Tesselation SDK kód aránylag könnyen portolható DX11-be, így előfordulhat, hogy ezek a játékok DX11-esek lesznek.
    Úgy tom, hogy a DX11-gyel a a DICE és a Techland foglalkozik jelenleg, a többiek még nem merültek bele. Most alapvetően itt az is része a dolognak, hogy a Frostbite és a Chrome Engine 4 az normális DX10 motor, tehát nem nehéz alakítgatni.

  • Crytek

    nagyúr

    Techlandtől nagyon várom már ezt a 3 gamet:

    Dead Island ,Warhound, Chrome 2 - Ahogy csürik csavarják halasszák ezeket még a végén az összes dx11-es lesz :D

  • Departed

    őstag

    válasz schwartz #292 üzenetére

    Nem volt szándékomban személyeskedni, csak a tudásvágy hajt, mint itt sokakat. Merthogy érdekel mindkét oldal.
    Koponyaként nem magamra gondoltam, nem vagyok ego, hanem pl. rögtön itt ebben a topikban sokmindent olvashatsz a felépítésekről, ismérvekről, és szívesen olvasnék ilyeneket az Nvidia oldaláról is, hogy melyik elemük, ötletük miben jó, miben jobb az Ati elemeinél. A kultúrált eszmecsere mindig a legjobb :K

  • schwartz

    addikt

    válasz Abu85 #291 üzenetére

    Mondj egy olyan rendszert a piacon, ami valamelyik gyártóhoz kapcsolódik, és komoly mértékben elterjedt a fejlesztők körében. :) Akár évekre is visszamehetünk. ;)

    A Glide.

  • schwartz

    addikt

    válasz Departed #290 üzenetére

    hogy több igazi koponya az ATI-t választók köréből igazán jól meg tudja magyarázni, hogy miért és hol jó az, amit az ATI csinál vga-fejlesztés terén.

    Hallgatlak Mester... ;]
    (a szemelyeskedest meg tartsd meg a haverjaidnak)

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #288 üzenetére

    Az, hogy wikipédia. :) A HL2 baromira nem így zajlott. Tudom, mert elmondták nekem (egyszerű reklámszerződést kötöttek, amiben az volt benne, hogy a Valve játékok beállítómenüjében be kellett rakni egy "legjobban ATI-val fut" feliratot). A Valve azért ment az AMD-hez (ATI-hoz ... lényegében mindegy), mert a DirectX 9-es Source motor alatt tudták, hogy bolhafing az FX teljesítménye, így az NVIDIA semmilyen segítséget nem tudott volna nyújtani, mert szar volt az architektúra az erős shader terhelésre.
    A Doom 3 is baromság, olyannyira, hogy John Carmackről nyíltan lehet tudni, hogy nem egyezik meg senkivel sem reklámszerződésben, sem más támogatásban. Egyszerű munkakapcsolatról lehet szó nála maximum, ami nem hozza hátrányos helyzetbe a konkurens vállalatok termékeit. Carmack külön render rutinokat írt anno a piacon lévő kártyákhoz. Volt az alap ARB a régi termékekhez (GF3, GF4 stb), az NV30 (GF FX), az R200 (Radeon 8500/9000), és az ARB2 a többi Radeonora illetve a jövő grafikus kártyáira.

    Hát rosszul tudod, mert a Crytek a CryEngine 3-on dolgozik, és jelenleg folyamatosan az AMD segítsége kell, mert azt a poligontömeget, valahogy mozgásba kell hozni az XBox 360-on. Ebben hogy tudna segíteni az NVIDIA? Azt sem tudják, hogy a Xenost, hogy kell megfelelően programozni. Ellenben ezt a legjobban az AMD tudja, hiszen ők tervezték a lapkát, tehát tőlük kell segítséget kérni.

    Akkor nevezzük a DirectX-et gyártófüggetlennek (nem Intel, nem AMD, nem NVIDIA, nem VIA). :R Remélem, így már világos, miért lehetetlen a CUDA elterjedése. Mondj egy olyan rendszert a piacon, ami valamelyik gyártóhoz kapcsolódik, és komoly mértékben elterjedt a fejlesztők körében. :) Akár évekre is visszamehetünk. ;)

    Egyébként kb. helytálló, hogy az MS az nem valami találékony, mert általában lop, de a DX-et figyelembe véve. Mond mi gátolta meg abban, a Khronos Group-ot, hogy jobbat csináljon az aktuális DX verziónál? ... mert az MS biztos nem
    Jó dolog mindent rákenni az MS-re, de alapvetően, nem mindig erről van szó.

  • Departed

    őstag

    válasz schwartz #289 üzenetére

    Íme az NV-s mag egyik értelmes megnyilvánulása... :U

    Egyébként pont ez a lényeg, amit Tzsolesz mondott, hogy több igazi koponya az ATI-t választók köréből igazán jól meg tudja magyarázni, hogy miért és hol jó az, amit az ATI csinál vga-fejlesztés terén.
    Szívesen olvasunk olyan hsz-t is, ami az Nvidia vga-fejlesztési ötleteiről, jó módszereiről szól. :R

  • VinoRosso

    veterán

    válasz Abu85 #266 üzenetére

    Csak pár dologra reagálok mert nincs túl sok időm.

    Tévedés a gyártók nem vesznek játékokat.

    Mi a véleményed erről?

    ATI and Nvidia are now willing to go even further to ensure popular games are optimized for their respective chip architectures. For example, Nvidia sponsored Doom 3, and ATI spent a reported $6m[citation needed] on Half Life 2.When Doom 3 was released, unsurprisingly Nvidia held a large performance lead. ATI analyzed the code, and found shader calculations were being performed manually through a look up table, to compensate for the relatively poor performance of the FX series in this respect. Through application recognition, on the x800 card ATI reportedly found a 30% speed gain[citation needed], just by moving shader calculations to hardware. To this extent, the question of who has the best graphics architecture, is becoming ever harder to answer, as with the increasing complexity of GPUs, performance becomes ever more optimization specific.

    A Crytek a saját érdekét nézi, az NV-t kb. leszarja

    Én úgy tudom, h napi szintű kapcsolatban vannak.

    És a DX az melyik grafikus processzorgyártóhoz kapcsolható? Azt az MS fejlesztette, ahogy leírod, aki nem gyárt grafikus processzort ... ergo a cég totálisan gyártófüggetlen (bár durván AMD puszipajtás, de ezt most hagyjuk ) a PC-s játékpiac életben tartása a célja.

    Ettől még nem lesz plattformfüggetlen.

    Az informatikában platform alatt olyan hardver- és/vagy a szoftverkörnyezetet értünk, amely meghatározza, hogy az adott számítógépen milyen egyéb programok használhatók

    A szoftverkörnyezet legalább olyan fontossággal szerepel a definícióban, mint a hardverkörnyezet. DE! a direcx szoftver, nem hardver. Ezért teljesen irreleváns arra hivatkozni, hogy platformfüggetlen azért, mert széleskörű a hardvertámogatása. DX-es hardvert lehet emulálni szoftveresen, és ha van elég processzor, akkor még normális teljesítménnyel is futnak a dx-es alkalmazások. Erre készül pl az intel, és a tualatin pedig nem kifejezetten dx kombatiblis. Tehát a hardvertől egyetalán nem függ, hogy használható e a dx vagy se. Viszont szoftverkörnyezettől nagyon is függ, mert kompatibilis Wint nem fogsz tudni emulálni sehogyse, ezért nem lehet Xpre dx10, Vistára dx11. És attól sem lesz plattformfüggetlen a dx, ha 20x leírod ugyanazt. Lehet hogy valakibe bele tudod sulykolni, de ez ettől még ugyanolyan hazugság marad. Amúgy teli van hasonló technológiákkal az IT, és még azt sem mondhatom, hogy csak körül kéne nézned, mert a dx is az orrod előtt volt, meg a pár hsz-el korábban említett(!!!) .NET is szintén ilyen, ami a Java MS megfelelője. Szóval itt már kapásból volt 2 dolog, OGL + Java vs DX + .NET ami cáfolja az állításod. Érdekes egyébként, hogy pont a MS az, aki a kezdetektől fogva arra épít, hogy ellop egy ( eseteknént független ) technológiát, aztán mintha ő találta volna fel a spanyol viaszt úgy promótálja, és utána próbálja kiszorítani vele a piacról az eredeti konkurrensét, amiről koppintott( lásd CP/M vs DOS, OGL vs DX, Java vs .NET ) Ennél nagyobb bakot nem is lehetne lőni, mint azt állítani, hogy a MS valaha független terméket gyártott, vagy gyártani fog. A nyakamat merném rátenni, ha belefognának a vga gyártásba, csak az általuk készített vga-n futnának el a játékok win alatt.

  • tzsolesz

    nagyúr

    válasz Beowulf_78 #277 üzenetére

    Valahogy az nV-s tábor központi magja értelmesebben adja elő magát. :DDD

    Ha ezt kihagyod a hsz-odból, akkor király lettél volna. ;) Mert amúgy igazad van, de az hogy az NV-és tábor értelmesebb, az enyhén szólva is nevetséges. Nézz néha át az ATI várós topic-ba, és olvashatsz olyanokat, hogy minden második szót szótárból kell kikeresni, és még akkor az egész estéd rá megy mire lefordítod. :) Megjegyzem, nem tőlem származnak, és nem is kizárólag Abu85-től. :DDD

  • Beowulf_78

    addikt

    válasz Skizz #285 üzenetére

    Bocsánat, ha magadra leltél a hsz-t olvasva. Nem akartalak megbántani. :B ;] :P Csak egy vélemény volt. 100-as papírzsepit tudok küldeni póstán, de a pk-t te fizeted. Ha nem lesz elég a könnyeid felitatására, akkor nem bánom, küldök 2x100db kiszerelést. :K ;] :P

  • Skizz

    addikt

    válasz Beowulf_78 #277 üzenetére

    Hogyne, általánosíts csak. Ez pont olyan, mint a mai hülye fiatalok. :N Inkább téged minősít, hogy köpsz egyet a másik oldal felé, aztán elhordasz mindenkit neveletlen senkiházinak, aki visszaszól.

    Tudod jól, hogy mindkét oldalon vannak demagóg, beszűkült látáskörű rajongók, akiknek magyarázhatsz akármennyit, de hogy ti értelmesebben adjátok elő magatokat... még mindig ráz a nevetés. :)

  • ashot

    tag

    válasz Abu85 #269 üzenetére

    En csak azt latom, hogy a jelenbol kiindulva vannak jatekok amik ATIn futnak jobban, vannak amik Nvidian.
    Es ehez csak annyit tennek hozza hogy amik Nvidian futnak jobban, tehat mondjuk 50-60fps el azok ATIn 40fps el futnak, amik ATIn futnak jobban, tehat 200fps el az nvidian csak 170fpsel fut:)

    Vagy nem igy van?

    Marton

  • Abu85

    HÁZIGAZDA

    válasz Sweet Lou 6 #282 üzenetére

    Persze ... a Q4-gyel megcsapta őket a probléma szele. Ők is tudják, hogy nem megy jól. Meg a vezetőség úgyis megpróbálja kiegyensúlyozni a negyedéveket. Pénztartalék az van, nem bőséges be egy időre elég.
    Igazából az Intel is csak szívatja az NV-t, csődbe tuti nem fogja vinni, mert okosabbak a zöldek annál. Csak finoman sugallják nekik, hogy már nem szívesen látott vendég a PC-s piacon ... "Maradhatsz, de szopni fogsz." ;]

  • Sweet Lou 6

    addikt

    válasz Abu85 #281 üzenetére

    Ott van még a pasziánsz is :D

    Ha pesszimistán nézek az NV-ra, még akkor is minimum kikell bírnia pár évig (van ott tartalék, amd se ment csődbe...)

  • Sweet Lou 6

    addikt

    válasz Beowulf_78 #277 üzenetére

    Pár év múlva nvidia nélkül is lesz konkurenciája az amd-nek (Intel Larrabee)

  • GuB3Ra

    aktív tag

    válasz Beowulf_78 #277 üzenetére

    Mert a 8800ultrának + a gtx280nak nem volt pofátlan az ára ;]
    És mielőtt ati fan lennék ez életem első radeonja idáig csak nv volt(sli is)

  • Beowulf_78

    addikt

    válasz Dark KillerX #273 üzenetére

    Igen. A flame az beindult Ati fan-ok részéről. Ez csak azért blama, mert ez őket minősíti. :B Valahogy az nV-s tábor központi magja értelmesebben adja elő magát. Inkább úgy fogalmaznék, blama lenne most ATI-ra váltani a normális júzernek, mert egyből meg lenne bélyegezve a sok idióta ATI júzer miatt. :U ;] Arra nem is gondolnak a kis butuskák ha az nV-nek "baja esne" a VGA piacon, és az ATI lenne az egyetlen vesenyképes gyártó, akkor olyan mértékben lennének pofátlan árak, hogy aki ez eddig megtehette pl. a 4850/4870-et az már örülne ha a belépő szintű kártyákat ki tudná fizetni. :U Akkor meg el lehetne gondolkodni hogy lett volna jobb, és lehetne fikázni az egyetlen VGA gyártót...csak már kicsit későn. Mondjuk ezt átgondolni, tényleg hatalmas ész kell. Ezért blama amit csinálnak..

  • old gray

    addikt

    válasz biggamer #275 üzenetére

    Te honnan tudod, hogy maradt nekik? Lehet már rég hitelekből élnek. :P ;]

  • biggamer

    veterán

    válasz old gray #274 üzenetére

    Lehet, hogy örülnél, ha annyi pénzed lenne, mint amennyi maradt még pluszban nekik. ;]

  • old gray

    addikt

    válasz Beowulf_78 #272 üzenetére

    Hát lehet feltörték a malacperselyt és az utolsó filléreket is ebbe a projectbe pumpálják. :DD

  • Dark KillerX

    addikt

    válasz Beowulf_78 #272 üzenetére

    Lóvé még van :K ,csak én érzem úgy,hogy mostanság ciki Nv-t venni,mert annyira beindult a flame az Ati tulajok részéről,hogy szinte már vírusszerűen terjed át minden Nv topikra. :U .

  • Beowulf_78

    addikt

    válasz biggamer #270 üzenetére

    Van azért még lóvé az nV-nél... ;] Ha jól számolom ez kb. 120 milliárd ft. :Y ;]

  • rocket

    nagyúr

    válasz VinoRosso #253 üzenetére

    "az r800 lesz bajban a 1200 SP-orával a 3,1 Terás GT300 ellen."

    Az amirol beszelsz az RV870, ha lesz R800 az biztos nem 1200SP lesz, hanem pl. 2x1200SP (dual GPU, vagy dual core MCM majd kiderul) , ehez veszunk mondjuk 800mhz-es orajelet, es maris tobb mint 3.8Tflop/s a teljesitmenye.

    Egyebkent ahogy eddig is, ezutan is felesleges a nyers teljesitmeny alapjan barmilyen kovetkeztetest levonni, foleg honapokkal a megjelenes elott pletykakbol kiindulva ;)

  • Abu85

    HÁZIGAZDA

    válasz tlac #267 üzenetére

    Hát nem lesz jól látható, mert a 15x-ös is durván jó minősége ad, csak úgy mondtam, hogy az egység különbözik. Alapvetően ez az eltérés jelen van.

    schwartz: Ha ez nem így lenne, akkor nem 30:1 lenne a HD 4890:GTX275 eladási mutató. :U
    (és ezt már nem szabad az gyenge beszerezhetőségre fogni, mert még a múlt héten is ilyen eredményeket küldtek a kereskedők) Ennek a csatának az NVIDIA részéről már nincs értelme ... logikátlan az árverseny is hiszen az AMD sokkal olcsóbban gyárt. Az egyetlen kiút a GT300. A Q2-től persze annyiban egyszerűbb lesz az NVIDIA-nak, hogy a TSMC-nél már csak feleannyi chipet gyártat, mint a Q1-ben, bár még így is sok marad majd raktáron.

  • schwartz

    addikt

    válasz Abu85 #266 üzenetére

    mert ezek nélkül nincs az az ember, aki drágábban vesz GeForce-ot a gyorsabb Radeon mellett

    Varjuk meg mar azokat a gyorsabb Radeonokat... :D A teljesitmenyt nezve, az utobbi nyolc evben csak egyszer sikerult igazan elonyt kovacsolni az ATI-nek. (az R300-al)

  • tlac

    nagyúr

    válasz Abu85 #266 üzenetére

    A DX11 tesszellátor egyébként maximum 64x-es tesszellálásra képes, míg a Xenos 15x-ös.

    van ennek jelentősége, hogy így kiemelted ezt a különbséget?
    tehát pl. a 15x-ösön jól láthatóan "szögletesebbek" lesznek a tárgyak?

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #264 üzenetére

    De a DX10.1-es kártya kvázi ugyanazt a teljesítményt és képminőséget hozza a DX11-ben, mint egy natív DX11-es. Ezzel szemben a DX10-es kártya lassabb lesz és gyengébb képminőséget állít elő.
    Ráadásul a Tesselation SDK-vel az első játékok alatt egyetlen HD Radeon nem szenved hátrányt, mert a legelső DX11-es címek a tesszellátor használatára törekednek. Márpedig a tesszellált felületnek az xBox 360-on is kell működni, így az eljárás megfelelő lesz az összes tesszellátorral rendelkező kártya számára.

    Tévedés a gyártók nem vesznek játékokat. Kapcsolatokat teremtenek, de a játékért még soha senki nem fizetett. Olyan eset volt, amikor az NV némi anyagi juttatás fejében megkérte a fejlesztőt, hogy küldjék el az AMD csapatát, ha bejelentkeznek (Hellgate: London) ... de ennyi volt. A PhysX támogatását viszont meg kell venni. A Mirror's Edgebe is 5 milláért rakták bele. Világos, hogy megkérik az árát a fejlesztők, mert kvázi kizárják az elterjedtebb rendszer felhasználóit a max. grafikából (ugye teljesen világos, hogy a PhysX az nem fizikaként, hanem grafikaként van jelen - de ez lényegtelen). Az NV-nek konkrétan venni kell mostantól a játékokat, ha eladást akar generálni, mert ezek nélkül nincs az az ember, aki drágábban vesz GeForce-ot a gyorsabb Radeon mellett (fanokra ugye nem lehet építeni ... általában az emberek nagy többsége a saját érdekét nézi).

    A Crytek TWIMTBP szerződése már a múlt évben lejárt és nem újították meg. Ellenben beálltak az AMD-hez, mivel a CryEngine 3 főleg az Xbox 360-hoz készül, és a Xenos az AMD fejlesztés. Nyilván nem kérdés, hogy az AMD ismeri a legjobban a rendszert. A Crytek a saját érdekét nézi, az NV-t kb. leszarja. Jelenleg az AMD tud nekik segíteni.
    A fizikáról a GDC-n nyilatkozott Yerli, amikor megkérdezték, hogy vesznek-e PhysX-et/Havok-ot ... arra rögtön rávágta, hogy nem ... válasz röviden: teljesítményben sokkal jobban járnak egy saját rendszerrel, mert azt a motor igényei szerint fejlesztik. Bár azt megjegyezte, hogy a Havok bemutató nagyon tetszett neki, de nem lát benne olyan dolgot, amit a jelenlegi saját fejlesztésű rendszerük ne tudna megcsinálni.

    Az őszi GT300 starthoz mondom, hogy kvázi hibátlan type out kell. Ilyen a történelemben sohasem fordult elő. Nem mondom, hogy nem lehetséges, de a realitás talaján maradva 40 nm-en a január a reális időpont. Persze ettől most vonatkoztassunk el. Jön a GT300 és kész. Mit fog adni a DX11 az elején. Tesszellátor támogatást ... a többi újításhoz idő kell, mint a DX10 esetében. Persze nem sok, de minimum egy év. Eleve a fejlesztők a gyártók dokumentumai alapján dolgoznak, jelenleg a Techland és a DICE aki hozzáfogott a DX11 portolásba, de messze nem viszik túlzásba. Mellesleg ez a két stúdió DX10 motort csinált, tehát AMD partnerek. Ugye csak az AMD-nek vannak fejlett DX10 dokumentációi, így a stúdiók azoktól a cégektől kérnek segítséget, akik segíthetnek nekik. DX10-ben pedig az AMD a top, így máshoz nem tudnak menni. Az NV a CUDA-val volt elfoglalva, így az ő rendszerprogramozói nem annyira képzettek, mint az AMD-sek.
    A userek tömkelege nem fog venni DX11-es karit. Pláne nem méregdrága NV-t, mert a GT300 nem az olcsóbb szegmensbe nevez (gazdasági válság stb.). A középkategóriás DX11 chip pedig az NV-től nem az év végén jön. Persze konkrét infót megint nem mondhatok, de általában 3-4 hónap szokott lenni az átfutás. Talán most sem lesz több. :N
    Mellesleg ott egy kellemetlenség is, az RV870 személyében, ami várhatóan előbb jön a GT300-nál. Elméletben az AMD a GT300 startra időzítheti az X2 verziót. Mi a garancia arra, hogy a GT300-at választják. A PhysX annyira nem érdekli az embereket, nézd meg a felméréseket. Mindenki a teljesítményre hajt elenyésző tömeg választ a DX10.1+tesszellátor miatt kártyát, és még elenyészőbb a PhysX miatt. A vásárlók többsége szerintem azt sem tudja mi az a DirectX, de hallotta, hogy valami jó dolog, és nézi a minél nagyobb számot. A PhysX-ről meg kb. fogalma sincs ... azt sem tudja, hogy létezik. :)

    A G80 az eleve az Ati csődjére ment. Csak azért nem mentek a vörösök a csődbe, mert az AMD-nek elég tartaléka volt. Ha a felvásárlás nem történik meg, akkor már rég az NVIDIA az egyeduralkodó a CUDA-jával. :K

    És a DX az melyik grafikus processzorgyártóhoz kapcsolható? Azt az MS fejlesztette, ahogy leírod, aki nem gyárt grafikus processzort ... ergo a cég totálisan gyártófüggetlen (bár durván AMD puszipajtás, de ezt most hagyjuk ;] ) a PC-s játékpiac életben tartása a célja.

    tlac: A HD Radeon tesszellátort a Tesselation SDK-n keresztül lehet támogatni. Ha van a játéknak Xbox 360 verziója, akkor copy-paste, ha nincs, akkor meg kell írni a kódot. Nyilván DX11 hiányában mindenki a Tesselation SDK-n nyomul, így a jelenleg fejlesztett projektek tesselation kódja meg lesz írva a Radeonokra, és a DX11 kód lesz az extra meló. De ez a DICE szerint 3 óra pluszmunka (konkrét tapasztalat birtokának hiányában én elhiszem nekik :) )
    A DX11 tesszellátor egyébként maximum 64x-es tesszellálásra képes, míg a Xenos 15x-ös.

  • tlac

    nagyúr

    válasz VinoRosso #264 üzenetére

    Csak hipotetikusan:
    Az nvidia ősszel piacra dob egy dx11es VGA-t, ami legalább ugyanolyan jó lesz árban és teljesítményben, mint a konkurrens temék.
    ...

    tartok tőle, hogy ha az nv jó kártyát is csinál dx11-ben, nem fogják sokkal többen venni, mint most
    egyrészt most az van a fejekben, hogy az ati jobb, másrészt ha igaz lesz, hogy dx11-ben a 4830/50-es kártyák is elfogadhatóan fognak menni a dx10.1 miatt, akkor ezek a tulajdonosok (akikből rengeteg van) nem fognak ugrani dx11-es nv-t venni

  • VinoRosso

    veterán

    válasz Abu85 #262 üzenetére

    Egy DX11-es játék szebben néz majd ki és gyorsabban fog futni a DX10.1-es Radeonon, mint a DX10-es GeForce-on

    naná, mivel a dx10es geforcok nem támogatnak dx11-et. Ez kb olyan mélyenszántó gondolat, mintha azt mondanád hogy a sas gyorsabban repül a struccnál. De a GT300 mióta dx10es? :U

    Ha lehet úgy fogalmazni jelenleg az NVIDIA játékokat vesz ..

    Nem jelenleg, ez mindig is így volt. De nem csak az nvidianál van ez így. Elég csak a doom3/HL esetére visszagondolni. Lobbi mindig is volt/van/lesz, nincs ezzel semmi gond, amig van lehetősége választani a fejlesztőnek és a felheasználónak. Majd amikor nem lesz, hanem azt mondják hogy ezt kell használnod, mert nincs más, akkor lesznek gondok(illetve ott vannak)...

    A Crytek sosem fog Physx-et használni. Maga a Boss mondta

    Yerliék ilyet szóltak volna? mikor? Melyikük mondta? Furcsa ezt így hallani, mert szerintem elég szoros kapcsoaltban lehetnek az nvidiával ahhoz, hogy legalább elgondolkodjanak a phsyx használatán. Pláne most, hogy az erőforrásaik nagy részét
    konzolos fejelsztésre fogják fordítani.Alapjában véve nincs semmi gond a cry2es fizikával, viszont állítólag elég "kusza" a kód, és sokba kerülne rendbettenni. hogy újrafelhasználható legyen, vagy nagyobb mértékű változtatást hajtsanak rajta végre. Nem lepne meg, ha elkezdenék használni a phsyxet, mert lehet, hogy anyagilag jobban kijönnek vele, mint egy reakftorált felturbózott cry2es fizikával. Arról nem is beszélve, hogy mennyit gyorsulna tőle az engine. Azt meg gondolhatod, hogy ha a cry3 physxel fog kijnni, az mennyire megéri az nvidiának. Bizony nem csodálkoznék azon, ha már felhozták volna nekik a témát a zöldek.

    Miért támogasson egy fejlesztő egy olyan technikát, ami a többségnek nem áll rendelkezésre.

    Csak hipotetikusan:

    Az nvidia ősszel piacra dob egy dx11es VGA-t, ami legalább ugyanolyan jó lesz árban és teljesítményben, mint a konkurrens temék. Ezesetben nem beszélhetünk sem a dx10.1 támogatás hiányáról, sem arról, hogy kevsé nvidia kari van a usereknél. Erre értettem azt, hogy visszanyal a fagyi, mert ha az nv lobbinak sierül bezsebelnie egy két neves játékot phsyx támogatással, akkor az ati lesz abban a helyzetben, amiben most az nvidia van, mert userek tömkelege fogja venni az nv karikat azért, hogy hiperszuper robbanásokat lásson, szétpüfölhesse a berendezést, ementáli sajtot csináljon a falakból, roncsderbit játszon a kedvenc hummerével stb...lefogadom hogy akkor is lesznek majd olyanok, akik azt mondják hogy az a csúnya ati nem támogatja a physxet, pedig az milyen hiper szuper jó cucc, de az ilyenektől áll az égnek a hajam. Ez a verseny, és ez így van rendjén, az ati a büdös életbe nem fog támogatni semmit, ami az nvidiától jön és vica versa. Enélkül nem lenne fejlődés, hanem szépen megszületnének a paktumok a hátunk mögött. Így viszont mindegyik gyártó fejlesztésre van kényszerítve,a mi nekünk csak jó. Na most...játékokat feljeszteni nem pár hónap, hanem egy hosszú fáradságos folymat. Aki pénz szerez egy ilyenre, és engeriát áldoz rá, az igyekszik minél tovább elnyújtani a termék életciklusában a gyümölcsöző szakaszt. Vagyis biztosra vehető, ha most jön egy csomó dx9es játék, és éppen csak szálingóznak a dx10.1re épülők, és ősztől már elérhető lesz a teljesen dx11, nem lesz túl sok játék, ami kimondottan dx10.1re alapoz. Ergo arányaiban sok dx9es játék volt/van, kevés dx10/dx10.1, és sok dx11es fog készülni. Az nv nem csinál mást, csak követi ezt a hosszú távú trendet, ezért hosszú távú stratégiát alkalmaz, ezért csinál komplex chipet, ezért akar x86os liszenszet, mert nem félévekben gondolkodik. Az atinak meg egyszerűen nem volt más esélye, csak az, hogy rövid távú stratégiát kövessen, mert szorongatott helyzetben volt a g80 miatt, és az amdtől sem jött úgy a jatt, mert K9-et meg a c2d szorongatta. Akkor is egy csomóan temették az amd-t meg az atit is, érdekes módon nem mentek csődbe, pedig közel sem voltak olyan tőkeerősek mint az nvidia. Ezért kevés esélyét látom annak, hogy az nvidia kiszálljon a grafikából. Ha ki akarnának szállni, akkor nem ölnének dollármillliókat egy olyan architektúra elkészítésébe, ami elve nem lehet sikeres, hanem szépen felállnának, és azt mondanák, hogy mostantól kezdve ezt meg ezt fogjuk csinálni, mert nem fogunk labdába rúgni itt és itt, ahogyan tette pl az abit. Ráadásul ők elég jó lapokat csináltak, csak nem érte meg nekik a gyártás, és simán relaizálódott bennük, hogy ha folytatják nem sok babér terem nekik. Tartom annyira az nvidiát, hogy képesek efféle ésszerű döntéseket hozni, és mivl nem hallani semmiféle kivonulásról, ezért puszta rosszindulatnak tételezem fel az efféle találgatásokat azoktól, akik valamiért fújnak az nvidiára, realitás alapja szvsz nincsen. Ha majd felszáll a vörös köd, és kitisztulnak a gondolataid, akkor te is meg fogod érteni ezt, mert nem egy bonyolult dolog, másrészt meg nem vagy egy idóta, csak elfogult.

    Nem tudok olyan technológiáról, amit nem végzett volna ki egy független platformra épülő.

    Mint tudjuk a directx MS független, multiplatform szoftver, ezért kell minden egyes új dxnél is új windowst feltenni. Persze...

  • tlac

    nagyúr

    válasz Abu85 #262 üzenetére

    Ez nem sok munka, a Tessellation SDK-ből könnyű DX11 kompatibilis kódot csinálni.

    a másik irányból milyen?
    a dx11-es tesszelátor vmi tákolással fog menni dx10.1-en?

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #261 üzenetére

    Tisztázzunk pár dolgot. Egy DX11-es játék szebben néz majd ki és gyorsabban fog futni a DX10.1-es Radeonon, mint a DX10-es GeForce-on. Másrészt ... szerencsére a DX11-ről lehet beszélni, mert nincs róla NDA. Két stúdió dolgozik DX11-es motoron (illetve egy DX10-ből fejlesztett változaton ... ez nem jelent majd problémát, mert a DX11 a DX10 kiterjesztése - tehát nem ilyen kamu DX10 lesz, mint a DX9-nél volt szokás), ahogy az a GDC-n kiderült, ők a DICE (Frostbite Engine) és a Techland (Chorme Engine). Az DX11 váltás egyelőre azért kell, mert az AMD Tesselation SDK nem működik a GeForce-on (világos, hisz AMD SDK ;] ), így a DX11-gyel, kell majd életre kelteni a GT300 tesszellátorát. Ez nem sok munka, a Tessellation SDK-ből könnyű DX11 kompatibilis kódot csinálni. Legalábbis a DICE szerint a DX11 portolás három óra volt. Egyelőre több dologban nem gondolkodnak a DX11-nél, mert a Compute Shaderen kívül, minden szükséges dolgot tud a DX10.1 (illetve a Compute Shadert is támogatja, csak némi megkötéssel). Gyakorlatilag az új textúratömörítési eljárások szintén emulálhatók a DX10/10.1-es karikon ... persze némileg lassabban. A Gather4 mint legfontosabb dolog, ott van a DX10.1-ben.

    Sajnos az NV az elmúlt hetek alapján nagyon ramaty helyzetben van. Voltam a héten konferencián. Most már nem az átlagos teljesítménnyel, hanem egy-egy megvett játékkal támadnak a zöldek.
    Az NV GF GTX 275 PR doksija egyszerűen teljesen más elvre épült, mint a régiek. Még a GTX 295 megjelenésénél fel voltak sorolva a top játékok és le volt mérve a a HD 4870 X2 teljesítménye. (Természetesen itt bevett szokás, hogy szándékosan olyan beállításokat keresnek, ahol a saját kari nyer. Ez nyilván PR doksi, az AMD is ezt csinálja. Eredményt ugye egyikük sem tud hamisítani, mert ellenőrizve vannak, de nyilván olyan beállításon tesztelnek amit jónak látnak, csak ugyanazok legyenek a körülmények, mindkét rendszernél.)
    A GTX 275-nél már ilyenről nem találtunk infót a PR anyagban, mert az NV alig talált olyan beállítást, ahol a HD 4890 verve volt. Két játékért meg kb. felesleges grafikont csinálni, mert még a végén rákérdeztek volna, hogy miért hiányzik a Crysis Warhead, Enemy Territory Quake Wars ... stb.
    Ettől függetlenül sírva röhögtek az anyagon az újságírók, mert le volt tesztelve az UT 3 Physx-es pályákkal, a Mirror's Edge Physx móddal, meg a Physx-es techdemók. És képzeld nyertek a GeForce-ok a procival számoló Radeonok ellen. ;]

    Ha lehet úgy fogalmazni jelenleg az NVIDIA játékokat vesz ... kb. havi egyet, és az összes többi programban el lesznek verve. Nem tudnak jönni a PR anyagokban az ár/teljesítménnyel, mert a konkurens Radeonok gyorsabbak és olcsóbbak. Árcsökkentésről meg szó sem lehet. kb ... ez a mai siralmas helyzet. A jövőbeli PhysX-ről meg azért nem beszélnek, mert kérdéses a jövő. Miért támogasson egy fejlesztő egy olyan technikát, ami a többségnek nem áll rendelkezésre.

    A Crytek sosem fog Physx-et használni. Maga a Boss mondta, hogy nem akarnak külsős technikát alkalmazni, továbbra is saját rendszert csinálnak mindenre.

    A PhysX-nek amúgy van menekülő útvonala. Ki kell szedni a CUDA-ból és életben marad. Ellenkező esetben meg tényleg nem nehéz belátni mi lesz vele. Nem tudok olyan technológiáról, amit nem végzett volna ki egy független platformra épülő. :) Mellesleg az NV-nek sokkal jobb GeForce eladási mutatók kellenének a CUDA-s Physxre. A jelenlegi HD 4890:GTX 275 féle 30:1 az baromi kevés. A többség gépe a lényeg a fejlesztőknek.

  • VinoRosso

    veterán

    válasz Abu85 #258 üzenetére

    Igen ezeket már mind ismertem, tele van vele a padlás, hogy miért nem olyan jó dx10.1 alatt a radeon ezekben a játékokban. Igazából magyarázatnak elfogadható, de a tényeken nem változtat. Van 2 játék amiben jóval gyorsabb az rv670< radeon a konkurrens geforcenál a gs miatt, és a többiben meg ugyanolyan fps-t hoz a geforce, vagy jobbat dx10. alatt. Ez nem azt jelenti, hogy nincs előnye a dx10.nek a dx10el szemben, ez a száraz tény csupán. Azt hiszem az is tényként kezelhető, hogy legalább ennyi előny( ha nem több ) is van a pshx-es játékokkal az nv-nek. Lehet, hogy a physx el fog halni ( bár ezt még nem lehet 100%osan kijelenteni ), de abban biztosak lehetünk szerintem mindannyian, hogy előbb fog elsorvadni a radeonok dx10.1 miatti előnye Physxes játékok idén is jönnek, meg jövőre is, viszont az ati előnye csak a GT300 fog tartani a dx10.1el, ami lehet h ősszel már meg is jelenik, ergo van 6 hónapja hátra. kiváncsi leszek, majd jön e physxes dx11-es játék, mert akkor könnyen előfordulhat, hogy visszanyal a fagyi az atinak( pl ha mondjuk a crysis 2 lesz az ).Mindenesetre én a Metro 2033at nagyon várom, mert a GSCből kivált fejlesztőkre épülő csapat csinálta( bár emiatt nem vagoyk benne biztos, hogy ki fog jönni idén ;] ), a Shadow of Chernobyl meg a kedvenc játékom volt. BTW ez dx9es gamma lesz, ennek ellenére elég szépnek igérkezik, legalábbis az előzetes videók és screenshotok alapján. Ha úgy fog futni legalább, mint a stalker anno, akkor szerintem hardvergondjai sem lesznek, mivel azóta a vasak eleget fejlődtek.

  • Departed

    őstag

    válasz schwartz #259 üzenetére

    Nem rég váltottam a 22 colos LG-re a 17-esemről, már ezis nagyobb mint a tévém :D
    Nagyobbam nem hiszem hogy lesz, bár ezt mondtam a 17-esről is :)
    Lényeg ami lényeg: most jól elvagyok minden játékkal maxon, aztán majd ha kell, van mit kikapcsolni (AA, AF), vagy nem ultrára tenni a játékot...bár egyenlőre nincs szó Crysis 2-ről, más meg nem ilyen megfektetős :K

  • schwartz

    addikt

    válasz Departed #257 üzenetére

    És végül a valaha volt legjobb kártyám a 4850, ami ár/érték arányban égbekiáltó módon adott egy nagy pofont az NV-nek

    Hidd el, hogy nem lehet mindenre rahuzni ezt az ar/ertek aranyt. (foleg ha nincs mellette kello teljesitmeny)
    Valts csak feljebb egy nagyobb monitorra s majd meglatod mirol beszelek...

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #253 üzenetére

    A Stormrise-ban igaz, hogy a DX10-ben is gyorsabb a Radeon a konkurens GeForce-nál, de a DX10.1 még +25%-ot tesz rá a négymintás SSAO és árnyék szűrés miatt - Gather4 előnyök, negyedannyi munka ugyanazzal a végeredménnyel. Erről a GDC-n beszéltek a játékfejlesztők (Techland, DICE, Creative Assembly, Ubisoft Montreal és EA Phenomic) ... itt a közös anyaguk ... [link]
    A Far Cry 2-őt az picit aranyos, azt ugyanis azért írták meg DX10.1-re, hogy az AMD egy fázissal többet számoljon, mint a GeForce ezzel lassítva a Radeon kártyákat. Ezért nincs például DX10 mód engedélyezve a Radeonoknak, mert akkor ugyanannyit számolnának a kártyák, az az egy fázis az kb. 10-15% mínusz az AA teljesítményen a Radeonoknak. Persze előny, hogy az alpha teszt objektumoknál is van AA, de ezekből az objektumokból nincs sok a játékban. Az Ubisoft például a Far Cry 2-nél sokallt be az NVIDIA-ra ... ezek után az NV a szerződésre hivatkozva még a PhysX-et is erőltetni akarta, így az Ubisoft inkább kivásárolta magát TWIMTBP kötelezettséges alól.
    A S.T.A.L.K.E.R. Clear Sky az AA nélkül gyorsabb DX10.1 módban és sokkal szebb ... össze van hasonlítva. AA-val meg lassabb a DX10.1 mód, de az Alpha test miatt több a számítás is, tehát összességében ott vagyunk, hogy az AMD a konkurens GeForce rendszerekkel hasonló sebességet ér el látványosan jobb képminőség mellett.(ezt meg is írtuk) Extra GDC anyag a GSC-től - [link]
    A PhysX-et akkor hozzuk fel példának, ha ipari platformba lesz építve, addig csak cukor nélküli cukormáz, ami borítékolható, hogy ki fog halni. Az Anandtech már megírta róla a nem túl rózsás véleményét. Mi újságírók - minő meglepetés - újságírók vagyunk. ;] Minden szempontot a felhasználó érdekéhez kell viszonyítanunk. A gyártók érdekét kb. leszarjuk, nem érdekel minket. :)) Elmegyünk a sajtótájékoztatókra, bratyizunk velük, de a marketingmaszlagot nem adjuk át a világnak, mert az nem érdekel senkit, max a fanokat. Innentől kezdve van egy szoros határvonal a dolgokban, amelyik technika nem épül ipari szabványra, az elgondolás szinten halott, tehát nem veszünk róla tudomást, mert az elmúlt 10-14 év tapasztalata alapján minden ilyen (nem szabványos) megoldás kihalt. És ezek bizony tények, ha már egy megoldás át ment volna a szitán, akkor más lenne a nézőpont, de az összes gyártói technológia a kukában végezte, mert jött rá egy általános független megoldás (ide is megérkezett az OpenCL és év végére már lesz Compute Shader, tehát baromira nem nehéz kitalálni, hogy a CUDA és az Ati Stream az bukó a PC-s VGA piacon). Nem véletlen, hogy az NV felvetette a Physx OpenCL-be való pártolását, mert az Intel és az AMD a Havok-ot beteszi a szabványos platformokba. Itt látszanak egyelőre az érdekkülönbségek. Az Intelnek és az AMD-nek az számít, hogy a Havok elterjedjen, az NVIDIA-at nem érdekli a PhysX, ennek a technikának csak az a célja, hogy az AMD-t és utána az Intelt rávegye a CUDA támogatásra, hogy az NV saját rendszere legyen a szabvány teljesen GeForce-ra optimalizálva. Innentől kezdve az AMD jöhet az kis chipekkel és a "kivégzős" Sweet Spot politikájával, a Multi GPU-s skálázást megölik a CUDA-n és éljen, az NV nyert. Ez az egész lényege. Csak a CUDA valamiért nem akar terjedni a játékfejlesztők körében. Még mindig a DX a fő platform és az OpenCL, Compute Shader felé kacsingatnak a jövőre nézve (ahogy ez a GDC-n ki is derült ... mindenki a Havok-ot figyelte a PhysX Apex bemutató pedig nem éppen telt ház mellett volt lezavarva). És nem azért érdekelte a fejlesztőket a Havok, mert nekik ez új, hanem azért, mert orrba-szájba hangoztatták, hogy a Havok rendszer platformfüggetlen. Nyilván ha az NV akar a PhysX-el kezdeni valamit, akkor ki kell szakítania a CUDA-ból. :)
    Rosszul értelmezed a PhysX támogatását is. Az, hogy egy játék a PhysX API-re épül nem jelenti automatikusan a hardveres támogatást, ugyanis az platform, tartalmaz egy szoftveres és egy hardveres kódolást. Ergo a fejlesztő eldöntheti, hogy használni akarja-e a hardveres fizikát vagy nem. Speciel UE3-as játékból ami használja a fizikai gyorsítást az az UT3, a Mirror's Edge és majd a Star Tales (valamikor kijön idén). Ezenkívül támogatja a GeForce gyorsított fizikát: Ghosh Recon Advanced Warfighter 2, Warmonger, Sacred 2, Cryostasis. Emellett PhysX lesz még idén: Shattered Horizon, Metal Knight Zero, Metro 2033, U-wars. Van még több hardveres PhysX játék is, de az kompatibilítási problémák miatt csak a PhysX kártyán tud működni. Természetesen a PhysX kártyát az új GeForce PhysX játékok is támogatják, bár itt meg kell jegyezni, hogy normális kód csak az Unreal Engine 3-ban van a gyorsítóhoz írva. Ez gyakorlatilag azt jelenti, hogy helyenként szart sem ér a rendszer (pl.: Cryostasis, Sacred 2). - na jó a szarnál azért többet ér, de csodát ne várjatok. :D
    Ezenkívül még jön még pár Physx játék idén, de ezekről az NDA miatt nem nyilatkozhatom ... és a DX10.1-et, valamint a tesszellátort támogató játékok is titkosak. Sry srácok, de megkötötték a kezemet ... még a számukat sem mondhatom el ... és ezt komolyan veszik (priviben sincs infó :N ), majd ha lejárnak az NDA-k, akkor elárulom. :K

    Az RV870 - GT300-ról még korai beszélni. Eleve semmi hivatalos anyag nincs, hogy gyakorlatilag milyen chipek lesznek. Ha a nem hivatalos infókat vesszük alapul, akkor gázban van az NV, mert az RV870 az 1200 SP-jével kb. 160-170 mm^2 lesz. Amiből egy X2 baromi olcsó, és kurva gyors. A GT300-at az 512 SP-vel és megváltozott ütemezővel 430 mm^2 főlé érdemes tenni, de inkább 450-460-at mondanék, mert a textúrázócsatornáknak mostantól egy helyett négy szűrő kell a DX11 miatt, ami szintén tranyózábálás. Plusz ugye ott van a cache szervezés, ami az infók szerint továbbra is blokkszintű. Mellesleg, ha az AMD MCM modult csinál az RV870-ből, akkor egy RV870 X4-re is lehetőség van, amire a múlt évi infók szerint idén ősszel lenne támogatás a 8 utas CrossFireX személyében. Továbbá nem említettük, hogy az októberi rajthoz már a Juniusi tape out-nál kvázi hibátlan chip kell, így 6-7 revíziót lehet készíteni amiben javítani kell a felmerült hibákat. Általában 10-12 revízió készül egy chipből a végleges forma előtt. Mérnöki csoda, ha ezt az NV megcsinálja. Az AMD RV770 startja előtti hirtelen órajelemelés gyerekjáték volt anno ehhez képest.

  • Departed

    őstag

    válasz VinoRosso #256 üzenetére

    Köszi a beszámolót! Tehát állandóan át kéne irogatnod a cuccok részedet, a folyamatos nyomonkövetéshez ;)
    Hát nálam Voodoo3-->Geforce4MX-->Geforce FX5600 (jáj) -->Radeon 9700Pro --> X800GTO2@X850XTPE ---> X1800XL ---> HD4850 a sorrend, tehát mint látható, Nvidiák aztán Ati-k jöttek a gépembe, meg is mondom miért.
    Az Nvidia mindkét kártyája viszonylag olcsó volt, de ár/érték arányban egyáltalán nem voltak rendben (főleg az 5600, az valami rosszullét/idegroham lehetett amikor megvettem, két hónap múlva repült is), és valahogy mivel én élsimítás-fan vagyok - jelmondatom: le a recékkel - én úgy emlékszem hogy gondjaik voltak sok esetben velük, emellett az Ati-jaim fényévekkel jobban tuningolhatóak voltak mindigis mint az NV kártyák. És valahogy számomra mindig stabilan működőek. :K
    És végül a valaha volt legjobb kártyám a 4850, ami ár/érték arányban égbekiáltó módon adott egy nagy pofont az NV-nek. Tájékozódtam is hogy miért, hát a gyártástechnológia fejlettsége miatt. És ez mostanában egyre jobban kijön ahogy tűnnek el az NV logók a játékokból.
    Fan-nak nem mondanám magam, ésszerűen döntök inkább, és a max 35k-s kategóriában (annyiért vettem októberben) az Ati a befutó, 1680-ban meg tökéletes a 4850.
    Ami miatt viszont itt is vagyok, hogy érdekel hogy az NV miket mutat föl most és a jövőben, és egyenlőre nem igazán megfelelő konkurens termékeket.
    De mint mondtam, várom a fejleményeket, addig meg futtatok mindent maxon AA-val a Sapphire remekével :K
    A lényeg viszont marad: hajrá Nvidia, főzzetek ki valami ütőset :K

  • VinoRosso

    veterán

    válasz Departed #255 üzenetére

    Nem csalódtam az atiban, bár több ati kártyával volt gondom mint nvdiával, vagyis inkább az ati driverekkel volt problémám. Nem fogom én egyiknek se a pártját Isten ments, csak nem bírom, ha valaki szemellenzőt hord, és közbe oltogat a hülyeségeivel. Az éremnek mind2 oldalát illik figyelembe venni, ha teljes képet akarunk kapni, és sokan hajlamosak megfeledkezni olyan dolgokról, amik számukra nem szinmpatikusak, és extrapolálni a kedvező részleteket, mintha azok az kép egészére jellemzőek lennének. Amúgy én elég sűrűn váltogatom a kártyáimat, részben anyagi okokból, részben meg ez a hobbim. Idén idáig volt 3 ATI és 3 Nvidia, szóval tényleg senki nem mondhatja, hogy bármelyikkel szemben is elfogult lennék. 3850el tökéletesen meg vagyok elégedve, de sajnos úgy hozta a sors, hogy meg kell szabadulnom tőle :( . 3870ből volt 3 darab, midn3 esetében rengeteg problémám volt a driverekkel, pedig az első és az utolsó közti intervallum 1 évet felölel, leszámítva 1-2 drivert az összes katát kipróbáltam ami az elmúlt 1,5 évben kijött. Volt még egy 3650em is idén, az sem volt rossz, de inkább olcsó volt mint jó :D , ezzel semmi gondom nem volt, simán fel lehetett húzni 3670 szintjére sőt még tovább is, de komoly grafikai munkára ez nagyon harmatos már. Tavaly még volt 4850 ez elég is jó volt, semmi problémám nem volt vele, addig amig meg nem pusztult 2 hónappal vásárlás után egyik napról a másikra, és mivel nagyon sok ismerősöm ugyanígy járt, ezért gariból visszajövő kártyát lecseréltem egy 9600GTre inkább. Volt még egy 3870 CF-öm, életemben nem szívtam annyit VGA-val, mint ezekkel p35ben, 2 hétig voltak meg aztán lecseréltem egy GX2re. Az se volt túl jó, úgyhogy azt meg 8800GTXre cseréltem, le meg volt még 8800GTS-em( G92 es) de a kettő közül inkább a GTXet tartottam meg mert stabilabb fps-eket produkált, aztán hébe hóba cserélgettem még egy csomó kártyát 8400GStől 8800GTig bezárólag szinte mindent, ezeket nem írom le mert megőszülök, mire vége lenne. :D

    (#254) Dare2Live ;)ersze hogy marad6, egyelőre minden nyitott, ezért bármilyen kijelentés csak esélylatolgatás, hogy ki nyeri a BL döntőt, bár az már nagyobb valószínűséggel sejthető. ;]

  • Departed

    őstag

    válasz VinoRosso #253 üzenetére

    Vajon nem lenne jobb inkább a múltbéli kártyákat és jelenlegi kártyákat összehasonlítani? Mert ugye amik majd lesznek, azokkal kapcsolatban csak találgatások vannak, 100%-os kész infók természetesen még egyik oldalról sincsenek, hogy milyenek lesznek az idei újgenerációs kártyák. :K
    Ami szerintem az igazán fontos, az a létező és kapható kártyák ár/érték aránya. Az első DX10-képes kártyák generációinál kétségkívül az Nvidia volt igazán nyeregben, ez fordult meg az RV770 beköszöntével, amire az Nvidia hosszú ideig nem tudott úgy válaszolni, hogy a teljesítményt és az árat egyszerre jól mozdítsa. Ez köszönhető pl. a gyártástechnológiák különbségének, hogy baromi költséges a GTX2** kártyák előállítása.
    A helyzet most pedig az, hogy az Ati kártyák nagyon fogynak hónapok óta, mert ár-érték arányban nagyon ott vannak. Az meg inkább pozitív, hogy az Nvidia elkezdte helyretenni az árakat, például a legolcsóbb 4890-es és gtx275-ösök között 5 ezer forint a különbség előbbi javára. Tehát el lehet gondolkodni az ártól függetlenül, hogy Ati dx10.1-gyel (a H.A.W.X azért nem volt rossz játék) vagy Nvidia Phisx-szel. :K
    A végén úgyis a vásárló jár jobban, mert szárnyal az Ati, de az Nvidia sem úgy tűnik, hogy hagyni fogja magát...
    Szóval szerintem ne egymást marjuk, hanem mindenki belátása szerint döntsön. Én az Ati kártyámmal vagyok elégedett maximális mértékben, más meg az Nvidia kártyájával játszik remek órákat.
    És a történet folytatódik, mi pedig figyelmesen nyomon követjük, elvégre nagyrészt minden értünk, vásárlókért (is) történik... :R

    VinoRosso: Amint látom jelenleg Ati-d van, a következőd Nvida kártya lesz? Valamiért csalódtál az Ati-ban, vagy jobbnak látod amit az Nvidia kínál? :R

  • Dare2Live

    félisten

    válasz VinoRosso #253 üzenetére

    csak egyet emelek ki:
    "áadásul most kiderült, hogy 1600 sp sem lenne elég, mert az csak 2,4TFlops..."

    ettől még maradat az ATInak kedvező felállás, hogy "5870" bár gyengébb de nem annyival mint amennyivel olcsobb.

  • VinoRosso

    veterán

    válasz R.Zoli #251 üzenetére

    El vagy tévedve, a stormrise nem a dx10.1 miatt fekszik az ATI kártyáknak hanem a GS miatt. Ez nem új keletű dolog, hiszen a CoJ-ben is volt, és ott is nagy az előnye az ATIknak, pedig nem dx10.1es, hanem csak simán dx10-es render. Ha dx10.1et akarsz hasolnítani, akkor fc2 vagy CS-t is illik figyelembe venni, ezekben nincs GS, viszont van mondjuk egy olyan godrays effekt, ami a jelenlegi videókártyák mindegyikét megfogja, és érdekes módon dx10ben és dx10.1ben sem jobb az ATI az nvivdiánál ebben. Egész egyszerűen azért mert nem buta shaderigényes számolás, hanem egy komplex algoritmus van mögötte, ami a geforcoknak fekszik inkább. Sőt dx9ben is lehetett olyan eljárásokat használni, ami a sok sp-t tartalmazó kártyáknak kedvez.
    De most van pár játék, amiben GS-t használnak, ami egyébként szerintem nem egy rossz dolog, csak az enm tetszik, hogy ez alaján akarják megítélni az összképet, ami ennél sokkal árnylatabb, aztán amikor közli az ember a tényeket, akkor leharapják a fejét. Nyugodtan fel lehet hozni a PhsyX-et példának, mert kb annyit számít a futási teljesítményben, mint a GS, mégse sipárgott senki, mikor az nvidia megvette az aegia-t hogy hú most vége az atinak. Ráadásul itt már készen voltak a játékok, nem kellett rájuk várni, és nem is akármilyen játékok voltak, pl GRAW1-2, Rainbow six Vegas, Mass Effekt, Cryostatis, vagy pl az UT3 és a motorjára épülő játékok, GOW, Mirrors Edge stb.. nem sorolm fel mindet, nézz utána hogy hány játék készült phsx-el, sokkal de sokkal több van már most, mint amennyi dx10.1es lesz év végéig. Bár addig szerintem nem kell várni a GT300ra, szerintem okóberben piacra fogják dobni, igaz ez csak tipp, és nem azért mert nv fan vagyok, vagy mert jóindulatú vagyok az nvvel szemben, nem...azért mert azt látom, hogy nagyon régóta nem volt érdemi újítás a nvidiánál, ebből arra lehet következtetni, hogy valamin nagyon dolgoznak a háttérben, mert bőven pénzük meglett volna rá, és hülyék lettek volna 25x átmatricázni egy kártyát, hacsak nem valami miatt le voltak kötve az erőforrásaik, és kötve hiszem, hogy azon filóztak volna, hogy neon vagy cyberpunk zöld színűre cseréljék a matricát a kártyájukon. + nem egy info lett megszellőztatve már idáig, hogy radikálisan növekedni fog az SP szám, és radikálisan csökkentik az előállítási költségeket. Nyilván így van, mert ők is tudják, hol vérzik el a jelenlegi rendszer, és minden valószínűség szerint azon voltak az évek során, hogy ezt kijívítsák. Ebből a G80 óta semmi nem látszott, csak növelték az SP számot, valamint arra mentek, hogy minél előbb utolérjék gyártástehcnológiában az ATI-t, ami őszre teljesülni is fog, valamint hogy redukálják a fogyasztását a kártyának. Nem tudom foigyelted e, hogy az általad említett 1,4 milliárd tranyós 55 nm-es változata kevesebbet eszik a sokkal soványabb rv770xt-nél. Szvsz ez sokkal nehezebb feladat lehetett, mint a GT300 feljesztése, mert nagyon rövid idő alatt kellett jelentősen csökkentenia mag fogyasztását. Közben meg kijött az rv790, és ez a feladat az ati számára megoldhatatlannak bizonyult ugynazon csíkszélességen, a növelt órajelnek köszönhetően többet zabál már mint egy GTX280, és teljesítményben is ugyanott van, és érdekes módon most nem vinnyog egyik ati fan se, hogy hú mekkora fos ekkora fogyastással ilyen teljesítmény fú...közbe meg várják a 4890x2-t, hogy milyen jó lesz majd, anno meg teljesen elképzelhetetlennek tartották a 280Gx2-t mert hogy az annyit eszik hogy nem lehet megcsinálni. Ilyenkor mondom azt hogy :W :W :W GTX285 ami fogyasztásban teljestményben is jobb, egyedül az árával vannak problémák, valamit azzal hogy nem támogat dx10.1-et. Őszre dx11-el az az 5-6 játék ami kijön is el fog futni dx10.1ben geforcon is, tehát ezt a piaci előnyt közel sem érzem jelentősnek, ha meg árban is sikerül versenyre kelni az atival, akkor bizony az r800 lesz bajban a 1200 SP-orával a 3,1 Terás GT300 ellen. Pár hónappal ezelőtt még csak gonolni se mertem ekkora lebegőpontos teljesítményre, igaz már akkor is hallottam, hogy az nv nagy dobásra készül, és mondtam is, ha nem 1200 körüli sp számmal jön a 4890 akkor őszre nem fogják tudni hozni az 1600 sp-t, ami ahhoz kellene, hogy versenybe tudjanak szállni a gt300al. Akkor Abu szokás szerint ösztönből lehurrogott, hogy miért ne lehetne 800 spről egyből 1600ra vagy 2000re váltani, nem kell a fokozatosság...ráadásul most kiderült, hogy 1600 sp sem lenne elég, mert az csak 2,4TFlops, és így a GT300 + 0,7 Tflops előnyben van, ami egy GTX260-nyi többletet jelent, ez azért már nem elhanyagolható.

  • Beowulf_78

    addikt

    válasz TTomax #247 üzenetére

    Persze azt se felejtsük el hogy ezek a DX10.1 játék nevek egy kalap meleg fingot se érnek. :B Olyan mintha nem is lennének. A Company Of Heroes új része agyonvágja mindkét hiper-szuper DX10.1 fícsörrel szerelt stratégiát. Ha már a blamánál tartunk... :B ;]
    A 25% előnyt pedig azért szajkózzák mert Abu linkelt egy ATI által gyártott reklámfilmet.
    Nem is értem ez alapján hogy lehet bármit is készpénznek venni. Ha nem így prezentálna egy önreklámot, az lenne a baj, viszont ez semmiképpen se mérvadó. Olyan Coca-Cola reklámot én még nem láttam ahol azt emelik ki hogy elvonja a kálciumot a fogakból, és hosszú távú fogyasztásánál porladni fognak a fogak. :U Szóval nem értem mit lehet várni egy elfogult, ATI által generált reklámtól... :B :P

  • R.Zoli

    őstag

    válasz VinoRosso #249 üzenetére

    DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek.

    Stormrise... Ami alapjaitól építve DX10-es motor és full DX10.1...A többi említett játékok azért nem éppen szín tiszta DX10-re épülnek...

    na és gtx275 ellen mit szánt, talán a 4870 x2-t? Csak nem tudom, hogy akkor a feljebb lévő 3 kártya ellen mit szán? Meg hogy miért késett fél évet a 4890-el, miért a gtx275-el egy időben jött ki...

    Ez pont fordítva volt , a GTX275-t küldték az RV790 ellen... DE az a gond ,hogy azóta jöttek DX10.1-es játékok is (HAWX v. Stormrise de a jövőben még több) amiben viszont veri a GTX285-t...

  • R.Zoli

    őstag

    válasz VinoRosso #243 üzenetére

    Ne haragudj de annyira nincs kedvem válaszolgatni a fanatikusok hozzászólásaira... csak tudnám, hogy külföldön miért nincsenek ilyenek???

    Detto, külföldön senki sem személyeskedik és a másik állításait nem ilyen halandzsa hülyeségekkel próbálja rossz fényben feltüntetni... Akkor én meg mondhatnám ,hogy a Te írásod egy elfogult gagyi NV buzulás... DE nem tettem, leírtam a véleményem és kész,nem támadtalak, Neked is cask ezt kellett volna tenned, erről szól egy egészséges vita... Szóval először magadba nézzél mielött mást akarsz osztani mert valóban pont ez megy ebben az országban ,hogy mindenki beszól csak a másiknak ahelyett ,hogy kész érvekkel vitatkozna...

    2006 novemberében jött ki a 8800GTX ennek 2008 júniusáig nem volt ellenfele, 8800 GTS és később a helyére érkező 8800 GT 2006 novtól 2008 júniusig ár/érték arányban is a legjobbak voltak, ezt mintha figyelmen kívül hagynátok. Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára. Szerintem egyik semm alkalmatlan különben nem venné meg senki, egyszerűen csak arról van szó, hogy az nv-nél nem fél évekre terveznek, hanem 2-3 éves ciklusra, és kidobnak egy értékálló chipet, amiben van annyi, hogy évekig profitálhatnak belőle.

    Ott bukik meg a dolog ,hogy gyakorlatilag a 2008 Júniusa óta mint ahogy írtad az NV a legtöbb pénzt hozó szegmensben nyagyon alúl marad az ATI középkategóriás chipjeivel szemben... A TWIMTBP szerződések sorozatos felbontása nem hiszem ,hogy az NV érdekében állt ,sőt mostantól kezdve nem lesz annyi NV optimalizált játék mint eddig volt így sokkal érdekesebb kép alakulhat ki... A partnerek profitjai visszaestek míg Ati vonalon szárnyalnak...Az NV Dx11-es chipjét év végére várják... Amit leírtál időszakot az egy nyereséges időszak volt az NV számára míg kb. ugyan ilyen hosszú időszak lesz ami bukó, szóval nem hiszem én ,hogy olyan nagyonh erre apelláltak... A piaci részesedése vesztése, a TWIMTBP szerződések felbontása, a fokozódó Ati kártya optimalizációk több software cégtől illetve a CUDA népszerűtlensége (ami ugye kevesebb eladott kártya esetén még inkább kisebb kört érint) biztosan nem volt belekalkulálva a dolgokba... Ha az Ati még a nyár végén kihozza a DX11-es chipjét akkor év végéig még nagyobb bukta lesz itt nekik sőt ki merem jelenteni ,hogy a 4770 megjelenésével ebben a szegmensben nem is lesz szinte kereslet NV kártyákra jó darabig... Ezt ha bekalkulálták akkor ok ,de kétlem...

    Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára.

    Az R600 egy kényszermegoldás volt ,hogy abban az állapotban hozták piacra... Ki kellett hozni és mutatni belőle valamit mert különben oriási presztizsveszteség és a partnerek bizalma is elveszett volna nem beszélve a fejlesztőkről akik semmit sem láttak volna az úgy architecturából... Az R600-nál buknia kellett volna az Atinak ez egy nyílt titok... DE látszik abból is ,hogy folyamatosan veszteségeket könyvelt el az AMD az Ati megvétele után mert túl drágán vettek meg egy olyan céget ami éppenhogy túl akart élni egy olyan projektet amibe az AMD nékül beletörött volna a fejszéje... A 3870 (Rv670) megjelenésével már látszott is ,hogy az R600 valami hasonló chip akart lenni de akkor az időhiány nem tette lehetővé a kibontakozást és most az RV770 környékén kezd beérni az architekt...

    Attól még hogy 512 sp van egy choben, nem feltétlen kell nagynak lennie. A radeonban 1200 lesz mégsem pattog egyikőtök se, hogy hú majd milyen nagy lesz a magméret. Nem hiszem, hogy megoldhatatlan feladat a tranyószám redukálása, senki nem mondta, hogy a jelenlegi architektúrát fogják továbbvinni, sőt ha visszagondolunk 192 bites kártyákról érkeztek hírek korábban, tehát sejthető, hogy jelentősen faragnak az előállítási költségen

    Ez mind csak feltételezés... Én meg mondhatom azt ,hogy más hírek pedig sokkal komplexebb chipről szólnak mint akár a GT200b volt ami sokkal több tranyó és nagyobb magméretet feltételez...Most akkor Te NV fan vagy mert az NV számára "jobb" hírt hiszed el én meg Ati fan vagyok mert a "rosszabbnak" hiszek??? Ugyan már... Én egyszerűen kételkedem abban ,hogy az NV újra visszaáll és vert helyzetből iszonyat pénzeken fejleszt egy új architektet ahol eleve hátrányból indul és most majd lever mindenkit... Lehet ,hogy így lesz de valljuk be nagyon kicsi az esélye... A Dx11 napjai is meg vannak számlálva, ergo gyökeresen új architektet fejleszteni 2-3 évre a a software render-ig... Na hát lehet ,hogy itt mondták a kozgazdászok ,hogy nem...

    Merem feltétlezni, hogy egy akkora szellemi tőkével rendelkező vállalat, mint az nvidia képes felfogni azt, hogy mi mennyire éri meg neki. 10000% hogy ők sokkal jobban átlátják a helyzetet amiben vannak, és nálam és nálad okosabb közgazdászok tömkelege áll a rendelkezésükre, hogy kikalkulálják mi éri meg nekik a legjobban.

    Mi is erről beszélünk...Ők már kikalkulálhatták azt is ,hogy nem éri meg itt maradniuk a VGA piacon és kiszállnak, marad a jövőben az Intel és AMD harca ők ebbe már nem tudnak beleszólni (x86 hiánya)...

    Egy chip "jóságát" elsősorban az határozza meg, hogy milyen alkalmazásokat futtatnak rajta, illetve hogy mekkora az a spektrum, ami alkalmas lehet a optimalizációra ezeken. Mindkát chip annak ellenére, hogy teljesen más felépítésű, ha megfelelő célra alkalmazzák, nagyon jó lehet általános alkalmazásokra.

    NA igen de mondjuk ezek a spektrumok eléggé behatároltak... Talán a Larrabee-re igaz amit mondasz de a mai GPGPU-k felépítése sokkal specifikusabb és alkalmassa teszi egy területre illetve alkalmatlanná egy másikra minimális kis architekt különbség... Pont ebben lesz a Larrabee előnye ,hogy sokkal általánosabb mint egy GPGPU viszont közelebb áll a GPU-k párhuzamos feldolgozási képességéhez mint wegy CPU... Nem véletlen ,hogy ez lesz a "jövő" Intzelék szerint sem akik ugye azért nagyokat nem szoktak tévedni...

  • VinoRosso

    veterán

    válasz R.Zoli #246 üzenetére

    DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek.

    persze főleg fc2ben meg clear skyban, ez már akkkora LOL, hogy nem bírom ki

    Az AMD az RV790-et nem is a GTX285 ellenfelének szánta hanem a GTX260 (216-os) ellen és ez sok mindent elmond..

    na és gtx275 ellen mit szánt, talán a 4870 x2-t? Csak nem tudom, hogy akkor a feljebb lévő 3 kártya ellen mit szán? Meg hogy miért késett fél évet a 4890-el, miért a gtx275-el egy időben jött ki...elvégre a gtx260 már elég régóta kinnt van. Ja és hogy mi értelme van versenyzőt harcba küldeni olyan elllen, ami ellen már van versenyképes termék(4870). És biztos hülye az a sok külhoni harveroldal, amiért olyan sok GTX275 vs 4890 tesztet csinálnak, mert nem tudják, hogy a GTX 260 ellen küldte harcba az ATI.

    De az én véleményem ettől még az, hogy mind szar, agymosott, marketingdumás

    ________________K__________A__________M___________U_______________________

  • Abu85

    HÁZIGAZDA

    válasz TTomax #247 üzenetére

    Ezt a kérdést már kitárgyaltuk, az NV döntött így, hogy nem támogatja a DX10.1-et. Az egyedül az NV mérnökei tehetnek arról, hogy ilyen ramaty helyzetben vannak. Az ipari szabványokat támogatni kell, ez mindenki érdeke, még az NVIDIA-é is. Senki nem akarja, hogy úgy járjanak, mint a 3dfx, pedig jelenleg ilyen irányba haladnak.

  • TTomax

    félisten

    válasz R.Zoli #246 üzenetére

    Ha meg ugye DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek...
    No hát akkor azt is megtudtuk,hogy az GT200b DX10.1 képes....
    Dobálózol itt a számokkal meg a százalékokkal... DX10.1-es eredményt hasonlítasz DX10-es eredményhez..
    Szerintem ez az ami "bukó"... meg még "orális" is... :U

  • R.Zoli

    őstag

    válasz schwartz #245 üzenetére

    Felőlem a kiskutyádat is berakhatod de attól nem változik a helyzet,amit írtam az tény... Az RV790 vs. GT200b viszonylatában az van amit írtam, DX9 alatt sem meggyőző az NV előnye (max. 10%) pedig ergo szerintetek erre lett kitalálva ez a kártya és ez a DX10-re is igaz. Ha meg ugye DX10.1 alatt nézzük a dolgokat akkor kb. 20-25% előnye van egy GTX285-höz képest az RV790-nek... Na ez az ami bukó és szopás NV-nek... Az AMD az RV790-et nem is a GTX285 ellenfelének szánta hanem a GTX260 (216-os) ellen és ez sok mindent elmond...

  • schwartz

    addikt

    válasz R.Zoli #241 üzenetére

    az NV KŐKEMÉNYEN SZOP MOST mert a bazinagy chipje nem bír komoly grafikai feladatokban a kis gagyi közép-felső kategóriába szánt "kis buta" Ati chippel...

    :Y :D

  • Beowulf_78

    addikt

    válasz Departed #242 üzenetére

    Én 1920x1200 tolom. Nem igazán érzem szükségét az AA-nak. :U Van hogy olyanom van és rákapcsolom, de nem vagyok vele úgy, hogy csak és kizárólag AA. :U

  • VinoRosso

    veterán

    válasz R.Zoli #241 üzenetére

    Ne haragudj de annyira nincs kedvem válaszolgatni a fanatikusok hozzászólásaira... :( csak tudnám, hogy külföldön miért nincsenek ilyenek??? Miért csak hungarian feature az efféle észosztás. :W, nincs még egy ilyen nemzet a földön, az biztos. Ráadásul még akik valamit hozzá is tudnak szagolni a témához, még azok is ferdítenek egy csomót, hogy jó színben tűntessék fel a rajongott gyártójukat. Én csak tényeket vázoltam, hogy az nv jóval több pénzt keresett így, mintha folymatosan fejlesztettek volna. 2006 novemberében jött ki a 8800GTX ennek 2008 júniusáig nem volt ellenfele, 8800 GTS és később a helyére érkező 8800 GT 2006 novtól 2008 júniusig ár/érték arányban is a legjobbak voltak, ezt mintha figyelmen kívül hagynátok. Ha ezek a kátyák nem voltak jók grafikára, akkor a felső becslés miatt az összes alatta lévő kártya( ergo az r600is ) alkalmatlan volt grafikai munkára. Szerintem egyik semm alkalmatlan különben nem venné meg senki, egyszerűen csak arról van szó, hogy az nv-nél nem fél évekre terveznek, hanem 2-3 éves ciklusra, és kidobnak egy értékálló chipet, amiben van annyi, hogy évekig profitálhatnak belőle. Pont emiatt gondolom azt, hogy ha ismét előhozakodnak egy új architektúrával, az megint akkorát fog szólni, hogy évekig ellesznek belőle. Attól még hogy 512 sp van egy choben, nem feltétlen kell nagynak lennie. A radeonban 1200 lesz mégsem pattog egyikőtök se, hogy hú majd milyen nagy lesz a magméret. Nem hiszem, hogy megoldhatatlan feladat a tranyószám redukálása, senki nem mondta, hogy a jelenlegi architektúrát fogják továbbvinni, sőt ha visszagondolunk 192 bites kártyákról érkeztek hírek korábban, tehát sejthető, hogy jelentősen faragnak az előállítási költségen. Merem feltétlezni, hogy egy akkora szellemi tőkével rendelkező vállalat, mint az nvidia képes felfogni azt, hogy mi mennyire éri meg neki. 10000% hogy ők sokkal jobban átlátják a helyzetet amiben vannak, és nálam és nálad okosabb közgazdászok tömkelege áll a rendelkezésükre, hogy kikalkulálják mi éri meg nekik a legjobban. Azt az agyrémet meg nem tudom honnét szültétek, ha valami jól működik általános számításokban, az nem lehet jó grafikára. G80 ráaz élő példa, vezető chip volt mindkét szegmesben éveken keresztül. De említhetném az r700at is. Egy chip "jóságát" elsősorban az határozza meg, hogy milyen alkalmazásokat futtatnak rajta, illetve hogy mekkora az a spektrum, ami alkalmas lehet a optimalizációra ezeken. Mindkát chip annak ellenére, hogy teljesen más felépítésű, ha megfelelő célra alkalmazzák, nagyon jó lehet általános alkalmazásokra. Kb olyan ez mint a 3D, ott is van amelyik az egyiknek van amelyik a másiknak fekszik inkább. A GPGPU alkalmazások köre pedig elég tág, ez nem directx, a jelfeldolgozáson keresztül az ip csomagszűrésen át a klímakutatásig mindent lehet...

  • Departed

    őstag

    válasz Beowulf_78 #227 üzenetére

    Én 1680-ban játszom, és szerintem éppen hogy befolyásolja az AA a játékélményt. Most azért, mert erre a felbontásra váltottam, semmivel sem éreztem kisebb szükségét az AA-nak, sőt, kifejezetten zavar, amikor egy játék nem támogatja.
    Sok éve kitalálták már, és a DX10.1 AA-barátságára sem gyúrtak volna rá, hogy ha a manapság használt magasabb felbontásokban nem lenne rá szükség. Mondjuk egy ilyen árú kártyánál, mint a Tiéd, nem is kérdés, hogy DX10.1 hiányában sincs gond akkor sem ha AA-t bekapcsolsz. ;)
    De a lényeg: szerintem felbontástol függetlenül zavaróak a recék, lehet cáfolni :)
    És éppen ezért örömmel látom hogy figyelnek az eltüntetésük gyorsítására. :K

  • R.Zoli

    őstag

    válasz VinoRosso #235 üzenetére

    A Te elméleted szerint akkor most az NV DX11-es chipje bármi lesz a neve nagyon ütni fog ugye? Mert akkor most nekiálltak és fejlesztettek egy DX11-es chipet... Szerintem nem így lesz de majd meglátjuk. Márcsak azért sem lesz így mert amit Abu mond szerintem igaz és ha az NV most visszatért a grafikai vonalra gyúrásra akkro a GPGPU piacot kellene feladnia amibe egy halom pénzt nyomott bele és ott lehetne egyeduralkodó,arról nem is beszélve ,hogy újra kellene szinte tervezni alapjaitól egy chipet ha újra a grafika lenen a fő szempont... Namost az AMD chipje R600-tól nézve is kőkemény grafikai problémák megoldására lett kitalálva míg az NV csinált egy olyan chipet ami kielégítő grafikában és GPGPU terén igazán erős. Amit Te mondasz ,hogy egy GT200-as chip überjó grafikára is mert nézzük meg ,hogy az AMD grafikai chipre gyúrt míg az NV nem és mégis alig pár (kb. 15%) százalékkal erősebb egy RV770 egy GT200b-vel szemben DX10.1 alatt... Ez igaz ,de könyörgöm nézd már meg ,hogy milyen 2 chip áll egymással szemben, az egyik egy monstrum közel másfél milliárd tranyóval kevesebbet tud DX10.1 alatt grafikában mint egy 1 milliárd tranyós közel fele akkora chip ami nemcsak ,hogy kisebb fogyasztású de ráadásul majdnem fele annyiba kerül... Szóval a TE gondolatmeneted ott bukik meg ,hogy az NV KŐKEMÉNYEN SZOP MOST mert a bazinagy chipje nem bír komoly grafikai feladatokban a kis gagyi közép-felső kategóriába szánt "kis buta" Ati chippel... Ha megnézed mondjuk az RV790-et akkor még szomorúbb a helyzet... DX9 alatt is kevéssel van csak lemaradva (kevesebb mint 10%) ez a bazi nagy ormótlan ,kazán,drága GT200b mögött... Ez nagyon is mutatja ,hogy ki mire gyúrt rá...Legalábbis ha neked ez nem világos akkor nincs miről beszélni...

    HA meg rágyúr most DX11-re az NV olyan monolitikus chippel mint amiről most cikkeznek akkor is KO... Sajna ez a vonat már elment, az Ati nem ment csődbe és innéttől kezdve nincs miről beszélni...Annyi Radeont adnak el mostanság ,hogy nem lesz már semmiféle NV optimalizáció... HA lesz is valami akkor inkább az ATinak kedvez mert ők tették le a tech doksikat az asztalra mit és hogyan...

    Egyébként ha pedig csakis DX11-re gyúrnának akkor a GT200 sem lett volna... Hidd el az a gond ,hogy nem volt B terv... Az Atinak buknia kellett volna, de nem történt meg... A GT200 is grafikai vonal szempontjából egy tóldozott foltozott megoldás... Mért foltoztak volna a G90 hibáin ,hogy DX10 alatt ne omoljon össze ha az volt a cél ,hogy ezzel az architektel kihúzzák a DX11-ig? Nincs logika az érvelésedben... Mint mondtam itt a legnagyobb gond az ,hogy a G90 hibái elő sem kerültek volna mert már rég CUDA lenne mindehol és nem kellett volna GT200...

  • VinoRosso

    veterán

    válasz tlac #239 üzenetére

    teljesen jogos a felvetés, ha konzol-pc pc-konzol portok léteznek, akkor nem nagy kunszt játékot fejleszteni linuxra. Az ok egyszerű, nem éri meg vele vesződni (anyagilag).

  • tlac

    nagyúr

    válasz Abu85 #238 üzenetére

    ok, grafikán kívül még kell használni pár library-t
    de az OpenCL-el, Compute Shader-rel, ugyanúgy meg marad a probléma

  • Abu85

    HÁZIGAZDA

    válasz tlac #236 üzenetére

    De azokat azért nem írták meg, mert az OpenGL csak egy a sok dolog közül ami nem az MS fennhatósága alatt van. Ott van még az MS Live, vagy a .net ... ésatöbbi. Ezek is kizárják a Linux-ot.

  • tlac

    nagyúr

    válasz #72042496 #220 üzenetére

    s Linuxon is éppúgy lehet majd játszani? Vagy hogyan lesz ez?

    ne reménykedj, az opengl-es játékokat sem írták meg linux-ra (pár kivételtől eltekintve)

  • VinoRosso

    veterán

    válasz Abu85 #234 üzenetére

    Nézd én abban nem viztázom veled, hogy hogy dx10.1 alatt a radeonok jobban mennek mert ez tény. Sőt még sima dx10 alatt is ha kizárólag a GS fázist nézzük(bár ugye a dx10 igazából nem a GSről szól) Én csak annyit mondtam, hogy ha gyártó vagy úgy kell gondolkodnod hogy minél több hasznot zsebelj be. Az NVnek meg így volt a legnagyobb haszna, hogy megcsinált egy 2006ban korszerűnek számító architektúrát, amivel 2 évig uralta a piacot, és amig lehetett húzta. Addig húzta, hogy nem volt szüksége arra, hogy egy dx10.1es magot gyártson, ha nagyon muszály lett volna meglépi, de felesleges, szerintem már kb 1-1.5 éve eldönthették, hogy inkább dx11re gyúrnak, addig meg kihúzzák a meglévő architektúrával. És én ezt teljesen logikusnak látom, ha én is csupán az anyagiakat tartanám szemlőtt, én sem csináltam volna másképp, mert ez vlószínűleg optimum, jó dx10.1es chiphez át kellett volna szabni az egész architektúrát, és ezt fél-egy éves huzavonáért nem érdemes. Inkább megvették a aegia-t és így kb ugyanúgy konkurrál6nak a dx10.1-el, ez bőven elég volt ahhoz, hogy a dx10.1 ne terjedjen el. Igaz én személy szerint annak örültem volna a legjobban, ha piacra dobnak egy dx10.1es GPU-t, és akkor nem lenne miről beszélni. Dehát ez van, szivem szerint se win-t, se dx10-et nem használnék, de sajna nincs választás, mivel ez a mainstrean.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #233 üzenetére

    Néztem teszteket pontosan tudom mennyire gyenge az ideiglenes adat kezelése a rendszernek. De ez már megint lefutott dolog. Az RV770 pedig azért érte be az NV-t, mert G80 architektúra akkor volt jó, amikor megjelent, az R600 pedig akkor lett működőképes, amikor az RV770 jött. A GT200 előnye pedig már nem egyértelmű az RV770-RV790-nel szemben. Az új játékok már az AMD rendszerének feküdnek és fognak feküdni. Ez már tényként kezelhető. (mi is leváltjuk a régi versenyzőket és jönnek az új DX10-es tesztjátékok ... jobban reprezentálják a jövőbeli teljesítményt)
    De nem vitázom tovább. Anno megmondtam, hogy az FX5900-at kicsinálja majd DX9-ben a középkategóriás Radeon 9600 is, elég sokan röhögtek, aztán a HL2 után már belátták, hogy igazam volt. Meglátjuk, hogy alakul a dolog a DX10-ben. ;) Amire ugye a jelenlegi architektúrák készültek.

  • VinoRosso

    veterán

    válasz Abu85 #232 üzenetére

    Nem grafikára lesz, ahogy a G80 és a GT200 sem arra van

    Fura hogy ezt mondod a a G80 vs R600 kapcsán. Nem azért de Te teszteket néztél? ( bocs de úgy érzem ezek után nekem is kell modnanom valami cifrát :D ) Gyakorlatilag az atinak rv770 proig nem volt olyan GPU-ja, ami megszorongatta volna a 8800GTX-et. Így akárhogyis nézzük, egy 1,5-2 évig egyeduralkodó chipről mondtad azt, hogy nem jó grafikára. Kiváncsi leszek, hogy lesz e valaha még ilyesmire példa( én nem emlékszem, hogy ezelőtt lett volna ) Kérdés az is, hogy akkor a többi kártya mire való? Mondjuk egy rv670XT pl, ami sokáig még a G96ot se tudta kiütni a nyeregből. :U Egyedül a GT200-al voltak poblémák, leginkább fogyasztás és ár miatt, nem pedig a teljesítménye szempontjából, mivel még mindig ez a legerősebb GPU.

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #231 üzenetére

    Én nem fikáztam a GT300-at, csak írtam, hogy az előzetes infó szerint nem biztató. Nem grafikára lesz, ahogy a G80 és a GT200 sem arra van. Ennyi ... már leírtam, hogy miért. Bár ez nem újdonság. Majd meglátod az év végére, hogy mi lesz a helyzet. :)

  • VinoRosso

    veterán

    válasz Abu85 #206 üzenetére

    Miért lenne feltétlenül bonyolult az amiben sok függőség van?

    Próübálj meg rá sw-es ütemezőt írni, aztán meglátod :D ( nem egyszerű alacsony költségű algoritmust kreálni ilyenekre)

    A folding az meg csak 1 alkalmazás, másik 10ben meg pörög mint a búgócsiga. Mint említettem minden GPU masszívan párhuzamos számításokban tud villogni, ahol nagy mennyiségű független adaton kell ugyanazt az egyszerű műveletet végrehajtani. Olyan meg hogy nincs függőség olyan nincs( utasítás vagy vezérlés függőség mind1.. ) :N A függőség nem architektúra fícsör, hanem egy probléma sajátossága, az hogy ráhúzod a legjobb algoritmust, és ebben is vannak fix lépések, amiknek meg kell előzniük a másikat. Ilyenkor nem lehet párhuzamosítani egyetalán, tehetsz alá akármilyen vasat, hacsak nem képes időutazásra, nem fog javítani a telesítményen. Ameddig kauzalítás van, addig pedig lesz mindig ilyen, és minden kódban van ilyen. Az ütemezővel annyiban lehet javítani a helyzeten, hogy ha nincs akkora fokú párhuzamosság egy kódban, hogy kihasználja a telejes számítási kapacitást, akkor a maradék lazsáló sp-oknak lehessen melót osztogatni.Geometry shadert leginkább + sp-kkel lehet gyorsítani, ezért jobbak benne a radeonok, 300 körüli sp számmal már r600 szinten lenne a g80 is. Dx10.1 nem azért nem támogatja véleményem szerint az NV mert mindenképpen a CUDA-val akarja kitúrni a DX-et, hanem egyszerűen nem éri meg nekik. Sima anyagi okai vannak, előre teveztek egy olyan architektúrát 3-4 évvel ezelőtt, amivel az akkori és a közeljövő alkalmazásai széles körben jó teljesítményre képesek voltak, és egy csomó óvét bezsebeltek vele. Ekkor sehol sem volt még a dx10 sem, nem hogy a dx10.1. Idén kezd kijönni a hátránya ennek, de nyilván 3-4 évig nem a pénzeszsákokon ültek, hanem közben dolgoztak egy teljesen új architektúrán. Ennyi idő pedig elég sok probléma felfedésére és megoldására elég . G80ból ezalatt kipréselték amit lehet, ősszel meg már jön egy dx11-es architektúra, és amit felhozol hátrányként a G80 ellen az szerintem jó eséllyel el fog hervadni mint a rózsaszál. Nem értem mindek fikázod már jó előre azt amiről még fogalmad sincs( illetve tudom, ez a fanatizmus :D ) , és hogy honnét veszed, hogy megoldhatatlan feladat az nvidiának egy zsír dx11-es chip gyártása. Ha pedig dx11ben jó lesz, nagy valószínűséggel ugyanolyan jó lesz dx10.1ben is, de hogy milyen dx10.1ben az szerintem addigra már senkit nem fog érdekelni.

  • Beowulf_78

    addikt

    válasz Abu85 #228 üzenetére

    Na! :Y Haladunk! ;] :P Akkor már ott tartunk, hogy hagyjuk a DX10.1-et sebesség és képminőség szempontból, és vessük be az utsó fegyvert amivel érvelni lehet a zöldek ellen..az ár / teljesítmény arányt, amivel az NV nem tud versenyezni. :B ;] Egyértelmű hogy a legújabb kártya ami kapható is széles körben az a 4890, evidens hogy viszik, tény hogy jelenleg ez a sláger kártya. GTX 275 is van elvétve, de tény hogy drágább, még ha nem is sokkal.
    GTX 275-ből azért ennek ellenére sokat fognak eladni, az biztos. ;) Nem hinném hogy ennyire kiélezetten versenyezni akarna az NV az árakban. Mindig is drágább volt. Amióta az NV-ATI harc létezik. Valószínű ez így is fog maradni. De ha ez akkora gond lenne már rég csődbe mentek volna, és attól függetlenül hogy drágább, az elmúlt években többször volt az Ati padlón mint ahányszor az NV. Nem véletlenül lett ugye a nevük AMD-ATI. :U :P
    Nem azért mert fullon voltak lóvéval a bevételekből. ;]

  • keIdor

    titán

    válasz Beowulf_78 #227 üzenetére

    Egyetértek veled, azok nem húzónevek. Szerintem most mind a kettő oldal kapkod, ezért vannak egymás hegyén-hátán a kártyák teljesítményben, gondolok itt azokra a kártyákra, amik a HD4770-HD4890 és GTS-250-GTX-285 között vannak.
    Diablo 3, Alan Wake az fix 2010 sajnos...:(
    Ami idén tuti jó lesz az a: Bioshock 2, Mafia 2, Assassin's Creed 2, Aliens vs. Predator 3, Battlefield Bad Company 2, Wolfenstein 2, Starcraft 2! :K
    Bár az AvP3 is lehet 2010.

  • Abu85

    HÁZIGAZDA

    válasz Beowulf_78 #227 üzenetére

    Remélem ezt most nem mondtad komolyan. ;]
    Egyébként ne nézzük a DX10.1-et. ... De ettől még a Radeon birtokolja minden szegmensben a legjobb ár/teljesítmény mutatót. Ezzel nem lehet küzdeni, mert a jelenlegi GeForce architektúra alkalmatlan erre.
    Az NV hidegvéréről meg annyit, hogy órás szintű a marketing. Azt is bejelentik, ha valamelyik oldalon egy játékban elveri a GeForce a konkurens Radeont. Szóval nekem inkább kapkodásnak tűnik, ami megy a zöldeknél, de ez ilyen viszonyok között világos, hisz az eladások gyengék, a partnerek pedig elégedetlenek.

  • Beowulf_78

    addikt

    válasz Abu85 #221 üzenetére

    "Valóban bullshit a DX10.1 - [link] Csak átlag 20-25% plusz sebesség van benne."

    Csak egyet felejtesz el. Ezek közül egyik se lesz húzónév. Csak abban az esetben nyerne teret az ATi a DX11-ig, ha minden műfajban lenne legalább egy DX10.1 húzóneve.
    Mit mondjak...Stormrise bukás, Battleforge szintén nem lesz nagy durr bevétel szempontjából. A HawX talán az egyetlen a három közül ami ér is valamit, de nem lesz az év játéka. Elég egysíkú. Ezzel itt ki is fújt az AMD-ATI reklámfilmjének az elemzése. Majd meglátjuk mi lesz a Starcraft 2, Mafia 2, Alan Wake, Diablo 3...mert ezek inkább a húzónevek 2009-es évben. :U Mást nem tud csinálni az Nv DX11-ig mint minnél több húzónevet megtartani, és újakat megvenni. Így lazán pariban lenne még 2 év után is a hiper-szuper DX10.1 ATI kártyákkal egészen DX11-ig. Ez jó egy nV-t választó felhasználónak? Jó! Lassítja a fejlődést? Persze. De hová rohanjanak? :U Nem fogok a kardomba dőlni ha DX11-ig marad ez a szintű grafika, és gyorsaság. Nekem megfelel.
    Az pedig a másik hogy először azzal érveltetek hogy szebb a DX10.1. Majd amikor ez megdőlt, mert egymás mellett levő képeken bekarikázva a különbséget is közel kellett hajolnom hogy lássam a különbséget. :B Ezek után jött hogy nem a szépség hanem a gyorsaság, mert AA mennyivel gyorsabb DX10.1 alatt. Lehet. Ezt nem vonom kétségbe. De hol van ennek létjogosultsága? Már 1680x1050 is kicsik a képpontok, nem hogy 1920x1200-as felbontásnál, ami folyamatosan terjedőben van. Ergo tök felesleges az AA. 1440 ill. 1280-as felbontásoknál volt értelme, ahol a recézettség valójában rombolta a játékélményt. De az AA hiánya 1680 felett már régóta nem befolyásolja a játékélményt.
    Tehát mi értelme van a DX10.1-nek ha egyik aspektusból sincs létjogosultsága FELHASZNÁLÓI szemmel. :U
    Még mindig azt érzem, hogy az ATI erölködik, aminek általában nyögés a vége, az NV meg megpróbálja megőrizni a hidegvérét, és a kivárásra játszik.

  • Abu85

    HÁZIGAZDA

    válasz Beowulf_78 #223 üzenetére

    Régen azért baromi jó volt a fejlesztőknek, mert kopogtatott az NV és adott programozókat akik jól optimalizáltak. Annyira elenyésző volt az ATI tulajok száma, hogy sokan felvállalták. Ezért volt egy csomó játékban TWIMTBP logo. Most, hogy a Radeonok a kereskedelemben kicsinálták a GeForce-okat, a célcsoport többségében Radeont alkalmaz, ezért a fejlesztők az elmúlt egy évben felbontották a TWIMTBP szerződéseket ... vagy a lejártakor egyszerűen nem újították meg őket.
    Az is fontos tényező volt, hogy a fejlesztők is az NV-től tanultak ... rengeteg DX9 doksi volt a zöldeknél, most megfordult a világ. Az AMD dokumentálja az új eljárásokat. A fejlesztők is ebbe az irányba kacsingatnak.

    Ha annyira nem érdek a közös platform, akkor minek a DirectX, OpenGL és a többi. Miért támogatják a gyártók? Hát persze, hisz ez az ipar érdeke. Hogy mindent egyszer kelljen megírni és az több rendszeren fusson. Ez a szabvány lényege. Szabvány nélkül a PC-s játékipar a jelenlegi komoly szinten nem létezne.

    Keldor papa: hát akkor elment a hajó. ;]

  • keIdor

    titán

    válasz Abu85 #208 üzenetére

    Nincs... nekem már jön le a 7100 build, ami a végleges RC. Május 5.-én kerűl ki az MS oldalára, nem mindegy! :DD

  • Beowulf_78

    addikt

    válasz Abu85 #217 üzenetére

    "Ha te fejlesztő lennél, akkor neked az lenne az érdeked, hogy ne csak a GeForce tulaj Pisti, hanem a Radeon tulaj Marika is használja a programod. Mi több vegye meg! De ha csak Pisti tudja futtatni, akkor már eleve nem tudsz szert tenni Marika pénzére. Potenciális vásárlóbázist vesztesz aminek egyenes következménye a kevesebb bevétel. Szerinted egy fejlesztőnek ez a célja?"

    Az a baj hogy te mindent egyszerű logikával próbálsuz magyarázni. Holott nagyon sok esetben a számunkra logikus dolgok, csak másod vagy harmadlagosak. Sztem logikus amit mondasz, ezzel nincs is baj...de ha így lenne ahogy levezetted, akkor miért van hogy egyik játék nV optimalizált a másik ATI optimalizált? Hiszen a LOGIKÁNK azt mondja úgy kellene fejleszteni a játékokat hogy mind a 2 VGA gyártó kártyáin jól fusson, hiszen ez hozná a legtöbb bevételt, és a KOMPROMISSZUMOK NÉLKÜLI VGA VÁLASZTÁST.
    Ez a logikus. De mi van helyette? Késélre menő harc hogy a nagy nevű játék fejlesztő cégek melyik VGA-ra optimalizáljanak. Így u.a. a helyzet alakul ki, ami az XBox 360, és a PS3 körül. Van ami csak XBox, van ami csak kizárólagos PS3 név. Pl. aki imádja a Gran Turismo-t az PS3 fog venni. Aki szereti a Halo sorozatot az meg XBox 360-at. Persze van olyan hogy erre is meg arra is. De a húzónevekre nagyon vigyáznak, mint a hímes tojásra.
    PC-nél dettó ez van.
    NEM ÉRDEKE A GYÁRTÓKNAK A KÖZÖS EGYSÉGESÍTETT PLATFORM, mert ezzel nagy kockázatot vállalna mind az ATI mind az NV. Miért? Mert mind a 2 gyártó kártyáin jól futna minden, és kizárólagosan csak a jobb, gyorsabb hardveren múlna 1-1 VGA széria sikere. Ez pedig kétélű fegyver. Mert egy NV által eltalált G300 architektúra azt eredményezné, hogy a kutya se venné az Ati 5xxx szériáját. Persze ez fordítva is igaz.
    Itt jön az amit mondtam, hogy egyik sem fog csődbe menni, mert mindig is meglesznek azok a "húzó nevű" játékok, ami miatt érdemes lehet megvenni egy gyengébb szériájú VGA eresztést, ez pedig kizárja az egységesített független API-t, ill. a mindkét rendszerre történő optimalizálást.
    Szóval...nem biztos hogy a logikus okfejtésed lesz a nyerő. ;)

  • TTomax

    félisten

    válasz Abu85 #221 üzenetére

    Szerinted, ha az NV tud DX10.1-et, akkor használnák a CUDA-t a Stormrise alatt a Z adatok kinyerésére?
    Pont ezért kell a CUDA...mondj más módot a probléma megoldására...
    A DX10.1 akkor is egy maszlag marad,fölég úgy,hogy most veszel egy kártyát azért mert huuu,tudja de fél év múlva itt az egész komplett DX11.Tudom,most jönne az.hogy a DX10.1-el tudó kártyákkal "néhány" ficsörröl kell lemondani...Tulajdonképpen most értük meg,hogy Nativ DX10-es játékok készülnek,szeretném már látni azt az előnyt amiről eddig a marketing maszlag ment,hogy ez nekem milyen szuper.Van egy DX10-vga-m,egy DX10-et tudo vistám,amikkel DX9-ben játszottam...de vegyek DX10.1-es vga-t mert azon jól megy az elsimitás,de már a DX11-es játékokat ecsetelitek...nem értem én ezt... egyre jobban hajlok arra,hogy konzolt kell venni,mert ez egy vicc...

  • Abu85

    HÁZIGAZDA

    válasz TTomax #218 üzenetére

    Szerinted, ha az NV tud DX10.1-et, akkor használnák a CUDA-t a Stormrise alatt a Z adatok kinyerésére? Hát persze, hogy nem. Miért is végeznénk plusz munkát, amikor a szabvány ott van, amit mindenki támogat. Illetve hát támogatni kellene, csak hát az NVIDIA-nak nem ez az érdeke.

    Valóban bullshit a DX10.1 - [link] Csak átlag 20-25% plusz sebesség van benne. Baromira nem érdeke a felhasználónak, hogy gyorsabban fusson a program a számítógépén. :DDD

    A DirectX-nél meg lehet jobbat csinálni, senki sem akadályoz meg benne. Persze előre szólok, hogy nehéz lesz.

    Az AMD előadásokon azért nagyságrendekkel kevesebb bullshit van. Ennek egy oka van ... az ipari szabványok támogatására is törekszenek. Persze megemlítik, hogy van Ati Stream-jük, meg mitudomén még mijük, de ezek kapnak kb egy vagy két oldalt. Az NV-nél a GeForce GTX 275 50 oldalas bemutatóból 30-40 arról szólt, hogy milyen jó a CUDA meg a PhysX, és hogy ezt az AMD kártyák nem tudják. Nuku teljesítményteszt a Radeonokról, mert már nem találnak olyan beállítást ahol egy átlagos játékban az ár szerinti konkurens GeForce nyerne. Ez a rideg valóság. :(

    Az NV és az AMD kártyák is tuják már futtatni az OpenCL kódot. :)

    biggamer: Nagyon kevés olyan ember van, aki nem a játék miatt vesz ilyen izmos grafikuskártyát. Szerintem az NV nem belőlük akar megélni ... sőt biztos, hogy nem, mert tönkremennének. :)

    Balika911: Nem a DX marad csak a fix futószalag tűnik el, de a compute shader az fejlődik tovább. Persze ha az OpenCL jobban ízlik a fejlesztőknek, akkor futni fog a játék minden operációs rendszeren.

  • #72042496

    törölt tag

    válasz TTomax #218 üzenetére

    Ha már előkerült a "shit DX". Ezt mindig meg akartam kérdezni, hogy ha újra beköszönt a szoftveres render időszaka, amiről már lehet pár helyen olvasni, akkor ez azt is jelenti, hogy a DX megy a kukába, s Linuxon is éppúgy lehet majd játszani? Vagy hogyan lesz ez?

    Valaki mondja ez jól meg. :)

  • biggamer

    veterán

    válasz Abu85 #215 üzenetére

    De van aki nem a játékot nyomja éjjel-nappal.
    Másra is lehet használni a gépet nem csak arra.

    " H.264-es videókat is átkódolhatnak, mindezt a hagyományos, processzorral történő folyamatnál lényegesen gyorsabban.
    A GPU gyorsítással üzemelő kódolás csökkenti a CPU terhelését, emellett ötször gyorsabb, mint a csak CPU-t használó módszer. "

  • TTomax

    félisten

    válasz Abu85 #215 üzenetére

    Még jó,hogy a játék és sw fejlesztőket érdekli a CUDA ... erre nagyon jó példa az általad favorizált Stormrise,meg most ez a Nero is... de hozhatnék még egyéb példákat.Azt meg el kellene fognod neked is,hogy a marketing bullshit mindkét gyártótól ömlik hiszen a terméket el kell adni.. a Dx10.1 pontosan ekkora shit ... söt az egész DX egy hatalmas maszlag amit zabálni kell ha tetszik ha nem...

    (#217) Abu85
    Pontosan ezért kell foglakozni a CUDA-val amig nincs OpenCL támogatás...ja de akkor tényleg megint valamiért szemét lesz az NV ha megcsinálja....na mindegy.

  • Abu85

    HÁZIGAZDA

    válasz biggamer #216 üzenetére

    Mi lesz a végén? Van OpenCL és lesz ingyenes Compute Shader. Ezek minden rendszeren futnak. Mi értelme van ezek mellett az NVIDIA CUDA-janak, vagy mondjuk az AMD Ati Stream rendszerének. Ha te fejlesztő lennél, akkor neked az lenne az érdeked, hogy ne csak a GeForce tulaj Pisti, hanem a Radeon tulaj Marika is használja a programod. Mi több vegye meg! :) De ha csak Pisti tudja futtatni, akkor már eleve nem tudsz szert tenni Marika pénzére. Potenciális vásárlóbázist vesztesz aminek egyenes következménye a kevesebb bevétel. Szerinted egy fejlesztőnek ez a célja?

    Ezt mind az NV is tudja. Ezért vették meg a Physx-et, hogy az AMD-t rákényszerítsék a CUDA támogatásra, csak ők még így sem mentek bele. Több esetben is megkeresték őket a zöldek, de mindig az volt a válasz, hogy a Physx az oké, de a CUDA-t nem akarják támogatni. Ennyi ... ha nem akarják, akkor nem. Ebbe bele kell törődni. Most, hogy itt vannak a független API-k minden kör le van futva.

  • biggamer

    veterán

    válasz Abu85 #215 üzenetére

    Én erre csak azt tudom mondani, hogy várd ki a végét.
    Tudod, " lassú víz partot mos ".

    Szép lassan ráébrednek, hogy azért nem annyira elveszett dolog ez az alkalmazás.
    Ki tudja, mi lesz a végén.

  • Abu85

    HÁZIGAZDA

    válasz biggamer #214 üzenetére

    Miért vesznek az emberek grafikus kártyát? Csak nem játékra? ... Melyik játék van CUDA-ra írva? Ez itt a probléma, ezért esik az NV részesedése. Nagyszerű ez a Nero féle támogatás, meg a CUDA alkalmazások ... de most komolyan. Fincsi extrák ... de a Radeon játékra jelenleg jobb. Innentől kezdve, meg az egész verseny el van döntve.
    Annyira érdekli az embereket a CUDA, hogy egy - azaz 1 darab - GeForce GTX 275-re 30 darab Radeon HD 4890 eladás jut még mindig. Pedig most már az NV sem mondhatja, hogy nincs elég készlet a piacon.

    Most az NV marketinggel ilyen havi konferenciákat. Ma is lesz egy (majd megyek is rá). Miről fog szólni? CUDA, PhysX ... de könyörgöm miért? Tisztán látszik, hogy nincs beleszólása ezeknek a technikáknak az eladásokba. Jó és olcsó grafikus kártyát kell csinálni, ahogy az AMD is tette, és jönni fognak az eladások. Addig meg megy a marketing bullshit.

  • biggamer

    veterán

    válasz Abu85 #213 üzenetére

    "mert a platform nem terjedt el" <---> "egyre nagyobb mennyiségben vannak jelen"

  • Abu85

    HÁZIGAZDA

    válasz biggamer #212 üzenetére

    Világos :)) ... egy grafikus kártya elsődlegesen erre való. :DD

  • biggamer

    veterán

    válasz Abu85 #187 üzenetére

    " Az NV bizony mindent feltett a CUDA-ra, azért vannak most ilyen ramaty helyzetben, mert a platform nem terjedt el. "

    GPU-val kódol videót a Nero szoftvere : [link]
    / egy kis érdekesség :F /

    " A különböző alkalmazások körében egyre nagyobb mennyiségben vannak jelen azok a programok, amelyek az Nvidia CUDA technológiáját támogatják, így a GPU számítási teljesítményére támaszkodva tudják elvégezni az olyan idő- és teljesítményigényes feladatokat, mint például a videó vágás és kódolás, valamint a képszerkesztéssel kapcsolatos munkálatokat. Most egy újabb alkalmazással bővült a kör: a Nero Move it névre keresztelt videó kódoló szoftvere is CUDA támogatást kapott. "

  • Abu85

    HÁZIGAZDA

    válasz schwartz #210 üzenetére

    Valóban ... a Ghostbuster az saját fejlesztésű. Most olvastam, hogy a motor 8 szálat kezel, így a nyolcmagos procikat is kihasználják. VELOCITY physics engine a neve. Majd meglátjuk mit tud. Bár a videók meggyőzőek.
    Kösz, hogy felhívtad rá a figyelmem. :R

  • schwartz

    addikt

    válasz Abu85 #205 üzenetére

    Az említett címek (GTA4, Ghostbusters, SW: The Force Unleashed) a Havok motort használják fizikára.

    A Ghostbusters-ben biztos a Havok felelos a fizikaert? Valami mas megoldasrol beszeltek a fejlesztok. (Infernal Engine's Velocity Physics)

  • Bikerider

    aktív tag

    Hi

    Akar hogy is lesz a GT300 meg HD58** -szeria az biztos hogy nagy arhaboru lesz.

  • Abu85

    HÁZIGAZDA

    válasz Gyusz #207 üzenetére

    Sajna az Euphoria lényegéről tényleg sok a félreértés. Pedig a hivatalos oldalon minden infó megvan. A fizikáért nem felel, de együttműködik a PhysX-el és a Havokkal is.

    hmm ... tényleg május 5 az RC. Akkor még van pár napja az NV-nek. Mindenesetre szoros lesz, mert ha visszadobják megint aláírás nélkül, akkor már időhiány van.

  • Gyusz

    őstag

    válasz Abu85 #205 üzenetére

    Hmm, megnéztem és az Euphoria tényleg nem konkrétan a fizikáért felel, pedig a fél internet tele van erre utaló infókkal. Na mindegy, attól még közel sem olyan egyeduralkodó a Havok, mint vártam volna.

    Windows 7 RC nem május 5-től lesz?

  • Abu85

    HÁZIGAZDA

    válasz VinoRosso #204 üzenetére

    Miért lenne feltétlenül bonyolult az amiben sok függőség van? Ha az egyszerű utasítások függnek folyamatosan egymástól, akkor már rossz a helyzet az R600 esetében. Ezért ilyen gyenge a chip Folding teljesítménye. Erre mondta a Folding egyik programozója, hogy ezen nem lehet javítani, mert az R600-at az AMD a DX10-re tervezte, azaz a legjobb chipet akarta a grafikai számításokra. Ha a rendszer csak olyan utasításokat kap amik függnek egymástól, akkor a shader processzorok 80%-a pihen, mert egyszerűen nem tud a lehetséges 1+1+1+1+1 co-issue módban működni.
    A G80-nál olyan, hogy függőség nincs, mert ez az architektúra stream rendszer. Komponens folyamokon dolgozik, azaz az utasításokat az egymás után következő komponenseken végzi el. Gyakorlatilag a G80 mindig 100%-os kihasználtságot garantál. Ami nagyszerű a programkódnak. A probléma az, hogy a belső cache rendszer irgalmatlanul gyengén bánik az ideiglenes adatokkal. A stream processzorok regisztereinek mérete is kevés. Az ütemező elemzi a feladatokat, és ha túl bonyolult a párhuzamos végrehajtásra, akkor a 8 utas Streaming shader processzorból annyi utat lekapcsol, ahány szükséges a működéshez. Ez persze azt is magával vonhatja, hogy egy ilyen blokkban a 8 stream egységből csak egy fog működni, és az felhasználja a többi egység regiszterét. Előfordulhat persze az is, hogy még így is kevés lesz a regiszterterület, így a hely hiányában az adatok a TPC cache-be lesznek kiírva. Gondolom nem kell ecsetelni, hogy ez mekkora probléma a sebességre nézve. A rendszer aktív processzorai ilyenkor kvázi 10-15 órajelenként dolgoznak (most nem tom pontosan mekkora a TPC cache késleltetése). A G200-nál például a stream processzorok regiszterméretét megduplázták és a belső gyorstárak összmérete is a hatszorosára nőt. Ez nagyon látszik a DX10-es példaprogramokban. Főleg a Geometry Shadert, vagy Cube Map tömböt használó alkalmazások esetén ... utóbbi esetében szó szerint megfekszenek a GeForce-ok, még a GT200 is az R600 alatt van, túl bonyolult nekik a feladat. Persze a GT200 még így is tízszer gyorsabba a G80-nál, csak az R600-hoz még ez is kevés.

    Az NV-nek ezért lenne fontos legyűrni a DX-et, mert a CUDA-ban jó eséllyel nem használnak majd, olyan baromságokat, mint Geometry Shader és Cube Map tömb. Amikkel egyébként Globális Illuminációt és dinamikus környezeti tükröződést lehet csinálni, ergo egy újabb grafikai ugrás lenne. A DX10.1-ben már az MS azt is megoldotta, hogy a Cube Map tömbök számítása párhuzamosan történjen. Hmm ... vajon miért is nem támogatják a GeForce-ok a DX10.1-et, ha annyira a grafikára pályáznak? Vagy lehet, hogy mégsem a modern eljárásokra épülő grafikai számításokért rajonganak? :)

  • Abu85

    HÁZIGAZDA

    Az Euphoria az nem fizikai motor. Az a rendszer a karakterek élethű mozgásáért felel.
    Az említett címek (GTA4, Ghostbusters, SW: The Force Unleashed) a Havok motort használják fizikára.

    Gyusz: Ha jól tudom, akkor a Win 7 következő verziója RC, azaz már az NV lekéste az integrálást. Nem katasztrófa a dolog, de mindenképp negatívum az OEM gyártók körében. Emellett ugye semelyik NV-s gép nem kaphat Win 7 prémium matricát (DX10.1 nuku miatt). A "hülye azért nem vagyok boltok" erre hajtanak ... baromság a matrica, de kétségtelen, hogy vevőcsalogató.

  • VinoRosso

    veterán

    válasz Abu85 #196 üzenetére

    A G80 az egyszerű számításokra tervezték, és a bonyolultaknál, valamint a sok ideiglenes adatta dolgozó grafikai számításoknál megfekszik. Ez R600 kvázi a rendszer ellentéte. Ha sok függőség van a kódban, akkor nem egy erőgép, kevés függőséggel már sokkal jobb a helyzet. A bonyolult feladatokat meg imádja.

    Ebben nincs egy hangyányit ellentmondás? Ha valamiben sok függőség van az bonyolult, amiben kevés az egyszerű. Ha gondja van a függőségekkel, akkor nem szeretheti a bonyolult feladatokat. Ez egyébként minden GPUról elmondható kivétel nélkül, mivel mindegyik adatpárhuzamos architektúra, méghozzá masszívan.
    A különbség a G80 és az R600 közt annyi, hogy a G80 durvább szemcsézettségű, TLPhez közelít, míg az R600 ILP inkább, valamint a G80 ütemezője miatt nagyobb fokú párhuzamosságra képes, viszont lassabb az ütemezési költségek miatt. R600 gyors floatban, de kb itt meg is áll a tudomány, és emiatt ha valamelyik inkább GPGPUnak mondható akkor az R600 az, mert tipikusan ezekben a számításokban fordul elő masszív párhuzamosság, ahol az r600-at ki lehet pörgetni. Grafikában a béka segge alatt van, jó architektúra, de arra nem való, hogy n+1 direkt/indirekt fényforrásból lombkoronán átszűrődő, vízben megcsillanó és párában elhalványuló csilli villi sunhaft effekteket számoltassanak vele . De mondjuk mintafelismerésre, keresési / adatreduckiós feladatkora kiváló. A kettő közül az r600 a "butább", méghozzá jóval.

  • Gyusz

    őstag

    válasz keIdor #200 üzenetére

    Igen, az is Euphoria, bár én azt hallottam, hogy maga a játék kicsit bugosra sikerült.

    (#201) schwartz

    Jónak tűnik ez a Ghostbusters, szerintem hülyeség volt az Activision Blizzardnak elengednie a projektet, de hát ők tudják.

Új hozzászólás Aktív témák