Hirdetés
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
-
A személyre szabott reklám lehet a streaming következő slágere
it A jobb célzott hirdetések érdekében adatplatformot indít a Warner Bros Discovery.
-
Olcsó 5G-s ajánlatot nyújt a Realme Indiának
ma Megérkezett a Realme C65 5G, az első készülék a MediaTek Dimensity 6300-zal.
Aktív témák
-
leviske
veterán
válasz Madmax81 #650 üzenetére
Nem ismerem a 9900GTX adatait. Ha GT200 lesz rajta, akkor ellene meg már nem a HD4870 szál szembe, hanem a HD4870 X2.
Egyébként kérdésedre válaszolva nem jó nekünk, de nincs mit tenni. Míg az nV irányítja a játékipart, addig az ATi sosem lesz komolyabb fölényben.
Amugy én sem vagyok szaki.
-
Madmax81
aktív tag
Hali
Végre valami jó hir Szurkolok nekik hogy végre valami pénzt tudjanak csinálni mert már régen voltak azok a szép 1900xtx -es idők amikor igazi Harc volt
De itt csak te vagy a szaki én csak egy asztalos vagyok ,de ott is egy szakmai barbár
1956-2010 07.22 Varga László
-
válasz Csiborbogár #648 üzenetére
Én csak leszűrtem hogy szerintem kis tuningpotenciál lesz a kártyában - abból kiindulva hogy először magas órajeleket jósoltak, aztán helyesbítették alacsonyabbakal, most pedig ismét 1Ghz-ek röpködnek ami önmagában is elég horribilisnek tűnik. Szóval úgy tűnik kisajtolják amit lehet...
Azt is mondtam hogy ez nem feltétlenül baj, de ha a hasonló ár/teljesítményű geforceban meg rejtőzik majd fixnek mondható (10 kártyából 9 bírja) 25-30% akkor ez már lehet hátrány...
Én amúgy még szeretem is kitesztelgetni mit bír egy hardver, ez vásárlás után egy napnyi játék, van olyan jó mint lövöldözős játékot tolni...Iponon meg letiltották a cikket? Hmm? Mellényúlt valaki pelenkázás közben?
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
ulveczkii
tag
Az ipnos hír lényegében az általam linkelt fordítása szinte szórúl szóra
Madmax81: egyrész pár hónap ide vagy oda már jelemtős pénzeket jelenthet ide
Másrészt már még nem ismertek a specifikációji de gyanítom hogy a 9900GTX a G92b-re fog épűlni ami annyit jelent hogy lesz benn hozzávetőleg 10+15% + a csíkszélességcsökkeltésből adódó územfrekvenciahövekedés okán (de lehet hogy ennyi se) ami ugyebár nem sok minden. Ez csak arról szól hogy a kissebb gyártási költség nyomán többet tudjanak lehúzni az emberekről. Ami pozitívum az az hogy ebből talán már tudni fognak csinálni rgy olyan GX2-t ami nem olvasztja le magáról az út burkoló műanyagot[ Szerkesztve ]
-
válasz ulveczkii #654 üzenetére
Gondoltam hogy nem bukkan ki magyarországon semmi infó. De kösz az infót hogy már olvastam azt ami iponon behalt.
Amúgy miért linkelted ide a saját adatlapod?[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Drizzt
nagyúr
"Egyébként kérdésedre válaszolva nem jó nekünk, de nincs mit tenni. Míg az nV irányítja a játékipart, addig az ATi sosem lesz komolyabb fölényben. "
Volt amikor fordított volt a helyzet, az Nv mégis fordított belőle. Az hogy irányítja az szerintem túlzás, mondjunk annyit, hogy próbálja minél erősebben befolyásolni, elég sok sikerrel.I am having fun staying poor.
-
ulveczkii
tag
Az biztos hogy az Nv rengeteg támogatói pénzt öl abba hogy csúnyán mondva rá írják a játékokat. Sokak által elítélendő módon (én is ige tartozom) mivel ezzel hátráltatja a fejlődést és szerintem ezzel van a baj hisz mindenki arra szánja a pénzét amire jónak látja és ha ő lenne a nagy újító akkor mindenki a seggét csapkodná a földhöz hogy jaj de jól néz ki és még gyorsan is fut + még ez a tündér arra is szán pénzt hogy a fejlesztőket ösztönözze és segítse, hát ez egy mese . Csakhogy sajan nem ez történik. Másrésztől azt is be kell látni hogy arra a logikusabb írni a játékokat ami a többségnek van. Vagyis az atinak meg kellene közelíteni az 50%ot a gamereknek szánt GPU piac részesedésében.
Ahogy én látom egyre jobb a szitu, a piaci részesedésük nő és egyre jobb gpukat dobnak piacra és egyszer csak beérik a dx10 gyümolcse hisz az Nv akárhogy kapálózik előbutób belefut egy FX szindrómába hacsak nem talál ki valami radikálisan újat ami egy több éve finomított és csiszolgatott ATI karival kerül szembe[ Szerkesztve ]
-
R.Zoli
őstag
Jah csak egy kicsit vicces ,hogy a Stalker új részének a DX10-es demoját nézegettem minap és az NV logoval indított... Na azért ezt nem kéne... Márcsak azért sem mert normális tökös DX10-es hardware sincsen az NV-nek és akkor most ők nyomják itt a marketinget... Szal vicces kicsit... Az a gond ,hogy az ATI kártyák teljes feature listáját kihasználva szebb játékokat lehetne készíteni, de ugye ez senkit sem érdekel... A szar az egészben ,hogy azt érzem az NV a fejlődést fogja vissza ezzel és még mindig a DX9-es játékok toldozgatása és DX10-re való "ál" patchelése folyik és ennek kellene örülni...
-
Nekem amúgy most is az furdalja az oldalam ami az FX korszakban. Lassú volt a dx9 FX-eken? Jó, mire igazán hasznát láttuk játékokban (nem egyedül a Far Cry használta) addigra már kint is volt az nvidia SM3-as kártyával, az ati meg sm2.0b-vel kinlódott. Utóbbinak az égvilágon semmi haszna se volt sehol csak a dobozon, előbbi lehetővé tette a HDR-t, meg a hasonló mára divattávált effekteket. És nem vagyok benne biztos, de szerintem egy említésre méltó DX9-es játék se nagyon jött amit max grafikán elvitt volna a 9800XT és lehetett volna villogni vele (már úgy nagyfelbontásban, AA, AF, ahogy illik ; mikor még nem volt gef6 csak fx meg rad9).
Akkor okos dolog volt azért radeont venni mert milyen jó lesz 1 év múlva? (lehet hogy dx8-ban is gyorsabb volt most csak a "készüljünk a jövőre, de jó lesz ha..." részről nézem) Mert aki FX-et vett rákényszerült hogy gef6-ra váltson (én pl. rögtön kiadásakor FX5800 olcsón elpasszol és az árából 6600GT), aztán ha befagyott a konfigja mára jobban járt egy 6600GT-vel mint egy X800XT-vel, mert sok játék már csak SM3-al hajlandó egyáltalán megindulni. (még mindíg jobb 640x480-ba tolni mint sehogy, főleg olyan embernek akit ez nem is annyira izgat, csak lőni akar)
Szóval mire beköszöntött a DX9 korszak volt drága csúcskártyája és olcsó középkategóriás SM3-as cucca is az nvidiának, átlehetett velük vészelni az FX korszakot és utánna megérte velük maradni.Most visszatérve a jelenbe: Lefut egy global illumination demó 3870-en 100FTP-el, a csupsz, puritán környezetben, 8800GTS-en meg 1,5-el! Jó, számoljuk ki mennyi teljesítmény marad erre a célra egy játékban ami enélkül az effekt nélkül is csak 60FPS-el fut. Annyi hogy addig kéne butítani míg értelmétveszti, vagy emiatt megharmadolnánk az FPS-t és játszhatatlan lesz?
Nem lehet hogy ha kihoznának valami olyasmit mint FX korszakban a Far Cry, sőtt tényleg minden D10.1-et megvillantana valamilyen szinten most Geforce 9800GX2-n 4, Radeon 3870-en pedig 12 FPS-el menne 1024-es felbontásban? Én biztos kidobnám a kártyát és rohannék 3870-et venni, mert azon 3x annyi az FPS, csaképp azzal se fogok játszani 1 percig se...A DX10 még új cuc, jóhogy nem azonnal megy az átállás átmenet nélkül, ez ma az átmeneti korszak...
Sőtt, szerintem a DX10.1 előhozatala miatt már ugyanott leszünk mint SM2-SM3 idelyén, az igazán érdekes dolgokat amik összehozhatóak lettek volna DX10-ben már csak DX10.1-ben látjuk, DX10.0-t meg temethetjük...És mielőtt jönne valaki hogy önjelölt prókátor vagyok vagy fizetett marketinges: Venni fogok egy Radeon 4870-est amint kapható lesz magyarországon. (szerintem már itt ph aprón sorbanállok az első rakományért...) Most csak úgy kedvem volt elmélkedni...
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
R.Zoli
őstag
válasz janos666 #660 üzenetére
Szerintem téves a gondolatmeneted...Anno az FX széria ultra gyenge és fos képességei azért nem jöttek ki mert az NV akkor is pénzelt le mindenkit ,hogy ez meg az úgy legyen az FX-hez megírva ahogy kell mert különben a kártya összefosná magát... Szóval ezért sem volt tiszta a kép anno...
Namost a DX10 kapcsán megint ugyan ez van... Nem tiszta DX10-es kódok vannak hanem ezek a "felturbózott" DX9-es NV kártyákra optimákolt fosok mint a Crysis (bocs ha valakinek a lelkébe tapostam)...
Az átmeneti időszakokra nem azért van szükség és az ilyen félresikerült iszonyat gépigényű játékok sem azért jelennek meg mert ennek így kell lennie egy generációváltáskor hanem mert az NV trükközik és ez a gusztustalan... Nem akkor lesz valódi DX10-es játék mikor megérett hozzá a kor kártyája hanem mikor az NV úgy gondolja és nem ötletekkel áll elő hanem taktikázik és majd arra lép tovább amerre ő szeretné irányítani a piacot, nulla innováció stb... Ez a piac megvásárlása és manipulálása és ami ebben a legrosszabb ,hogy a fejlődést visszafogja... Én sosem láttam semmi innovációt az NV kártyáiban mint amikkel sokszor próbálkozott már régebben is az ATI, pl. a trueform a 8500-ban...
Nem véletlen ,hogy az NV betámadta az Intelt... Intel is tisztában van vele ,hogy az NV irányítja kénye kedve szerint a high-end VGA piacot és a játékok fejlődését... Namost az Intel és az AMD is olyan innovációkat vezetne be a jövőben amihez az NV-nek köze sem lesz és technologiailag kevesek ezért ultra hamar kiszorulhat a játékpiacról ha rákapnak az Intel és AMD megoldásaira a gyártók...
-
Komplikato
veterán
Hát tudja a fene. Én anno a GeForce 4200Ti HELYETT vettem drágábban Radeon 8500-ös kártyát, mert ugye "többet tud" ... de ezzel együtt a játékok lasabban mentek rajta egy olyan 10-20%-al. Hiába volt a geometriai sebessége a duplája, volt pár darab High Resolution pálya az aktuális UT-hez, azt hali. A TruForm-ot meg hány játék használta? UT2003/2004, Hitman(2?), Serious Sam, Wolfenstein (+ Enemy Territorry) hiába volt marha jó dolog.
Gyakorlatilag én csakis a Theatre mód miatt maradtam az ATI kártyáknál, mert kb. semmit nem érek vele, hogy sokat tud és semmi nem használja ki."Figyelj arra, aki keresi az igazságot és őrizkedj attól, aki hirdeti: megtalálta." - (André Gide)
-
Mikor kijött a half-life 2 én a radeonoknak szánt DX9-es renderpatchet erőltettem rá az fx 5800-ra is és sokat lassult DX8.1-hez képest (kis képminőségjavulással), de még játszható szinten maradt 2X AA mellett, aztán behajítottam egy 6600GT-t és az már vígan vitte élsimítva is.
A SM3.0 egy évvel korábbi bevezetésére nem reagáltál. Vagyis hogy mire lett DX9-es kártyájuk az már rögtön SM3-as volt, nem csak SM2.0 meg SM2.0b amik nem tudtak pl. HDR-t. Vagyis gyakorlatilag késtek egy kicsit a dx9-el, de aztán rögtön fullos kártyájuk lett mire egynél több játék is jött DX9-el, ha a felesleges SM2.0b-t is beszámoljuk az ATI is ugyanúgy elcseszett egy évet akkoriban...
Nameg arra se böktél hogy attól hogy a mai kártyák közül az egyik 10x gyorsabb bizonyos dx10 eljárások alatt ez még elég-e ahhoz hogy ha ezeket a dolgokat beépítenék egy játékba ott is megálnák-e a helyüket emellett a tljesítmény mellett? Vagy ahhoz illene egy olyasmi gyors kártya ami csak 1-2 generáció múlva lesz és addigra már minkét gyártó kártyái rendesen futtatnak minden DX10.1-es kódt?TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
válasz Komplikato #662 üzenetére
Hé, tök jó játékokat soroltál fel.
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
R.Zoli
őstag
válasz Komplikato #662 üzenetére
hát eből is csak az derül ki ,hogy hiába csinál jó dolgokat az ATi ha semmi sem használja ki...
-
R.Zoli
őstag
válasz janos666 #663 üzenetére
Az FX széria egy hulladék volt...Az ,hogy valami ment is rajta az akkori játékok közül normálisan az nagyon nagy részt az NV kenőpénzeinek köszönhette...Az SM2 és SM3 váltást szerintem azért ne keverjük össze a DX9 és DX10(.1) közöttivel, ezért nem is írtam róla, nüansznyi dolog volt az csak...A HDR meg igazából a 7-es szériával lett használható ,de még azzal sem sokszor... Szal ha már olyan fícsörökről beszélünk amik több generáció múlva használhatóak akkor nyugodtan ide is vehetjük...
A tesselator pl. olyan funkció amivel csak nyerhetnénk jelenleg is, ott az XBOX360, meg lehet nézni ,hoy ott tudják ezt használni míg PC-ben nem ,pedig nagyon hasznos, de még lehetne sorolni a hasznos optimalizációkat és hasznos fícsöröket amiket az NV kártyái nem tudnak és nem is fogunk belőle semmit sem látni...Majd amikor az NV kártyái tudják akkor látni fogod, de ez nem piaci versenyhelyzet és egy mű szféra amit az NV tart fennt...
Nézzünk erre egy másik területről példát:
Most az AMD-nek is ha lenne pénze akkor a saját prociaira optimalizáltathatna kódokat mert amíg gyengék a phenomok és nem tudják felvenni a Core 2-vel a versenyt addig szarrá optimalizálnák AMD-re a progikat majd mikor az AMD procija erősen versenyképes (és mondjuk tud sse 4.1-et) akkor már jöhetnek az sse4.1-re optimalizált progik is ,de addig ne szerezzen előnyt belőle az Intel míg az ő procijuk gyengébb... Na ugye ez sem így történik....Nincs egészséges verseny ezzel a VGA-k piacán ha az egyik fél így "játszik" és ez gusztustalan...
[ Szerkesztve ]
-
leviske
veterán
SSE 4.1 nem is lesz AMD prociban (tudtommal), csak SSE 5 lesz bennük.
A tesselatorhoz én is csak annyit tudok fűzni, hogy mindenki jól járna vele...nem lennének olyan játékok, mint a crysis, hogy egy komoly rendszeren, mediumon nem megy 50 fps fölé.....
Viszont azt meg kell hagyni, hogy az nV hamarabb ált elő a "DX10"-es megoldásával, ezért az Ati nem is várhatja el joggal, hogy különös képpen kihasználják a játékok a ficsörjeit.
Ha az r600 jön fél évvel előbb, akkor biztos, hogy rávetik magukat a játékfejlesztők. Már csak az XBOX360 miatt is. -
R.Zoli
őstag
Számomra ez nem magyarázat arra ,hogy az XBOX360-ról portolt játékokban akkor mért nincs benne a tesselator,másrészt a mai játékok egyike sem használja ki pedig jó ideje kinnt van az R600 sőt azóta már R670 is van...Erre csak az a magyarázat ,hogy az NV akkro szívna mert az ő kártyáján szarabb lenne minden játék...
-
Abu85
HÁZIGAZDA
A tesszalátor megcímzése csak a 8.3-as kakalisztbe került bele. A Box-on pedig eddig csak a Lost Planet használt tesszalált felületet, de az is csak a háttérben lévő hegyvonulatokra.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Phenom-ot az AMD szerintem eleve eldobta. A teljes K10 fejlesztése a szerverek irányelveire volt kiterjesztve. Nem az volt szerintem a cél, hogy verjük meg az asztali platform-on a Core2-őt, hanem, hogy húzzanak el a szervereknél a Xeonoktól. Tulajdonképpen, most hogy itt a B3-as Barcelona, a Nehalemig, mergint le van játszva a többutas szerverek meccse. Aztán majd kiderül mi lesz a forgatókönyv.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Crysis-nek messze nem gyorsulna annyit a tesszalált felületektől, hogy jól fusson. Alapvetően nem az a problémája. Komoly sebességtöbbletre egyéni szűrésekkel tenne szert, mert sokkal gyorsabb lenne a Parallax Occlusion Mapping, meg a Shadereket is át kellene írni SM3-ra, vagy SM4-re.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Kozmonauta
tag
A krízisben még SM 3 sincs??
A HÁBORÚ: BÉKE A SZABADSÁG: SZOLGASÁG A TUDATLANSÁG: ERŐ
-
Abu85
HÁZIGAZDA
válasz Kozmonauta #672 üzenetére
Ahol nem lehetett megoldani SM2-ben ott használtak SM3-at, vagy SM4-et. Ez a játék össz shaderjének kb. a 3-5%-a.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Hát nemtudom, de annakidején látványosan nőtt az FPS-em CS:S-ben 6600GT-vel mikor a hl2 megkapta a SM3-as renderpatchet (persze más it lehetett az update csomagban...).
A crysisnél tényleg érdekes ez a dolog, hisz már a Far Cry 1.3-ban is volt itt ott SM3. Kicsit el let baszva az a játék, pedig jónak igérkezett.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Abu85
HÁZIGAZDA
Alapvetően nem a nagy terekkkel van a baj, hanem az azon elhelyezkedő objektumokkal. A CryEngine 2 rendelkezik jelenleg a legjobb LOD kezelő lagoritmussal, ez a CryEngine első változatánál is kimagaslóan hatékony volt. A fejlett LOD kezelés alapból garantálja, hogy a távoli objektumok kevés erőforrást pazarolnak. A tesszalátor annyiban segítene, hogy a Parallax Occlusion Mapping-ot tulajdonképpen feleslegessé tenné. Amíg a Tesszalátor nem támogatott az API-ban addig nagyon kicsi a valószínűsége, hogy egy nem xBox360-as játék támogatni fogja. Egyszerűen nem éri meg a befektetett energiát. A xBox360 Xenos tesszalátora tulajdonképpen tök ugyanaz, mint az R600 és az arra épülő rendszereké, így ha Box-os a játék akkor a PC-n való tasszalálás minimális változtatásokat követelne, így a játék átírásánál érdemes egy kis energiát beleadni, hogy PC-n is használható legyen a fícsőr.
A Shader Modell szabványok alkalmazásában nem teljes az egyetértés az AMD és az nV között. A prog guide alapján az nV azt javasolja, hogy a Shader programot ha lehetsgées akkor mindig írjuk a lehető legkisebb Modell-re. Az AMD úgygondolja, hogy egyes esetekben az SM2-es kód felesleges, mert egy SM2-es hardver már túl lassú egy mai komplex program futtatására. Így ők azt javasolják, hogy olyan Shader modell-t használjanak, ahol az adott kód a leggyorsabban fut.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
"A lower resolution generally means that there can be more quality per pixel."
-
R.Zoli
őstag
Abu85 spekulációja:
A legújabb infók alapján leszámoltam a teljesítményt:
2xRV770:
Háromszög feldolgozás - ~1050 millió/s
Elméleti számitási teljesítmény - ~1680 GFLOPS
Elméleti utasítás teljesítmény - ~840 GIns/s
Elméleti Speciális utasítás teljesítmény - ~168 GIns/s
Pixel Fillrate - 33600 Mpixels/s
Z Fillrate - 67200 Msamples/s
Texel Fillrate - 33600 Mtexels/s
Textura mintavételezés sebessége - 168000 Msamples/s
Textura szűrés sebessége - 33600 Mbilerp/s
Lebegőpontos textura szűrés sebessége - 33600 Mbilerp/sEzen adatok alapján az RV770 erősebb lesz mint Abu85 gondolta Jónak ígérkezik a dolog...
[ Szerkesztve ]
-
leviske
veterán
Az AMD SM kódokhoz való hozzáállása nekem ésszerűbbnek tűnik...az nV-nak érdeke, hogy a régebbi SM kódokkal dolgozzanak a játékfejlesztők? Hiszen az ő kártyái is támogatják a legújabb sm kódokat... nem értem.
Egyébként akkor a Crysis-ben mit "szúrtak el" annyira, hogy inkább csak tesztprogram lett belőle? És mennyire lett volna nehéz ezt kiküszöbölni?
Bár gondolom direkt lett tesztprogram... ilyen játékokkal jobban be lehet robbanni a köztudatba.(#678) rocket: ÁÁÁÁ!!!! Amilyen lassan haladok a gépvásárlással ... lehet, hogy még ezek is becsusszannak az új konfigba!!!!
[ Szerkesztve ]
-
Hmm. Tegnap még 1Ghz volt a legfrissebb infó, ez mikori anyag?
És a memóri a verzió függvénye lesz? Nem lesz 512Mb-os 3870?
Már végülis ha ilyen áron mérik majd az 1Gb-osat kár is lenne ezen spórolni, még jól jöhet az a Vram ha vesz az ember egy nagyobb monitort...TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Emlékszel még a DOOM3-ra? Ott is nekiestek mindennek SM 1.0-val és valamilyen szinten meg is közelítették amit SM 2.0-val csináltak akkoriban mások, még manapság is jönnek játékok azzal a motorral. Bár nekem sose tetszett a DOOM3 grafikája, bár ha belegondolok akkoriban idegesítő volt az első DX9-es játkokban hogy minden csillogott-villogott, még a poros betonlapok is tükröződtek mert mértne...
Ezt csak arról ugrott be hogy nem csak az nv gondolja úgy hogy kár ágyúval lőni a gyufaszálra ha elviszi a légpuska is. És most nagy hülyeség, hogy ebből bármilyen következtetést vonok le, de ahogy néztem mások 3DMakr eredményeit 8800-akon szinte tök egyforma a SM2.0 és 3.0 eredmény, 9600GT-n ahol kevesebb a streamproci ott a SM2.0-ás érték a magasabb, 2900-as, 3800-as radeonokon viszont rendre 15-20%-al magasabb a SM3.0 eredmény mint a SM2.0.
De Abu is felytegette már hogy az ati kártyái arra gyúrtak hogy minél nehezebb dolgokkal is minél jobban elbírjanak, a geforceok meg arra hogy az átlagos vagy egyszerű feladatokat minél gyorsabban végrehajtsák. Innen meg az szűrhető le hogy ha a legegyszerűb dolgot is a legbonyolultabban oldják meg az nem rosszabb egy radeonnak de egy geforceot aránytalanul hátbaver.TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
7600GT
senior tag
válasz janos666 #682 üzenetére
Szerintem elég rosszul képzeled el a dolgokat. Nem arról van szó, hogy az AMD-nél mindent über komplex módon akarnak megvalósítani. Épp az ellenkezője, ezért is nyomatják annyira a dx10-t, mert akkor nem lennének ekkora mellélövések mint a Crysis.
Szerinted az nV elvei bárkinek is jók, az pl. hogy a Crysis nem fut rendesen egy csúcskarin sem very high beállítással? Szerinted ezek normális dolgok és az nV-t kéne követni? Azért kérdezem, mert ez jött le a mondandódból."kár ágyúval lőni a gyufaszálra ha elviszi a légpuska is."
Jah elviszi... Végülis, az más kérdés, hogy egy a gyönyörű puskaszál lelövés ~25fps-el megy.
Ha az ember féreggé teszi saját magát, ne csodálkozzon, ha rátaposnak.
-
Csiborbogár
őstag
-
[OFF]
Csak próbálok valamit felhozni az ellenkező oldal mentségére is mikor ilyeneket olvasok hogy szegény ATI már a világot megváltotta volna ha az nvidia nem fogja vissza a fejlődést, mert nem lehet tényekkel igazolni, nem látjuk a nagy innóvációkat (persze lehet hogy csak az nv miatt...) és így egyáltalán nem biztos hogy a jól hangzó dolgok a gyakorlatban is olyan nagy jelentőséggel bírnának, vagy akár jól működnének. (mert nem látjuk)
Szóval éppolyan légbőlkapott mindent az nvre varrni mint azt mondani amit most én felytegetek.Nem tehetek róla hogy mindíg szerettem halott dolgok mellett érvelni.
[/OFF]Én is megyek 3870-est venni amint lesz itthon.
A DDR5 órajelek meg elvileg nem kamuk, a GPU órajel az ami napról napra lebeg, a 4 Gz közeli DDR5 órajel rég tartja magát.
Szerk: sehogy se veszi be az OFF-ot, mi a fasz,? Raktam smile elé is, nem lehet enter közben?
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
ulveczkii
tag
Na ez most meglepett!
850Mhz-Chip 1050Mhz-Shader vagyis magyarul mostantól az ati is eltérő órajelen hajtja a shadereket?
Mennyi lehet ennek a valóságalapja? -
válasz ulveczkii #690 üzenetére
Nemtudom, de amúgy nemrég én is fel akartam vetni ->csak aztán elvesztem az offolásba (amihez magam is nagyban hozzájárultam)<- hogy a radeonokon nem lehetne-e megoldani hogy ha nem is ~2,3X-os, de mondjuk ~1,5X sebességen fussanak a shaderprocik a GPU-khoz képest?
Még nem volt hd-s radeonom, úgyhogy nem tudom, de ezeken nem lehet külön tologatni a shader órajelet rivatunerrel vagy ATI-toolal vagy BIOS szerkesztgetéssel, mint geforceokon? (attól még hogy szinkronból indít lehet GPU-tól függetlenül feltolni a shadeprocik órajelét?)[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Shader Modell 1.0-át, OpenGL-ben is megvannak ugyanazok mint DX-ben csak nem a microsoft féle windowsos directx-en hanem az opengl apin keresztül éri el a hadvert a program...
Amúgy szerintem a még meg nem jelent cuccok topicja amúgy se jó másra csak offolásra. Úgyis csak pletyka minden más is,,,
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
leviske
veterán
Kíváncsi leszek, hogy konkrétan május hanyadikán jelennek meg... és arra is, hogy ugyan az a hűtés lesz-e az 50-esen és a 70-esen (mint 29XT/PRO esetében), mert eddig egy hűtés került nyilvánosságra....
(#694) Dare2Live: ilyeneket ne is linkelj.... mikor elolvastam, majdnem agyvérzést kaptam.