Hirdetés
- Dedikált NPU-t tervezne az AMD?
- És akkor egy fejlesztőstúdió rájött, hogy vissza is élhetne a felskálázással
- Száguld a Meta és a Microsoft, 500 milliárd dollárral lőttek ki az AI-részvények
- Jól áll az ARM-os Windows helyzete, de a játékoknál nem jön az áttörés
- Kínai kézbe kerül a MediaMarkt áruházak tulajdonosa
- OLED TV topic
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- És akkor egy fejlesztőstúdió rájött, hogy vissza is élhetne a felskálázással
- Házimozi belépő szinten
- Milyen belső merevlemezt vegyek?
- Milyen processzort vegyek?
- TCL LCD és LED TV-k
- HiFi műszaki szemmel - sztereó hangrendszerek
- RAM topik
- Azonnali fotós kérdések órája
Hirdetés
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!
Aktív témák
-
leviske
veterán
Kíváncsi leszek, hogy konkrétan május hanyadikán jelennek meg...
és arra is, hogy ugyan az a hűtés lesz-e az 50-esen és a 70-esen (mint 29XT/PRO esetében), mert eddig egy hűtés került nyilvánosságra....
(#694) Dare2Live: ilyeneket ne is linkelj.... mikor elolvastam, majdnem agyvérzést kaptam.
-
janos666
nagyúr
Shader Modell 1.0-át, OpenGL-ben is megvannak ugyanazok mint DX-ben csak nem a microsoft féle windowsos directx-en hanem az opengl apin keresztül éri el a hadvert a program...
Amúgy szerintem a még meg nem jelent cuccok topicja amúgy se jó másra csak offolásra. Úgyis csak pletyka minden más is,,,
-
janos666
nagyúr
válasz
ulveczkii #690 üzenetére
Nemtudom, de amúgy nemrég én is fel akartam vetni ->csak aztán elvesztem az offolásba (amihez magam is nagyban hozzájárultam)<- hogy a radeonokon nem lehetne-e megoldani hogy ha nem is ~2,3X-os, de mondjuk ~1,5X sebességen fussanak a shaderprocik a GPU-khoz képest?
Még nem volt hd-s radeonom, úgyhogy nem tudom, de ezeken nem lehet külön tologatni a shader órajelet rivatunerrel vagy ATI-toolal vagy BIOS szerkesztgetéssel, mint geforceokon? (attól még hogy szinkronból indít lehet GPU-tól függetlenül feltolni a shadeprocik órajelét?) -
ulveczkii
tag
Na ez most meglepett!
850Mhz-Chip 1050Mhz-Shader vagyis magyarul mostantól az ati is eltérő órajelen hajtja a shadereket?
Mennyi lehet ennek a valóságalapja? -
janos666
nagyúr
[OFF]
Csak próbálok valamit felhozni az ellenkező oldal mentségére is mikor ilyeneket olvasok hogy szegény ATI már a világot megváltotta volna ha az nvidia nem fogja vissza a fejlődést, mert nem lehet tényekkel igazolni, nem látjuk a nagy innóvációkat (persze lehet hogy csak az nv miatt...) és így egyáltalán nem biztos hogy a jól hangzó dolgok a gyakorlatban is olyan nagy jelentőséggel bírnának, vagy akár jól működnének. (mert nem látjuk)
Szóval éppolyan légbőlkapott mindent az nvre varrni mint azt mondani amit most én felytegetek.Nem tehetek róla hogy mindíg szerettem halott dolgok mellett érvelni.
[/OFF]Én is megyek 3870-est venni amint lesz itthon.
A DDR5 órajelek meg elvileg nem kamuk, a GPU órajel az ami napról napra lebeg, a 4 Gz közeli DDR5 órajel rég tartja magát.
Szerk: sehogy se veszi be az OFF-ot, mi a fasz,? Raktam smile elé is, nem lehet enter közben?
-
7600GT
senior tag
válasz
janos666 #682 üzenetére
Szerintem elég rosszul képzeled el a dolgokat. Nem arról van szó, hogy az AMD-nél mindent über komplex módon akarnak megvalósítani. Épp az ellenkezője, ezért is nyomatják annyira a dx10-t, mert akkor nem lennének ekkora mellélövések mint a Crysis.
Szerinted az nV elvei bárkinek is jók, az pl. hogy a Crysis nem fut rendesen egy csúcskarin sem very high beállítással? Szerinted ezek normális dolgok és az nV-t kéne követni? Azért kérdezem, mert ez jött le a mondandódból."kár ágyúval lőni a gyufaszálra ha elviszi a légpuska is."
Jah elviszi... Végülis, az más kérdés, hogy egy a gyönyörű puskaszál lelövés ~25fps-el megy.
-
janos666
nagyúr
Emlékszel még a DOOM3-ra? Ott is nekiestek mindennek SM 1.0-val és valamilyen szinten meg is közelítették amit SM 2.0-val csináltak akkoriban mások, még manapság is jönnek játékok azzal a motorral. Bár nekem sose tetszett a DOOM3 grafikája, bár ha belegondolok akkoriban idegesítő volt az első DX9-es játkokban hogy minden csillogott-villogott, még a poros betonlapok is tükröződtek mert mértne...
Ezt csak arról ugrott be hogy nem csak az nv gondolja úgy hogy kár ágyúval lőni a gyufaszálra ha elviszi a légpuska is. És most nagy hülyeség, hogy ebből bármilyen következtetést vonok le, de ahogy néztem mások 3DMakr eredményeit 8800-akon szinte tök egyforma a SM2.0 és 3.0 eredmény, 9600GT-n ahol kevesebb a streamproci ott a SM2.0-ás érték a magasabb, 2900-as, 3800-as radeonokon viszont rendre 15-20%-al magasabb a SM3.0 eredmény mint a SM2.0.
De Abu is felytegette már hogy az ati kártyái arra gyúrtak hogy minél nehezebb dolgokkal is minél jobban elbírjanak, a geforceok meg arra hogy az átlagos vagy egyszerű feladatokat minél gyorsabban végrehajtsák. Innen meg az szűrhető le hogy ha a legegyszerűb dolgot is a legbonyolultabban oldják meg az nem rosszabb egy radeonnak de egy geforceot aránytalanul hátbaver. -
janos666
nagyúr
-
leviske
veterán
Az AMD SM kódokhoz való hozzáállása nekem ésszerűbbnek tűnik...az nV-nak érdeke, hogy a régebbi SM kódokkal dolgozzanak a játékfejlesztők? Hiszen az ő kártyái is támogatják a legújabb sm kódokat... nem értem.
Egyébként akkor a Crysis-ben mit "szúrtak el" annyira, hogy inkább csak tesztprogram lett belőle? És mennyire lett volna nehéz ezt kiküszöbölni?
Bár gondolom direkt lett tesztprogram... ilyen játékokkal jobban be lehet robbanni a köztudatba.(#678) rocket: ÁÁÁÁ!!!! Amilyen lassan haladok a gépvásárlással
... lehet, hogy még ezek is becsusszannak az új konfigba!!!!
-
R.Zoli
őstag
Abu85 spekulációja:
A legújabb infók alapján leszámoltam a teljesítményt:
2xRV770:
Háromszög feldolgozás - ~1050 millió/s
Elméleti számitási teljesítmény - ~1680 GFLOPS
Elméleti utasítás teljesítmény - ~840 GIns/s
Elméleti Speciális utasítás teljesítmény - ~168 GIns/s
Pixel Fillrate - 33600 Mpixels/s
Z Fillrate - 67200 Msamples/s
Texel Fillrate - 33600 Mtexels/s
Textura mintavételezés sebessége - 168000 Msamples/s
Textura szűrés sebessége - 33600 Mbilerp/s
Lebegőpontos textura szűrés sebessége - 33600 Mbilerp/sEzen adatok alapján az RV770 erősebb lesz mint Abu85 gondolta
Jónak ígérkezik a dolog...
-
rocket
nagyúr
-
Abu85
HÁZIGAZDA
Alapvetően nem a nagy terekkkel van a baj, hanem az azon elhelyezkedő objektumokkal. A CryEngine 2 rendelkezik jelenleg a legjobb LOD kezelő lagoritmussal, ez a CryEngine első változatánál is kimagaslóan hatékony volt. A fejlett LOD kezelés alapból garantálja, hogy a távoli objektumok kevés erőforrást pazarolnak. A tesszalátor annyiban segítene, hogy a Parallax Occlusion Mapping-ot tulajdonképpen feleslegessé tenné. Amíg a Tesszalátor nem támogatott az API-ban addig nagyon kicsi a valószínűsége, hogy egy nem xBox360-as játék támogatni fogja. Egyszerűen nem éri meg a befektetett energiát. A xBox360 Xenos tesszalátora tulajdonképpen tök ugyanaz, mint az R600 és az arra épülő rendszereké, így ha Box-os a játék akkor a PC-n való tasszalálás minimális változtatásokat követelne, így a játék átírásánál érdemes egy kis energiát beleadni, hogy PC-n is használható legyen a fícsőr.
A Shader Modell szabványok alkalmazásában nem teljes az egyetértés az AMD és az nV között. A prog guide alapján az nV azt javasolja, hogy a Shader programot ha lehetsgées akkor mindig írjuk a lehető legkisebb Modell-re. Az AMD úgygondolja, hogy egyes esetekben az SM2-es kód felesleges, mert egy SM2-es hardver már túl lassú egy mai komplex program futtatására. Így ők azt javasolják, hogy olyan Shader modell-t használjanak, ahol az adott kód a leggyorsabban fut.
-
janos666
nagyúr
Hát nemtudom, de annakidején látványosan nőtt az FPS-em CS:S-ben 6600GT-vel mikor a hl2 megkapta a SM3-as renderpatchet (persze más it lehetett az update csomagban...).
A crysisnél tényleg érdekes ez a dolog, hisz már a Far Cry 1.3-ban is volt itt ott SM3. Kicsit el let baszva az a játék, pedig jónak igérkezett.
-
Abu85
HÁZIGAZDA
válasz
Kozmonauta #672 üzenetére
Ahol nem lehetett megoldani SM2-ben ott használtak SM3-at, vagy SM4-et. Ez a játék össz shaderjének kb. a 3-5%-a.
-
Kozmonauta
tag
A krízisben még SM 3 sincs??
-
Abu85
HÁZIGAZDA
A Crysis-nek messze nem gyorsulna annyit a tesszalált felületektől, hogy jól fusson. Alapvetően nem az a problémája. Komoly sebességtöbbletre egyéni szűrésekkel tenne szert, mert sokkal gyorsabb lenne a Parallax Occlusion Mapping, meg a Shadereket is át kellene írni SM3-ra, vagy SM4-re.
-
Abu85
HÁZIGAZDA
A Phenom-ot az AMD szerintem eleve eldobta. A teljes K10 fejlesztése a szerverek irányelveire volt kiterjesztve. Nem az volt szerintem a cél, hogy verjük meg az asztali platform-on a Core2-őt, hanem, hogy húzzanak el a szervereknél a Xeonoktól. Tulajdonképpen, most hogy itt a B3-as Barcelona, a Nehalemig, mergint le van játszva a többutas szerverek meccse. Aztán majd kiderül mi lesz a forgatókönyv.
-
R.Zoli
őstag
Számomra ez nem magyarázat arra ,hogy az XBOX360-ról portolt játékokban akkor mért nincs benne a tesselator,másrészt a mai játékok egyike sem használja ki pedig jó ideje kinnt van az R600 sőt azóta már R670 is van...Erre csak az a magyarázat ,hogy az NV akkro szívna mert az ő kártyáján szarabb lenne minden játék...
-
leviske
veterán
SSE 4.1 nem is lesz AMD prociban (tudtommal), csak SSE 5 lesz bennük.
A tesselatorhoz én is csak annyit tudok fűzni, hogy mindenki jól járna vele...nem lennének olyan játékok, mint a crysis, hogy egy komoly rendszeren, mediumon nem megy 50 fps fölé.....
Viszont azt meg kell hagyni, hogy az nV hamarabb ált elő a "DX10"-es megoldásával, ezért az Ati nem is várhatja el joggal, hogy különös képpen kihasználják a játékok a ficsörjeit.
Ha az r600 jön fél évvel előbb, akkor biztos, hogy rávetik magukat a játékfejlesztők. Már csak az XBOX360 miatt is. -
R.Zoli
őstag
válasz
janos666 #663 üzenetére
Az FX széria egy hulladék volt...Az ,hogy valami ment is rajta az akkori játékok közül normálisan az nagyon nagy részt az NV kenőpénzeinek köszönhette...Az SM2 és SM3 váltást szerintem azért ne keverjük össze a DX9 és DX10(.1) közöttivel, ezért nem is írtam róla, nüansznyi dolog volt az csak...A HDR meg igazából a 7-es szériával lett használható ,de még azzal sem sokszor... Szal ha már olyan fícsörökről beszélünk amik több generáció múlva használhatóak akkor nyugodtan ide is vehetjük...
A tesselator pl. olyan funkció amivel csak nyerhetnénk jelenleg is, ott az XBOX360, meg lehet nézni ,hoy ott tudják ezt használni míg PC-ben nem ,pedig nagyon hasznos, de még lehetne sorolni a hasznos optimalizációkat és hasznos fícsöröket amiket az NV kártyái nem tudnak és nem is fogunk belőle semmit sem látni...Majd amikor az NV kártyái tudják akkor látni fogod, de ez nem piaci versenyhelyzet és egy mű szféra amit az NV tart fennt...
Nézzünk erre egy másik területről példát:
Most az AMD-nek is ha lenne pénze akkor a saját prociaira optimalizáltathatna kódokat mert amíg gyengék a phenomok és nem tudják felvenni a Core 2-vel a versenyt addig szarrá optimalizálnák AMD-re a progikat majd mikor az AMD procija erősen versenyképes (és mondjuk tud sse 4.1-et) akkor már jöhetnek az sse4.1-re optimalizált progik is ,de addig ne szerezzen előnyt belőle az Intel míg az ő procijuk gyengébb... Na ugye ez sem így történik....Nincs egészséges verseny ezzel a VGA-k piacán ha az egyik fél így "játszik" és ez gusztustalan...
-
R.Zoli
őstag
válasz
Komplikato #662 üzenetére
hát eből is csak az derül ki ,hogy hiába csinál jó dolgokat az ATi ha semmi sem használja ki...
-
janos666
nagyúr
válasz
Komplikato #662 üzenetére
Hé, tök jó játékokat soroltál fel.
-
janos666
nagyúr
Mikor kijött a half-life 2 én a radeonoknak szánt DX9-es renderpatchet erőltettem rá az fx 5800-ra is és sokat lassult DX8.1-hez képest (kis képminőségjavulással), de még játszható szinten maradt 2X AA mellett, aztán behajítottam egy 6600GT-t és az már vígan vitte élsimítva is.
A SM3.0 egy évvel korábbi bevezetésére nem reagáltál. Vagyis hogy mire lett DX9-es kártyájuk az már rögtön SM3-as volt, nem csak SM2.0 meg SM2.0b amik nem tudtak pl. HDR-t. Vagyis gyakorlatilag késtek egy kicsit a dx9-el, de aztán rögtön fullos kártyájuk lett mire egynél több játék is jött DX9-el, ha a felesleges SM2.0b-t is beszámoljuk az ATI is ugyanúgy elcseszett egy évet akkoriban...
Nameg arra se böktél hogy attól hogy a mai kártyák közül az egyik 10x gyorsabb bizonyos dx10 eljárások alatt ez még elég-e ahhoz hogy ha ezeket a dolgokat beépítenék egy játékba ott is megálnák-e a helyüket emellett a tljesítmény mellett? Vagy ahhoz illene egy olyasmi gyors kártya ami csak 1-2 generáció múlva lesz és addigra már minkét gyártó kártyái rendesen futtatnak minden DX10.1-es kódt? -
Komplikato
veterán
Hát tudja a fene. Én anno a GeForce 4200Ti HELYETT vettem drágábban Radeon 8500-ös kártyát, mert ugye "többet tud" ... de ezzel együtt a játékok lasabban mentek rajta egy olyan 10-20%-al. Hiába volt a geometriai sebessége a duplája, volt pár darab High Resolution pálya az aktuális UT-hez, azt hali. A TruForm-ot meg hány játék használta? UT2003/2004, Hitman(2?), Serious Sam, Wolfenstein (+ Enemy Territorry) hiába volt marha jó dolog.
Gyakorlatilag én csakis a Theatre mód miatt maradtam az ATI kártyáknál, mert kb. semmit nem érek vele, hogy sokat tud és semmi nem használja ki. -
R.Zoli
őstag
válasz
janos666 #660 üzenetére
Szerintem téves a gondolatmeneted...Anno az FX széria ultra gyenge és fos képességei azért nem jöttek ki mert az NV akkor is pénzelt le mindenkit ,hogy ez meg az úgy legyen az FX-hez megírva ahogy kell mert különben a kártya összefosná magát... Szóval ezért sem volt tiszta a kép anno...
Namost a DX10 kapcsán megint ugyan ez van... Nem tiszta DX10-es kódok vannak hanem ezek a "felturbózott" DX9-es NV kártyákra optimákolt fosok mint a Crysis (bocs ha valakinek a lelkébe tapostam)...
Az átmeneti időszakokra nem azért van szükség és az ilyen félresikerült iszonyat gépigényű játékok sem azért jelennek meg mert ennek így kell lennie egy generációváltáskor hanem mert az NV trükközik és ez a gusztustalan... Nem akkor lesz valódi DX10-es játék mikor megérett hozzá a kor kártyája hanem mikor az NV úgy gondolja és nem ötletekkel áll elő hanem taktikázik és majd arra lép tovább amerre ő szeretné irányítani a piacot, nulla innováció stb... Ez a piac megvásárlása és manipulálása és ami ebben a legrosszabb ,hogy a fejlődést visszafogja... Én sosem láttam semmi innovációt az NV kártyáiban mint amikkel sokszor próbálkozott már régebben is az ATI, pl. a trueform a 8500-ban...
Nem véletlen ,hogy az NV betámadta az Intelt... Intel is tisztában van vele ,hogy az NV irányítja kénye kedve szerint a high-end VGA piacot és a játékok fejlődését... Namost az Intel és az AMD is olyan innovációkat vezetne be a jövőben amihez az NV-nek köze sem lesz és technologiailag kevesek ezért ultra hamar kiszorulhat a játékpiacról ha rákapnak az Intel és AMD megoldásaira a gyártók...
-
janos666
nagyúr
Nekem amúgy most is az furdalja az oldalam ami az FX korszakban. Lassú volt a dx9 FX-eken? Jó, mire igazán hasznát láttuk játékokban (nem egyedül a Far Cry használta) addigra már kint is volt az nvidia SM3-as kártyával, az ati meg sm2.0b-vel kinlódott. Utóbbinak az égvilágon semmi haszna se volt sehol csak a dobozon, előbbi lehetővé tette a HDR-t, meg a hasonló mára divattávált effekteket. És nem vagyok benne biztos, de szerintem egy említésre méltó DX9-es játék se nagyon jött amit max grafikán elvitt volna a 9800XT és lehetett volna villogni vele (már úgy nagyfelbontásban, AA, AF, ahogy illik ; mikor még nem volt gef6 csak fx meg rad9).
Akkor okos dolog volt azért radeont venni mert milyen jó lesz 1 év múlva? (lehet hogy dx8-ban is gyorsabb volt most csak a "készüljünk a jövőre, de jó lesz ha..." részről nézem) Mert aki FX-et vett rákényszerült hogy gef6-ra váltson (én pl. rögtön kiadásakor FX5800 olcsón elpasszol és az árából 6600GT), aztán ha befagyott a konfigja mára jobban járt egy 6600GT-vel mint egy X800XT-vel, mert sok játék már csak SM3-al hajlandó egyáltalán megindulni. (még mindíg jobb 640x480-ba tolni mint sehogy, főleg olyan embernek akit ez nem is annyira izgat, csak lőni akar)
Szóval mire beköszöntött a DX9 korszak volt drága csúcskártyája és olcsó középkategóriás SM3-as cucca is az nvidiának, átlehetett velük vészelni az FX korszakot és utánna megérte velük maradni.Most visszatérve a jelenbe: Lefut egy global illumination demó 3870-en 100FTP-el, a csupsz, puritán környezetben, 8800GTS-en meg 1,5-el! Jó, számoljuk ki mennyi teljesítmény marad erre a célra egy játékban ami enélkül az effekt nélkül is csak 60FPS-el fut. Annyi hogy addig kéne butítani míg értelmétveszti, vagy emiatt megharmadolnánk az FPS-t és játszhatatlan lesz?
Nem lehet hogy ha kihoznának valami olyasmit mint FX korszakban a Far Cry, sőtt tényleg minden D10.1-et megvillantana valamilyen szinten most Geforce 9800GX2-n 4, Radeon 3870-en pedig 12 FPS-el menne 1024-es felbontásban? Én biztos kidobnám a kártyát és rohannék 3870-et venni, mert azon 3x annyi az FPS, csaképp azzal se fogok játszani 1 percig se...A DX10 még új cuc, jóhogy nem azonnal megy az átállás átmenet nélkül, ez ma az átmeneti korszak...
Sőtt, szerintem a DX10.1 előhozatala miatt már ugyanott leszünk mint SM2-SM3 idelyén, az igazán érdekes dolgokat amik összehozhatóak lettek volna DX10-ben már csak DX10.1-ben látjuk, DX10.0-t meg temethetjük...És mielőtt jönne valaki hogy önjelölt prókátor vagyok vagy fizetett marketinges: Venni fogok egy Radeon 4870-est amint kapható lesz magyarországon. (szerintem már itt ph aprón sorbanállok az első rakományért...) Most csak úgy kedvem volt elmélkedni...
-
R.Zoli
őstag
Jah csak egy kicsit vicces ,hogy a Stalker új részének a DX10-es demoját nézegettem minap és az NV logoval indított... Na azért ezt nem kéne... Márcsak azért sem mert normális tökös DX10-es hardware sincsen az NV-nek és akkor most ők nyomják itt a marketinget... Szal vicces kicsit... Az a gond ,hogy az ATI kártyák teljes feature listáját kihasználva szebb játékokat lehetne készíteni, de ugye ez senkit sem érdekel... A szar az egészben ,hogy azt érzem az NV a fejlődést fogja vissza ezzel és még mindig a DX9-es játékok toldozgatása és DX10-re való "ál" patchelése folyik és ennek kellene örülni...
-
ulveczkii
tag
Az biztos hogy az Nv rengeteg támogatói pénzt öl abba hogy csúnyán mondva rá írják a játékokat. Sokak által elítélendő módon (én is ige tartozom) mivel ezzel hátráltatja a fejlődést és szerintem ezzel van a baj hisz mindenki arra szánja a pénzét amire jónak látja és ha ő lenne a nagy újító akkor mindenki a seggét csapkodná a földhöz hogy jaj de jól néz ki és még gyorsan is fut + még ez a tündér arra is szán pénzt hogy a fejlesztőket ösztönözze és segítse, hát ez egy mese
. Csakhogy sajan nem ez történik. Másrésztől azt is be kell látni hogy arra a logikusabb írni a játékokat ami a többségnek van. Vagyis az atinak meg kellene közelíteni az 50%ot a gamereknek szánt GPU piac részesedésében.
Ahogy én látom egyre jobb a szitu, a piaci részesedésük nő és egyre jobb gpukat dobnak piacra és egyszer csak beérik a dx10 gyümolcse hisz az Nv akárhogy kapálózik előbutób belefut egy FX szindrómába hacsak nem talál ki valami radikálisan újat ami egy több éve finomított és csiszolgatott ATI karival kerül szembe -
Drizzt
nagyúr
"Egyébként kérdésedre válaszolva nem jó nekünk, de nincs mit tenni. Míg az nV irányítja a játékipart, addig az ATi sosem lesz komolyabb fölényben.
"
Volt amikor fordított volt a helyzet, az Nv mégis fordított belőle. Az hogy irányítja az szerintem túlzás, mondjunk annyit, hogy próbálja minél erősebben befolyásolni, elég sok sikerrel. -
ulveczkii
tag
Az ipnos hír lényegében az általam linkelt fordítása szinte szórúl szóra
Madmax81: egyrész pár hónap ide vagy oda már jelemtős pénzeket jelenthet ide
Másrészt már még nem ismertek a specifikációji de gyanítom hogy a 9900GTX a G92b-re fog épűlni ami annyit jelent hogy lesz benn hozzávetőleg 10+15% + a csíkszélességcsökkeltésből adódó územfrekvenciahövekedés okán (de lehet hogy ennyi se) ami ugyebár nem sok minden. Ez csak arról szól hogy a kissebb gyártási költség nyomán többet tudjanak lehúzni az emberekről. Ami pozitívum az az hogy ebből talán már tudni fognak csinálni rgy olyan GX2-t ami nem olvasztja le magáról az út burkoló műanyagot -
janos666
nagyúr
válasz
Csiborbogár #648 üzenetére
Én csak leszűrtem hogy szerintem kis tuningpotenciál lesz a kártyában - abból kiindulva hogy először magas órajeleket jósoltak, aztán helyesbítették alacsonyabbakal, most pedig ismét 1Ghz-ek röpködnek ami önmagában is elég horribilisnek tűnik. Szóval úgy tűnik kisajtolják amit lehet...
Azt is mondtam hogy ez nem feltétlenül baj, de ha a hasonló ár/teljesítményű geforceban meg rejtőzik majd fixnek mondható (10 kártyából 9 bírja) 25-30% akkor ez már lehet hátrány...
Én amúgy még szeretem is kitesztelgetni mit bír egy hardver, ez vásárlás után egy napnyi játék, van olyan jó mint lövöldözős játékot tolni...Iponon meg letiltották a cikket? Hmm? Mellényúlt valaki pelenkázás közben?
-
-
leviske
veterán
válasz
Madmax81 #650 üzenetére
Nem ismerem a 9900GTX adatait. Ha GT200 lesz rajta, akkor ellene meg már nem a HD4870 szál szembe, hanem a HD4870 X2.
Egyébként kérdésedre válaszolva nem jó nekünk, de nincs mit tenni. Míg az nV irányítja a játékipart, addig az ATi sosem lesz komolyabb fölényben.
Amugy én sem vagyok szaki.
-
Csiborbogár
őstag
válasz
janos666 #641 üzenetére
Én megmondom őszintén teszek a tuningpotenciálra, ha egy igazán ütős kártyáról van szó.
És így van ezzel a felhasználók jó része, aki inkább kiad kicsivel többet csak azért, hogy ne kelljen tuninggal foglalkozni.
Az elmúlt időszakban is ez a jellemző az ATI-ra.
Legyen a legerősebb alap órajelen, és paszta. -
TTomax
félisten
válasz
antikomcsi #644 üzenetére
Pont most akartam linkelni.
-
leviske
veterán
válasz
antikomcsi #644 üzenetére
Elvileg: HD3870 x 1.5 = HD4870
-
antikomcsi
veterán
Sziasztok!
Ezt olvastátok már? : [A vártnál előbb jön a HD4800-as sorozat?] /forrás:ipon/
Ha az információk igazak lesznek, körülbelül mire lehet számítani a 3870-hez képest?
-
ulveczkii
tag
válasz
janos666 #641 üzenetére
Engem őszintén szólva nem érdekel ha nem lesz tuning bajnok hisz a csúcskatekóriának nem is kell szerintem annak lenni. Nada a kistestvér(ek) 4850 az biztos húzhatú lesz hisz közel a nagytestvér szintjére tehát minimum 900-950 de akár 1000 Mhz-re is. Nemmintha szerintem ennek a huzogatásnak akkora jelentősége lenne hisz ezzel a 10-20%os freki növeléssel talán nyerhető 5-10% valós teljesítménynövekedés. Persze vannak kivételek (Pl nekem is volt egy fesz emelési lehetőséggel ellátott 9550em ami kb +60-70%ot adott 3dm03ban. vagy mondjuk a 7900GS) de nagy általánosságba nem látom értelmét a piszkálgatásnak.
-
janos666
nagyúr
válasz
ulveczkii #640 üzenetére
Érdekes, pedig az 1Gzh-ről már letettek régebben a chiphellnél ahol elvileg meztelen nyákot fityegtető képet is csatoltak a rövidhír mellé. Viszont lehet hogy ha megint felfelé tolták az órajelet akkor alig marad majd tuningpotenciál a kártyában (legalább is az első bolti revízióban). Pl. amelyik kevéske GPU stabilan megéri az 1Ghz-et az megy 3870-nek, ami nem azt selejtezik 3850-nek vagy valami későbbi butított(olcsóbb) kártyához, esetleg az X2-re kerül ahol kicsit kissebb órajelet céloznak meg. De én akkor is azt jósolom tuningra nem marad ha 1Ghz az alap.
Ez persze nem feltétlen igaz és nem is baj ha ehhez mérten is jó áron jön (ugyanannyit megy mint az azonos árú geforce felhúzva...) és tényleg ittlesz boltokban június közepére. -
ulveczkii
tag
link
Cakhogy visszakanyarodjunk az eredeti témához -
így már érthető
viszont emlékeim szerint ilyet nem csak a shader compiler tud, hanem limitált mértékben az UTDP is, rosszul emlékszem?
cube map: aha, ez így logikus. akkor viszont azt kell megoldani, hogy hierarchikusak legyenek a tömbök, akár már 2 szinttel is egész nagy területet lehet lefedni. és akkor itt is lehet alkalmazni valami LOD-szerűséget, és talán van is egy ésszerű kompromisszomunk némi extra memóriafogyasztás árán. viszont, hallod, ez már nem shader-programozás
-
Abu85
HÁZIGAZDA
Tesszalátorral végrehajtva biztos gyorsabb. Geometry Shaderrel viszont a legtöbb esetben valószínűleg lassabb a POM-nál.
Jelenleg a Displacement Mappingot a fejlesztők a Vertex Texture Fetch eljárás alkalmazásával csinálnának, de ez bűn lassú. A GS alapú Displacement Mapping-tól a GeForce-ok kihalnak, Tesszalátor pedig csak a Radeonban van.
Ezért terjed főleg a POM. Mindegyik jelenben kapható kártya megbirkózik vele. -
Abu85
HÁZIGAZDA
Ez azt jelent, hogy amikor ezt a mondatot kijavítottam helyesre nem nyomtam save-et a dokumentumon és sajna így került fel.
De javítva. Felrakás előtt az R600-as részt nem olvastam át, mert azt sokszor újra írtam, azt hittem abban nem lehet hiba.
Helyesen a mondat: A meghajtó az egymás után következő utasításokból, optimalizált végrehajtási sorrend felállítása után, hosszú és komplex, főleg 5 matematikai és 1 vezérlő utasításból álló VLIW mintákat hoz létre.Na most a Cube Map tömbök mérete nagymértékben variálható. Tulajdonképpen a méret teljesen területhez alakítható. Ilyet alkalmaz a PingPong demó is. Van egy kompatibilítási módja a HD3600-as karikhoz, ahol nincs megfelelő Shader teljesítmény a számításokhoz, így az alapértelmezett Cube méretek többszörösére nőnek. Ez némileg csökkenti a feldolgozási minőséget, de még így is jobb az eredmény a direct light-os modell esetében. A dolog egyelőre csak külső helyszíneken nem működik.
A PingPong demóban meg nem csak a GI van Cube Map tömbbel megcsinálva, hanem a teljes jelenet pinyó labdákon való valós idejű tükröződése. -
Nekem is nagyon tetszett a cikk, gratula!
Viszont 1 dolgot nem értek: azt írod, hogy "A meghajtó az egymás után következő utasításokból, optimalizált végrehajtási sorrend felállítása után, hosszú és komplex 512bit-es VLIW mintákat hoz létre". Ez alatt azt érted, hogy az egy shader tömb által egy ciklus alatt végrehajtandó 5x16 elemi utasítás egy VLIW utasításként állítja elő a shader compiler?Ill. egy kis filozófia. Nagyon impresszív az R600 sebesség-fölénye a Global Illumination demo-ban, de ennek feltehetőleg főleg a cache megfelelő mérete az oka. Felmerül a kérdés, hogy ha nem egy 4x5x2.5-es (vagy mekkora) szobának a cube mapjét kell tárolni, hanem pl. a Bioshock víz alatti összekötő folyosóiét, akkor hogy fog a dolog működni a dolog? Van olyan hatékony a cache elő-töltése, hogy a shaderek továbbra is a cache-ből dolgozzanak, vagy az R600 is a memóriaolvasásokra kényszerülne ilyenkor?
-
Abu85
HÁZIGAZDA
A Displacement Mapping a legjobb eljárás felületi torzításokra, a Parallax Occlusion Mapping hasonló eredményt mutat fel, de ha nagyon oldalról nézed akkor picit problémás a rendszer. Mivel a Displacement Mapping konkrétan új vertexeket hoz létre, ezért az bármilyen irányból tökéletest hatást kelt.
Parallax Occlusion Mapping-ot azért alkalmazzák mostanság, mert a mai karikban van annyi szufla, hogy kiköhögjék magukból időben. A LOD utasítások ezen annyiban segítenek, hogy egyéni szűrést lehet létrehozni a POM felületekre, mert a jelenlegi AF féle bedrótozott szűrésekkel rengeteg felesleges munka lesz elvégezve, ami az eredményen nem látszik.
A Frostbite-ot elsősorban a Xenos-ra tervezték. Annak a chipnek annyira nem fekszik a POM (inkább érdemes rajta Tesszalálni). A PC-s verzióba persze belekerülhet.
A 3D-s geometriai alapon történű feldolgozásban a Tesszalátor adja majd az utolsó löketet, azután nincs tovább, mert egy bizonyos szint után nincs értelme tovább növelni a részletességet. Tulajdonképpen a geometriai elvek zátonyra futnak. -
7600GT
senior tag
"Ez majd nagyon jót fog tenni a Parallax Occlusion Mapping sebességének."
De a POM egy hihetetlenül erőforrás zabáló dolog, ha jól tudom a displacement mapping hivatott levaltani. Szóval egy elavult technikát polírozni szerintem nincs értelme.
Mikor fog ez elterjedni? pl. a Frostbite már fogja használni az egyéni szűrési eljárásokat?
-
Abu85
HÁZIGAZDA
A D3D10.1-ben megjelentek LOD kezelő utasítások, így létre lehet hozni egyéni szűrési eljárásokat is. Ez majd nagyon jót fog tenni a Parallax Occlusion Mapping sebességének. Ám az ilyen algoritmusok csak akkor fognak működni, ha a LOD kezelés egyénileg Shader alapján irányított. Ergo teljesen meg lesz tiltva a szűrés driver alapján való állítása.
Hasonló dolog lesz ez, mint a mostani AA problémák. Annyiban lesz ez más, hogy a Shader alapú AA szűrésre jelenleg is szükség van, hiszen ez az egyetlen út a megfelelő AA-hoz már a mostani játékokban is. A D3D10.1 LOD utasításai és az egyéni szűrési algoritmusok még váratnak magukra, mert még nem sok programnak válna előnyére (mondjuk a Crysis sokat profitálna belőle). -
-
7600GT
senior tag
Lenne még egy nem teljesen ide vágó kérdésem, csak már olyan jól benne vagyunk az architektúrák elemezgetésében.
Szóval még anno említetted, hogy az AF-nek nem lesz szerepe, mert szinte semmit sem fog javítani a képminőségen, de azt elfelejtettem azóta, hogy ez miért is lesz. Nem akarod esetleg kicsit kifejteni? -
Abu85
HÁZIGAZDA
válasz
Kozmonauta #612 üzenetére
Bent van az adataimnál
-
Kozmonauta
tag
ABU légyszives ad már meg a webcímedet mert ez már nem működik:
http://web.t-online.hu/pattila/ -
proci985
MODERÁTOR
akkor most tegyük hozzá, hogy a 3870 általában AAval kapott ki a 9600gttől... és az a 20% amit emlegetnek a cikkben... az már majdnem a 8800gt?
érdekes a dolog, főleg a 3dmark pontszámok alapján, amiből korántsem az jött le, ami a játékokban tapasztalunk.
érdekes a dolog, azt hiszem fel is rakom, és megnézem, h pontosan mi is a helyzet
-
R.Zoli
őstag
Az a legrosszabb az egészben ,hogy most már közel sem arról szól a dolog, hogy úgy írják meg a játékot ,hogy ATI-n fusson jól NV-n meg szarul, hanem próbálnák kihasználni az ATI kártyák nyújtotta előnyöket de nem teszik mikor sokszor egyszerű lenne egy patch formájában, de ugye az NV érdeke nem ez és ezt a fejlesztők is érzékeltetik sokszor...
-
R.Zoli
őstag
válasz
janos666 #607 üzenetére
A lap alján vannak képek amiket arra fognak ,hogy a DX10.1 miatt szebb...
Nekem nem úgy tűnik mintha kighagyna bármit is a renderelésből...sőt akkor DX 10 alatt hagy ki valamit , a magyarázatuk meg nem erről szólt...Szóval kamu és undorító...
-
janos666
nagyúr
A linken annyit olvastam hogy nem is biztosak benne hogy DX10.1-et használ csak feltűnően gyorsabb a játék ha felrakják a Vistára az SP1-et, semmi screenshot nem volt a játékból...
Amúgy meg már az x38/x48 chipkészlet kapcsán is fontolóra volt véve hogy támogassa-e az intel az nvidia féle SLI-t. Merthát egy szemmel se furább dolog mint hogy az AMD crossfirejét támogatja...
De ha nagyon alakoskodni akarunk lazán bevághat az ember itthon a gépbe 2 8800-as kártyát 965-ös, P35-ös, vagy x48-as lapba is, moddolt nvidia driverrel megy az SLI. Nem nagy kompatibilitási dolog ez csak licencelés... -
janos666
nagyúr
Amúgy én most komolyan rászántam magam hogy kipróbálok itthon egy 3870-es Radeont, de mivel azt legolcsóbban 38k-ért találtam és 30k-ért nem sikerült elpasszolnom a 8800GTS-emet ami mai játékok alatt teljesítményben majdnem egálban van a 3870-essel, vagy max 10%-ot ver rá így az nagyon nem érte volna meg hogy 25k-ért túladjak a kártyámon és ~40%-ot ráfizessek ~10% teljesítményre meg egy kis játékra itthon a tesztekkel.
-
Dare2Live
félisten
Ha ár nemszámt akkor GT200 ellen ott a 4870X2
ha pedig SLI és végképp semmi pénz nem számít akkor ott a CF 4870X2.Máramíg még él az SLI, mert ha már semmi pénz nem fontos szegmens akkor Nehalem alá már csak CF lesz SLI nem és nem lepődnék meg ha AMD se nagyon pártolná a jövőbena proci alá az SLIt... .
-
válasz
janos666 #600 üzenetére
nem kevés egyik számítási teljesítmény sem, hanem rossz az egységek kihasználtsága (SZVSZ). a játékokban a mai napig elég sok a float2 argumentumú pixel shader, ezekben a szuperskalár egységek 40%-os kihasználtsággal mennek. az R600 schedulere (ami amúgy egy remekbeszabott darab) ezen úgy igyekszik segíteni, hogy több utasítást is kioszt ugyanarra az egységre - de ezt csak akkor tudja megtenni, ha az utasítások nem szekvenciálisan függőek (azaz az x+1-ik utasítás nem használja az x. eredményét). valószínűleg ez a mai játékok shadereire mérsékelten jellemző.
amúgy ha hirtelen sok komplex számítás (azaz konkrétan special instruction) kellene, akkor az nVidia GPU-k sokkal hamarabb elköszönnének...7600GT: nem felesleges, mert nő a shaderszám is.
Aktív témák
- DELL Precision 7730 i5-8400H Quadro P3200 32GB 1000GB FHD 17 1 év garancia
- Xiaomi Redmi Note 14 Pro 256GB Kártyafüggetlen 1 év Garanciával
- Gamer PC-Számítógép! Csere-Beszámítás! R5 5600 / RX 6700XT 12GB / 16GB DDR4 / 500GB SSD
- BESZÁMÍTÁS! MSI B450M R5 5500 16GB DDR4 512GB SSD GTX 1660 Super 6GB Rampage SHIVA Thermaltake 500W
- Telefon felvásárlás!! Samsung Galaxy S24/Samsung Galaxy S24+/Samsung Galaxy S24 Ultra
Állásajánlatok
Cég: FOTC
Város: Budapest