- Versenybe hozta magát az új Xeonnal az Intel
- Titan Army P27GR monitor: hogy tud ilyen olcsó lenni?
- ATX 3.1-es Seasonic tápok a picit pénztárcabarátabb szegmensben
- Boldog-boldogtalan kézikonzolt akar kiadni, de egyelőre nincs meg a felvevőpiac
- Megszellőztették az MSI Unify-X alaplapsorozat visszatérését
- Milyen videókártyát?
- Kompakt vízhűtés
- ATX 3.1-es Seasonic tápok a picit pénztárcabarátabb szegmensben
- Boldog-boldogtalan kézikonzolt akar kiadni, de egyelőre nincs meg a felvevőpiac
- Azonnali informatikai kérdések órája
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Titan Army P27GR monitor: hogy tud ilyen olcsó lenni?
- Akciókamerák
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Philips LCD és LED TV-k
Hirdetés
-
AI-asszisztenst fejleszt a Volkswagen és a Google
it Lényegében mobilos AI-asszisztenst fejleszt a Google a Volkswagennek.
-
Titan Army P27GR monitor: hogy tud ilyen olcsó lenni?
ph Meglepően kedvező áron rendelhető meg a kínai netes áruházakból ez a 180 Hz-es gamer monitor – megnéztük, érdemes-e lecsapni rá!
-
Apple AirPods 4 - ismerős is, új is
ma Nem tesz csodát az aktív zajzárral is elérhető AirPods 4, de úgy szól, mint egy AirPods és tompítja a zajokat.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
7600GT
senior tag
Ez mind szép és jó, de mekkorák lennének a gyártási költségek, hogyha csak úgy bepakolunk még néhány slave chipet, tehát kb. mekkora megmérete van egy slave chipnek? Nem lassítja a kommunikációt, hogy a chipek külön vannak? Amúgy elég jónak tűnik nekem ez a technika.
Ha az ember féreggé teszi saját magát, ne csodálkozzon, ha rátaposnak.
-
7600GT
senior tag
Tulajdonképpen a slave chipekből mit tudnak kispórolni? Amugy ha jól hallottam, akkor egy Rv870 150mm2 körül lesz 960shader egységgel, szóval szerintem a kis magméret kivitelezhető, de az hogy mondjuk 3 ilyet meg egy master-t egymást mellé hegesszenek, nekem kicsit irreálisnak tűnik. Majd a swift-be is ilyet fognak belerakni, vagy az teljesen más káposzta?
Ha az ember féreggé teszi saját magát, ne csodálkozzon, ha rátaposnak.
-
Firestormhun
senior tag
Egyetemeknek, felhasználóknak, garázs projekteseknek, valamint olyan alkalmazásokhoz melyek 100% optimalizációt igényelnek a leggyorsabb futtatás érdekében tökéletes a CUDA. Könnyű programozhatóság bizony sokak számára előnyt jelent.
OpenCL, jaj de jó, ipari szabvány. Kár, hogy nincsenek hardveres megkötései. Van viszont 70 féle GPU architektúránk ráadásul még CPU-n is kéne fusson rendesen. Írjunk programokat, hajrá. Gyerekcipőben jár ez még nagyon.
Az NV semmit nem tett fel a CUDA-ra. Arra tesz fel, hogy a lehető leguniverzálisabb termékeket próbálja nyújtani a vásárlóinak szerintem. Kezdő, közepes programozóknak ott a CUDA, profiknak meg OpenCL. Mi ezzel a baj?
NV amúgyis kijelentette, nem kíván konkurálni OpenCL-el, hanem 100%-ig támogatja azt. Drivert és developer toolkitet már ki is adott hozzá. Többiek? Sehol....
-
Gyusz
őstag
Minek béta oprendszerre WHQL driver? Mellesleg az NV-nek van is béta 7 drivere ha valaki azzal akar foglalatoskodni (én is általában legújabb bétát használok, és általában nincs gond velük, bár Win 7-et még nem próbáltam), meg nem úgy volt, hogy a Vista driverek is jók lesznek Win 7-hez?
Khm, no meg schwartz linkje szerint "A G80 is GPGPU-nak készült, de közel sem olyan alkalmas a feladatra, mint az R600. ". Eddig nem azért volt szar az NV, mert mindent alárendelt a GPGPU piacnak, vagy most hogy van ez
[ Szerkesztve ]
-
Gyusz
őstag
Én még mindig nem érzem problémásnak a Win 7 WHQL driver meglétét, ha fontosnak tartják a dolgot, akkor úgyis időben el tudnak készülni vele... Bár mondjuk anno az NV első Vistás driverei nem álltak éppen a helyzet magaslatán, de a Vista is inkább SP1-el lett igazán használható szerintem.
Ez az egész Havok és Physx játékos szempontból egyelőre nagyon bizonytalannak tűnik. Valahogy a fizika mégsem lett annyira a játékok szerves része, mint várta volna az ember, pedig anno mekkorákat néztünk a Max Payne 2 arrébb rúgható/ledőlő dobozain, meg örültünk, hogy a Half-Life 2-vel jött a Gravity gun. 2004 körül még simán azt mondtam volna, hogy a Havok lesz az egyeduralkodó, ehhez képest jött a Physx, meg használnak saját megoldásokat a fizika modellezésére, plusz az Euphoria is elég meggyőző szerintem a GTA IV-ben.
[ Szerkesztve ]
-
VinoRosso
addikt
A G80 az egyszerű számításokra tervezték, és a bonyolultaknál, valamint a sok ideiglenes adatta dolgozó grafikai számításoknál megfekszik. Ez R600 kvázi a rendszer ellentéte. Ha sok függőség van a kódban, akkor nem egy erőgép, kevés függőséggel már sokkal jobb a helyzet. A bonyolult feladatokat meg imádja.
Ebben nincs egy hangyányit ellentmondás? Ha valamiben sok függőség van az bonyolult, amiben kevés az egyszerű. Ha gondja van a függőségekkel, akkor nem szeretheti a bonyolult feladatokat. Ez egyébként minden GPUról elmondható kivétel nélkül, mivel mindegyik adatpárhuzamos architektúra, méghozzá masszívan.
A különbség a G80 és az R600 közt annyi, hogy a G80 durvább szemcsézettségű, TLPhez közelít, míg az R600 ILP inkább, valamint a G80 ütemezője miatt nagyobb fokú párhuzamosságra képes, viszont lassabb az ütemezési költségek miatt. R600 gyors floatban, de kb itt meg is áll a tudomány, és emiatt ha valamelyik inkább GPGPUnak mondható akkor az R600 az, mert tipikusan ezekben a számításokban fordul elő masszív párhuzamosság, ahol az r600-at ki lehet pörgetni. Grafikában a béka segge alatt van, jó architektúra, de arra nem való, hogy n+1 direkt/indirekt fényforrásból lombkoronán átszűrődő, vízben megcsillanó és párában elhalványuló csilli villi sunhaft effekteket számoltassanak vele . De mondjuk mintafelismerésre, keresési / adatreduckiós feladatkora kiváló. A kettő közül az r600 a "butább", méghozzá jóval. -
-
schwartz
addikt
-
biggamer
veterán
" Az NV bizony mindent feltett a CUDA-ra, azért vannak most ilyen ramaty helyzetben, mert a platform nem terjedt el. "
GPU-val kódol videót a Nero szoftvere : [link]
/ egy kis érdekesség /" A különböző alkalmazások körében egyre nagyobb mennyiségben vannak jelen azok a programok, amelyek az Nvidia CUDA technológiáját támogatják, így a GPU számítási teljesítményére támaszkodva tudják elvégezni az olyan idő- és teljesítményigényes feladatokat, mint például a videó vágás és kódolás, valamint a képszerkesztéssel kapcsolatos munkálatokat. Most egy újabb alkalmazással bővült a kör: a Nero Move it névre keresztelt videó kódoló szoftvere is CUDA támogatást kapott. "
[ Szerkesztve ]
Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
-
biggamer
veterán
Én erre csak azt tudom mondani, hogy várd ki a végét.
Tudod, " lassú víz partot mos ".Szép lassan ráébrednek, hogy azért nem annyira elveszett dolog ez az alkalmazás.
Ki tudja, mi lesz a végén.Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
TTomax
nagyúr
Még jó,hogy a játék és sw fejlesztőket érdekli a CUDA ... erre nagyon jó példa az általad favorizált Stormrise,meg most ez a Nero is... de hozhatnék még egyéb példákat.Azt meg el kellene fognod neked is,hogy a marketing bullshit mindkét gyártótól ömlik hiszen a terméket el kell adni.. a Dx10.1 pontosan ekkora shit ... söt az egész DX egy hatalmas maszlag amit zabálni kell ha tetszik ha nem...
(#217) Abu85
Pontosan ezért kell foglakozni a CUDA-val amig nincs OpenCL támogatás...ja de akkor tényleg megint valamiért szemét lesz az NV ha megcsinálja....na mindegy.[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
biggamer
veterán
De van aki nem a játékot nyomja éjjel-nappal.
Másra is lehet használni a gépet nem csak arra." H.264-es videókat is átkódolhatnak, mindezt a hagyományos, processzorral történő folyamatnál lényegesen gyorsabban.
A GPU gyorsítással üzemelő kódolás csökkenti a CPU terhelését, emellett ötször gyorsabb, mint a csak CPU-t használó módszer. "[ Szerkesztve ]
Ha az életben minden fontos dolgot szemmel el lehetne intézni, akkor az utcákon csak halottak és terhes nők lennének ... WOT / BF3 / BF4 ... biggamerHUN
-
TTomax
nagyúr
Szerinted, ha az NV tud DX10.1-et, akkor használnák a CUDA-t a Stormrise alatt a Z adatok kinyerésére?
Pont ezért kell a CUDA...mondj más módot a probléma megoldására...
A DX10.1 akkor is egy maszlag marad,fölég úgy,hogy most veszel egy kártyát azért mert huuu,tudja de fél év múlva itt az egész komplett DX11.Tudom,most jönne az.hogy a DX10.1-el tudó kártyákkal "néhány" ficsörröl kell lemondani...Tulajdonképpen most értük meg,hogy Nativ DX10-es játékok készülnek,szeretném már látni azt az előnyt amiről eddig a marketing maszlag ment,hogy ez nekem milyen szuper.Van egy DX10-vga-m,egy DX10-et tudo vistám,amikkel DX9-ben játszottam...de vegyek DX10.1-es vga-t mert azon jól megy az elsimitás,de már a DX11-es játékokat ecsetelitek...nem értem én ezt... egyre jobban hajlok arra,hogy konzolt kell venni,mert ez egy vicc...[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Beowulf_78
addikt
"Ha te fejlesztő lennél, akkor neked az lenne az érdeked, hogy ne csak a GeForce tulaj Pisti, hanem a Radeon tulaj Marika is használja a programod. Mi több vegye meg! De ha csak Pisti tudja futtatni, akkor már eleve nem tudsz szert tenni Marika pénzére. Potenciális vásárlóbázist vesztesz aminek egyenes következménye a kevesebb bevétel. Szerinted egy fejlesztőnek ez a célja?"
Az a baj hogy te mindent egyszerű logikával próbálsuz magyarázni. Holott nagyon sok esetben a számunkra logikus dolgok, csak másod vagy harmadlagosak. Sztem logikus amit mondasz, ezzel nincs is baj...de ha így lenne ahogy levezetted, akkor miért van hogy egyik játék nV optimalizált a másik ATI optimalizált? Hiszen a LOGIKÁNK azt mondja úgy kellene fejleszteni a játékokat hogy mind a 2 VGA gyártó kártyáin jól fusson, hiszen ez hozná a legtöbb bevételt, és a KOMPROMISSZUMOK NÉLKÜLI VGA VÁLASZTÁST.
Ez a logikus. De mi van helyette? Késélre menő harc hogy a nagy nevű játék fejlesztő cégek melyik VGA-ra optimalizáljanak. Így u.a. a helyzet alakul ki, ami az XBox 360, és a PS3 körül. Van ami csak XBox, van ami csak kizárólagos PS3 név. Pl. aki imádja a Gran Turismo-t az PS3 fog venni. Aki szereti a Halo sorozatot az meg XBox 360-at. Persze van olyan hogy erre is meg arra is. De a húzónevekre nagyon vigyáznak, mint a hímes tojásra.
PC-nél dettó ez van.
NEM ÉRDEKE A GYÁRTÓKNAK A KÖZÖS EGYSÉGESÍTETT PLATFORM, mert ezzel nagy kockázatot vállalna mind az ATI mind az NV. Miért? Mert mind a 2 gyártó kártyáin jól futna minden, és kizárólagosan csak a jobb, gyorsabb hardveren múlna 1-1 VGA széria sikere. Ez pedig kétélű fegyver. Mert egy NV által eltalált G300 architektúra azt eredményezné, hogy a kutya se venné az Ati 5xxx szériáját. Persze ez fordítva is igaz.
Itt jön az amit mondtam, hogy egyik sem fog csődbe menni, mert mindig is meglesznek azok a "húzó nevű" játékok, ami miatt érdemes lehet megvenni egy gyengébb szériájú VGA eresztést, ez pedig kizárja az egységesített független API-t, ill. a mindkét rendszerre történő optimalizálást.
Szóval...nem biztos hogy a logikus okfejtésed lesz a nyerő.Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
Beowulf_78
addikt
"Valóban bullshit a DX10.1 - [link] Csak átlag 20-25% plusz sebesség van benne."
Csak egyet felejtesz el. Ezek közül egyik se lesz húzónév. Csak abban az esetben nyerne teret az ATi a DX11-ig, ha minden műfajban lenne legalább egy DX10.1 húzóneve.
Mit mondjak...Stormrise bukás, Battleforge szintén nem lesz nagy durr bevétel szempontjából. A HawX talán az egyetlen a három közül ami ér is valamit, de nem lesz az év játéka. Elég egysíkú. Ezzel itt ki is fújt az AMD-ATI reklámfilmjének az elemzése. Majd meglátjuk mi lesz a Starcraft 2, Mafia 2, Alan Wake, Diablo 3...mert ezek inkább a húzónevek 2009-es évben. Mást nem tud csinálni az Nv DX11-ig mint minnél több húzónevet megtartani, és újakat megvenni. Így lazán pariban lenne még 2 év után is a hiper-szuper DX10.1 ATI kártyákkal egészen DX11-ig. Ez jó egy nV-t választó felhasználónak? Jó! Lassítja a fejlődést? Persze. De hová rohanjanak? Nem fogok a kardomba dőlni ha DX11-ig marad ez a szintű grafika, és gyorsaság. Nekem megfelel.
Az pedig a másik hogy először azzal érveltetek hogy szebb a DX10.1. Majd amikor ez megdőlt, mert egymás mellett levő képeken bekarikázva a különbséget is közel kellett hajolnom hogy lássam a különbséget. Ezek után jött hogy nem a szépség hanem a gyorsaság, mert AA mennyivel gyorsabb DX10.1 alatt. Lehet. Ezt nem vonom kétségbe. De hol van ennek létjogosultsága? Már 1680x1050 is kicsik a képpontok, nem hogy 1920x1200-as felbontásnál, ami folyamatosan terjedőben van. Ergo tök felesleges az AA. 1440 ill. 1280-as felbontásoknál volt értelme, ahol a recézettség valójában rombolta a játékélményt. De az AA hiánya 1680 felett már régóta nem befolyásolja a játékélményt.
Tehát mi értelme van a DX10.1-nek ha egyik aspektusból sincs létjogosultsága FELHASZNÁLÓI szemmel.
Még mindig azt érzem, hogy az ATI erölködik, aminek általában nyögés a vége, az NV meg megpróbálja megőrizni a hidegvérét, és a kivárásra játszik.Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
Beowulf_78
addikt
Na! Haladunk! Akkor már ott tartunk, hogy hagyjuk a DX10.1-et sebesség és képminőség szempontból, és vessük be az utsó fegyvert amivel érvelni lehet a zöldek ellen..az ár / teljesítmény arányt, amivel az NV nem tud versenyezni. Egyértelmű hogy a legújabb kártya ami kapható is széles körben az a 4890, evidens hogy viszik, tény hogy jelenleg ez a sláger kártya. GTX 275 is van elvétve, de tény hogy drágább, még ha nem is sokkal.
GTX 275-ből azért ennek ellenére sokat fognak eladni, az biztos. Nem hinném hogy ennyire kiélezetten versenyezni akarna az NV az árakban. Mindig is drágább volt. Amióta az NV-ATI harc létezik. Valószínű ez így is fog maradni. De ha ez akkora gond lenne már rég csődbe mentek volna, és attól függetlenül hogy drágább, az elmúlt években többször volt az Ati padlón mint ahányszor az NV. Nem véletlenül lett ugye a nevük AMD-ATI.
Nem azért mert fullon voltak lóvéval a bevételekből.Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
VinoRosso
addikt
Miért lenne feltétlenül bonyolult az amiben sok függőség van?
Próübálj meg rá sw-es ütemezőt írni, aztán meglátod ( nem egyszerű alacsony költségű algoritmust kreálni ilyenekre)
A folding az meg csak 1 alkalmazás, másik 10ben meg pörög mint a búgócsiga. Mint említettem minden GPU masszívan párhuzamos számításokban tud villogni, ahol nagy mennyiségű független adaton kell ugyanazt az egyszerű műveletet végrehajtani. Olyan meg hogy nincs függőség olyan nincs( utasítás vagy vezérlés függőség mind1.. ) A függőség nem architektúra fícsör, hanem egy probléma sajátossága, az hogy ráhúzod a legjobb algoritmust, és ebben is vannak fix lépések, amiknek meg kell előzniük a másikat. Ilyenkor nem lehet párhuzamosítani egyetalán, tehetsz alá akármilyen vasat, hacsak nem képes időutazásra, nem fog javítani a telesítményen. Ameddig kauzalítás van, addig pedig lesz mindig ilyen, és minden kódban van ilyen. Az ütemezővel annyiban lehet javítani a helyzeten, hogy ha nincs akkora fokú párhuzamosság egy kódban, hogy kihasználja a telejes számítási kapacitást, akkor a maradék lazsáló sp-oknak lehessen melót osztogatni.Geometry shadert leginkább + sp-kkel lehet gyorsítani, ezért jobbak benne a radeonok, 300 körüli sp számmal már r600 szinten lenne a g80 is. Dx10.1 nem azért nem támogatja véleményem szerint az NV mert mindenképpen a CUDA-val akarja kitúrni a DX-et, hanem egyszerűen nem éri meg nekik. Sima anyagi okai vannak, előre teveztek egy olyan architektúrát 3-4 évvel ezelőtt, amivel az akkori és a közeljövő alkalmazásai széles körben jó teljesítményre képesek voltak, és egy csomó óvét bezsebeltek vele. Ekkor sehol sem volt még a dx10 sem, nem hogy a dx10.1. Idén kezd kijönni a hátránya ennek, de nyilván 3-4 évig nem a pénzeszsákokon ültek, hanem közben dolgoztak egy teljesen új architektúrán. Ennyi idő pedig elég sok probléma felfedésére és megoldására elég . G80ból ezalatt kipréselték amit lehet, ősszel meg már jön egy dx11-es architektúra, és amit felhozol hátrányként a G80 ellen az szerintem jó eséllyel el fog hervadni mint a rózsaszál. Nem értem mindek fikázod már jó előre azt amiről még fogalmad sincs( illetve tudom, ez a fanatizmus ) , és hogy honnét veszed, hogy megoldhatatlan feladat az nvidiának egy zsír dx11-es chip gyártása. Ha pedig dx11ben jó lesz, nagy valószínűséggel ugyanolyan jó lesz dx10.1ben is, de hogy milyen dx10.1ben az szerintem addigra már senkit nem fog érdekelni.
-
VinoRosso
addikt
Nem grafikára lesz, ahogy a G80 és a GT200 sem arra van
Fura hogy ezt mondod a a G80 vs R600 kapcsán. Nem azért de Te teszteket néztél? ( bocs de úgy érzem ezek után nekem is kell modnanom valami cifrát ) Gyakorlatilag az atinak rv770 proig nem volt olyan GPU-ja, ami megszorongatta volna a 8800GTX-et. Így akárhogyis nézzük, egy 1,5-2 évig egyeduralkodó chipről mondtad azt, hogy nem jó grafikára. Kiváncsi leszek, hogy lesz e valaha még ilyesmire példa( én nem emlékszem, hogy ezelőtt lett volna ) Kérdés az is, hogy akkor a többi kártya mire való? Mondjuk egy rv670XT pl, ami sokáig még a G96ot se tudta kiütni a nyeregből. Egyedül a GT200-al voltak poblémák, leginkább fogyasztás és ár miatt, nem pedig a teljesítménye szempontjából, mivel még mindig ez a legerősebb GPU.
[ Szerkesztve ]
-
VinoRosso
addikt
Nézd én abban nem viztázom veled, hogy hogy dx10.1 alatt a radeonok jobban mennek mert ez tény. Sőt még sima dx10 alatt is ha kizárólag a GS fázist nézzük(bár ugye a dx10 igazából nem a GSről szól) Én csak annyit mondtam, hogy ha gyártó vagy úgy kell gondolkodnod hogy minél több hasznot zsebelj be. Az NVnek meg így volt a legnagyobb haszna, hogy megcsinált egy 2006ban korszerűnek számító architektúrát, amivel 2 évig uralta a piacot, és amig lehetett húzta. Addig húzta, hogy nem volt szüksége arra, hogy egy dx10.1es magot gyártson, ha nagyon muszály lett volna meglépi, de felesleges, szerintem már kb 1-1.5 éve eldönthették, hogy inkább dx11re gyúrnak, addig meg kihúzzák a meglévő architektúrával. És én ezt teljesen logikusnak látom, ha én is csupán az anyagiakat tartanám szemlőtt, én sem csináltam volna másképp, mert ez vlószínűleg optimum, jó dx10.1es chiphez át kellett volna szabni az egész architektúrát, és ezt fél-egy éves huzavonáért nem érdemes. Inkább megvették a aegia-t és így kb ugyanúgy konkurrál6nak a dx10.1-el, ez bőven elég volt ahhoz, hogy a dx10.1 ne terjedjen el. Igaz én személy szerint annak örültem volna a legjobban, ha piacra dobnak egy dx10.1es GPU-t, és akkor nem lenne miről beszélni. Dehát ez van, szivem szerint se win-t, se dx10-et nem használnék, de sajna nincs választás, mivel ez a mainstrean.
-
VinoRosso
addikt
Igen ezeket már mind ismertem, tele van vele a padlás, hogy miért nem olyan jó dx10.1 alatt a radeon ezekben a játékokban. Igazából magyarázatnak elfogadható, de a tényeken nem változtat. Van 2 játék amiben jóval gyorsabb az rv670< radeon a konkurrens geforcenál a gs miatt, és a többiben meg ugyanolyan fps-t hoz a geforce, vagy jobbat dx10. alatt. Ez nem azt jelenti, hogy nincs előnye a dx10.nek a dx10el szemben, ez a száraz tény csupán. Azt hiszem az is tényként kezelhető, hogy legalább ennyi előny( ha nem több ) is van a pshx-es játékokkal az nv-nek. Lehet, hogy a physx el fog halni ( bár ezt még nem lehet 100%osan kijelenteni ), de abban biztosak lehetünk szerintem mindannyian, hogy előbb fog elsorvadni a radeonok dx10.1 miatti előnye Physxes játékok idén is jönnek, meg jövőre is, viszont az ati előnye csak a GT300 fog tartani a dx10.1el, ami lehet h ősszel már meg is jelenik, ergo van 6 hónapja hátra. kiváncsi leszek, majd jön e physxes dx11-es játék, mert akkor könnyen előfordulhat, hogy visszanyal a fagyi az atinak( pl ha mondjuk a crysis 2 lesz az ).Mindenesetre én a Metro 2033at nagyon várom, mert a GSCből kivált fejlesztőkre épülő csapat csinálta( bár emiatt nem vagoyk benne biztos, hogy ki fog jönni idén ), a Shadow of Chernobyl meg a kedvenc játékom volt. BTW ez dx9es gamma lesz, ennek ellenére elég szépnek igérkezik, legalábbis az előzetes videók és screenshotok alapján. Ha úgy fog futni legalább, mint a stalker anno, akkor szerintem hardvergondjai sem lesznek, mivel azóta a vasak eleget fejlődtek.
-
VinoRosso
addikt
Egy DX11-es játék szebben néz majd ki és gyorsabban fog futni a DX10.1-es Radeonon, mint a DX10-es GeForce-on
naná, mivel a dx10es geforcok nem támogatnak dx11-et. Ez kb olyan mélyenszántó gondolat, mintha azt mondanád hogy a sas gyorsabban repül a struccnál. De a GT300 mióta dx10es?
Ha lehet úgy fogalmazni jelenleg az NVIDIA játékokat vesz ..
Nem jelenleg, ez mindig is így volt. De nem csak az nvidianál van ez így. Elég csak a doom3/HL esetére visszagondolni. Lobbi mindig is volt/van/lesz, nincs ezzel semmi gond, amig van lehetősége választani a fejlesztőnek és a felheasználónak. Majd amikor nem lesz, hanem azt mondják hogy ezt kell használnod, mert nincs más, akkor lesznek gondok(illetve ott vannak)...
A Crytek sosem fog Physx-et használni. Maga a Boss mondta
Yerliék ilyet szóltak volna? mikor? Melyikük mondta? Furcsa ezt így hallani, mert szerintem elég szoros kapcsoaltban lehetnek az nvidiával ahhoz, hogy legalább elgondolkodjanak a phsyx használatán. Pláne most, hogy az erőforrásaik nagy részét
konzolos fejelsztésre fogják fordítani.Alapjában véve nincs semmi gond a cry2es fizikával, viszont állítólag elég "kusza" a kód, és sokba kerülne rendbettenni. hogy újrafelhasználható legyen, vagy nagyobb mértékű változtatást hajtsanak rajta végre. Nem lepne meg, ha elkezdenék használni a phsyxet, mert lehet, hogy anyagilag jobban kijönnek vele, mint egy reakftorált felturbózott cry2es fizikával. Arról nem is beszélve, hogy mennyit gyorsulna tőle az engine. Azt meg gondolhatod, hogy ha a cry3 physxel fog kijnni, az mennyire megéri az nvidiának. Bizony nem csodálkoznék azon, ha már felhozták volna nekik a témát a zöldek.Miért támogasson egy fejlesztő egy olyan technikát, ami a többségnek nem áll rendelkezésre.
Csak hipotetikusan:
Az nvidia ősszel piacra dob egy dx11es VGA-t, ami legalább ugyanolyan jó lesz árban és teljesítményben, mint a konkurrens temék. Ezesetben nem beszélhetünk sem a dx10.1 támogatás hiányáról, sem arról, hogy kevsé nvidia kari van a usereknél. Erre értettem azt, hogy visszanyal a fagyi, mert ha az nv lobbinak sierül bezsebelnie egy két neves játékot phsyx támogatással, akkor az ati lesz abban a helyzetben, amiben most az nvidia van, mert userek tömkelege fogja venni az nv karikat azért, hogy hiperszuper robbanásokat lásson, szétpüfölhesse a berendezést, ementáli sajtot csináljon a falakból, roncsderbit játszon a kedvenc hummerével stb...lefogadom hogy akkor is lesznek majd olyanok, akik azt mondják hogy az a csúnya ati nem támogatja a physxet, pedig az milyen hiper szuper jó cucc, de az ilyenektől áll az égnek a hajam. Ez a verseny, és ez így van rendjén, az ati a büdös életbe nem fog támogatni semmit, ami az nvidiától jön és vica versa. Enélkül nem lenne fejlődés, hanem szépen megszületnének a paktumok a hátunk mögött. Így viszont mindegyik gyártó fejlesztésre van kényszerítve,a mi nekünk csak jó. Na most...játékokat feljeszteni nem pár hónap, hanem egy hosszú fáradságos folymat. Aki pénz szerez egy ilyenre, és engeriát áldoz rá, az igyekszik minél tovább elnyújtani a termék életciklusában a gyümölcsöző szakaszt. Vagyis biztosra vehető, ha most jön egy csomó dx9es játék, és éppen csak szálingóznak a dx10.1re épülők, és ősztől már elérhető lesz a teljesen dx11, nem lesz túl sok játék, ami kimondottan dx10.1re alapoz. Ergo arányaiban sok dx9es játék volt/van, kevés dx10/dx10.1, és sok dx11es fog készülni. Az nv nem csinál mást, csak követi ezt a hosszú távú trendet, ezért hosszú távú stratégiát alkalmaz, ezért csinál komplex chipet, ezért akar x86os liszenszet, mert nem félévekben gondolkodik. Az atinak meg egyszerűen nem volt más esélye, csak az, hogy rövid távú stratégiát kövessen, mert szorongatott helyzetben volt a g80 miatt, és az amdtől sem jött úgy a jatt, mert K9-et meg a c2d szorongatta. Akkor is egy csomóan temették az amd-t meg az atit is, érdekes módon nem mentek csődbe, pedig közel sem voltak olyan tőkeerősek mint az nvidia. Ezért kevés esélyét látom annak, hogy az nvidia kiszálljon a grafikából. Ha ki akarnának szállni, akkor nem ölnének dollármillliókat egy olyan architektúra elkészítésébe, ami elve nem lehet sikeres, hanem szépen felállnának, és azt mondanák, hogy mostantól kezdve ezt meg ezt fogjuk csinálni, mert nem fogunk labdába rúgni itt és itt, ahogyan tette pl az abit. Ráadásul ők elég jó lapokat csináltak, csak nem érte meg nekik a gyártás, és simán relaizálódott bennük, hogy ha folytatják nem sok babér terem nekik. Tartom annyira az nvidiát, hogy képesek efféle ésszerű döntéseket hozni, és mivl nem hallani semmiféle kivonulásról, ezért puszta rosszindulatnak tételezem fel az efféle találgatásokat azoktól, akik valamiért fújnak az nvidiára, realitás alapja szvsz nincsen. Ha majd felszáll a vörös köd, és kitisztulnak a gondolataid, akkor te is meg fogod érteni ezt, mert nem egy bonyolult dolog, másrészt meg nem vagy egy idóta, csak elfogult.
Nem tudok olyan technológiáról, amit nem végzett volna ki egy független platformra épülő.
Mint tudjuk a directx MS független, multiplatform szoftver, ezért kell minden egyes új dxnél is új windowst feltenni. Persze...
-
schwartz
addikt
mert ezek nélkül nincs az az ember, aki drágábban vesz GeForce-ot a gyorsabb Radeon mellett
Varjuk meg mar azokat a gyorsabb Radeonokat... A teljesitmenyt nezve, az utobbi nyolc evben csak egyszer sikerult igazan elonyt kovacsolni az ATI-nek. (az R300-al)
If he dies, he dies.
-
ashot
tag
En csak azt latom, hogy a jelenbol kiindulva vannak jatekok amik ATIn futnak jobban, vannak amik Nvidian.
Es ehez csak annyit tennek hozza hogy amik Nvidian futnak jobban, tehat mondjuk 50-60fps el azok ATIn 40fps el futnak, amik ATIn futnak jobban, tehat 200fps el az nvidian csak 170fpsel futVagy nem igy van?
Marton
[ Szerkesztve ]
-
VinoRosso
addikt
Csak pár dologra reagálok mert nincs túl sok időm.
Tévedés a gyártók nem vesznek játékokat.
Mi a véleményed erről?
A Crytek a saját érdekét nézi, az NV-t kb. leszarja
Én úgy tudom, h napi szintű kapcsolatban vannak.
És a DX az melyik grafikus processzorgyártóhoz kapcsolható? Azt az MS fejlesztette, ahogy leírod, aki nem gyárt grafikus processzort ... ergo a cég totálisan gyártófüggetlen (bár durván AMD puszipajtás, de ezt most hagyjuk ) a PC-s játékpiac életben tartása a célja.
Ettől még nem lesz plattformfüggetlen.
A szoftverkörnyezet legalább olyan fontossággal szerepel a definícióban, mint a hardverkörnyezet. DE! a direcx szoftver, nem hardver. Ezért teljesen irreleváns arra hivatkozni, hogy platformfüggetlen azért, mert széleskörű a hardvertámogatása. DX-es hardvert lehet emulálni szoftveresen, és ha van elég processzor, akkor még normális teljesítménnyel is futnak a dx-es alkalmazások. Erre készül pl az intel, és a tualatin pedig nem kifejezetten dx kombatiblis. Tehát a hardvertől egyetalán nem függ, hogy használható e a dx vagy se. Viszont szoftverkörnyezettől nagyon is függ, mert kompatibilis Wint nem fogsz tudni emulálni sehogyse, ezért nem lehet Xpre dx10, Vistára dx11. És attól sem lesz plattformfüggetlen a dx, ha 20x leírod ugyanazt. Lehet hogy valakibe bele tudod sulykolni, de ez ettől még ugyanolyan hazugság marad. Amúgy teli van hasonló technológiákkal az IT, és még azt sem mondhatom, hogy csak körül kéne nézned, mert a dx is az orrod előtt volt, meg a pár hsz-el korábban említett(!!!) .NET is szintén ilyen, ami a Java MS megfelelője. Szóval itt már kapásból volt 2 dolog, OGL + Java vs DX + .NET ami cáfolja az állításod. Érdekes egyébként, hogy pont a MS az, aki a kezdetektől fogva arra épít, hogy ellop egy ( eseteknént független ) technológiát, aztán mintha ő találta volna fel a spanyol viaszt úgy promótálja, és utána próbálja kiszorítani vele a piacról az eredeti konkurrensét, amiről koppintott( lásd CP/M vs DOS, OGL vs DX, Java vs .NET ) Ennél nagyobb bakot nem is lehetne lőni, mint azt állítani, hogy a MS valaha független terméket gyártott, vagy gyártani fog. A nyakamat merném rátenni, ha belefognának a vga gyártásba, csak az általuk készített vga-n futnának el a játékok win alatt.
-
schwartz
addikt
És hol a glide? Amint jött a DX kihalt. A 3dfx abba halt bele, hogy nem volt képes felfogni, a glide vesztét.
Menjunk vissza egy par evet...
1998: A 3dfx a Voodood2-vel mindent lesopor a piacrol. A Glide nyeregben. Nemsokkal a V2 utan dobja piacra az NV a Riva TNT-t. Egyetlen elonye, hogy 2D/3D megoldas (de igy mar kaposabb az OEM piacon mint a ket kartyas megoldasok) Ugyanebben az evben a 3dfx ugy dont, sajat kezbe veszi a kartyagyartast es felvasarolja az STB-t, gyarto uzemevel egyutt. Az NV tovabbra is csak gyartokapacitast berel.
1999-ben jon a TNT2 (meg minden variacioja) es ismet tarolnak az OEM piacon. A Voodoo3 rá a valasz csak sajnos teljesitmenyben mar nincs akkora difi mint az azelotti generacioknal. Utolso negyedevben jon a Geforce256, elony mar az NV-nel. Novemberben jelentik be a VSA100-at...
2000 tavaszan az NV beviszi a kegyelemdofest a GeForce2 GTS-el. (teljesitmenyre merten). Csak par honapra ra jon a Voodoo4/5 amit az NV kivegez a Geforce2 Ultraval. (kozben degeszre keresi magat az MX-en)
Az STB felvasarlasa ota, reszben a fenntartasi koltsegek miatt, a 3dfx gyakorlatilag veszteseges.
Naessakkor 2000 novembereben jon a DirectX8... Ekkor mar a 3dfx labdaba nem rug...Kozlik, hogy toroltek a tervekbol a Voodoo5-6000-et (mar reg a piacon kellett volna legyen) eladjak a mexikoi gyarat majd teljes atszervezes... aminek a vege, hogy 2000 decembereben odadobjak a ceget eszement 56 millio dolcsiert... (mindezt ugy, hogy juliusban a GigaPixelre-re 186 millio $-t szortak el )Most kerdem en, hogy jon ide a Glide?
[ Szerkesztve ]
If he dies, he dies.
-
Gyusz
őstag
Kb. ahogy gondoltam, semmi érdekes cím nincs közötte. Talán a Terminator Salvation, de a GRIN a Wanted esetében is csak összedobott valami játékot gyorsan, szerintem ezzel sem lesz másképp (sőt, a Wanted és a Terminator helyenként eléggé hasonlít egymásra, biztos nem véletlenül).
A Metro 2033 is érdekes lehetne a volt GSC fejlesztők miatt, de egyrészt nemigen hallani a projektről, másrészt az eddig Stalker játékokat alapul véve tutira kell majd egy csomó patch, mire játszható lesz, no meg a megjelenés ideje is csúszni fog szerintem. -
Beowulf_78
addikt
Abu...én próbáltam a Cryostasis-t, igaz a virágbolti verziót, amikor még kijött az első nem orosz verzió. Angol volt a menü és a nyelv is, úgy rémlik... botrány szarul ment GTX 295-ön. 1920x1200 mindent max-ra húzva, max. AA-val diavetítés volt... Lehet azért mert ez még valami gányolt verzió volt? Kizártnak tartom hogy így menjen a megjelent verzióval.. Vagy pedig ha így megy akkor nem kicsit kúrták el. Mert egyértelmű hogy az AA miatt csinálja a diavetítést. Bár akkor sincsenek hiper-szuper fps értékeim ha leveszem az AA-t. Arra is gondoltam lehet hogy nem ment az SLI...
Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
Beowulf_78
addikt
Nem vagyok biztos hogy ment az SLI...lehet megnézem SLI indikátorral... Mert ha megy, akkor egy nagy fos az optimalizáltsága. Gondolom ATI tulajoknál még gázabb.
Egyébként úgy rémlik hogy nem ment az SLI, mert olyan eredményeket kaptam, mint az 1 kártyás G200 rendszerekkel. Szóval lehet hogy nem ment, ami nem biztos hogy a játékban keresendő hiba, elképzelhető hogy a driver nem volt még az igazi. Akkor még nem volt 182.50 WHQL az tudom.Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
schwartz
addikt
Nem mondtam, hogy az API hibás, a 3dfx volt a hülye, hogy elhitte, hogy a Glide a gyártófüggetlen API-kkal labdába rúghat.
Miert ne? Ha megmarad a teljesitmenybeli elony mindvegig tarol a Glide. Az API-nek semmi befolyasa nem volt a 3dfx anyagi csodjehez. (tobb helyen pedig igy adtad elo a ceg bukasat..)
[ Szerkesztve ]
If he dies, he dies.
-
schwartz
addikt
A teljesítménybeli elsőséget azzal vesztette el, hogy nem szólt bele a DX fejlesztésébe ... hagyta, hogy az NV és a többiek a saját megoldásaikra formálják a rendszert.
Hogy lehet egy hardware T&L egyseget D3D tamogatassal kompenzalni? Vagy gyartastechnologiai elonyt? (kisebb csikszelesseg, magasabb orajel, gyorsabb memoriak (DDR vs. SDR) stb.)
If he dies, he dies.
-
rocket
nagyúr
A Sega is csatlakozott, koran kezdted temetni a PhysX-et, ugytunik megint bedaraljak az AMD-t szoftver support szinten, hiaba csak az NV tamogatja a PhysX-et, tobb studiot talalnak mint az AMD a szabvany API tamogatasara, igaz a mondas a penz beszel, a kutya ugat
Elvesztette akkor a Sega-t is az AMD, igy az eladasi rekordokat dontogeto Stormrise masodik resze mar PhysX tamogatassal johet majd
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen