- Karácsonyfaként világíthat a Thermaltake új CPU-hűtője
- Az USA vizsgálja a RISC-V kínai terjedésének kockázatát
- Kicsit extrémre sikerült a Hyte belépője a készre szerelt vízhűtések világába
- Egészen nagy teljesítményspektrumon fedné le a mobil piacot az AMD
- Kihívás a középkategóriában: teszten a Radeon RX 7600 XT
Hirdetés
-
Agyi chipes gyártóba fektetett a kriptocég
it A Tether 200 millió dollárt fektet a Blackrock Neurotech agyi chipes vállalatba.
-
Saját Redmi Note 13 Pro+ a világbajnok focicsapatnak (és indiai rajongóiknak)
ma Argentína nemzeti válogatottjának mezével díszítik az új Redmi különkiadást.
-
Lenovo Essential Wireless Combo
lo Lehet-e egy billentyűzet karcsú, elegáns és különleges? A Lenovo bebizonyította, hogy igen, de bosszantó is :)
Új hozzászólás Aktív témák
-
nagyúr
-
nagyúr
már a 9800GTX+ is ilyen "megelőző" lépés (a 3DMark Vantage említése asszem most rossz májra vallana ), az más kérdés, hogy mennyire fog beválni - nagyon durván szórnak a tesztek ebben a kérdésben, ami arra utal, hogy bizonyos körülmények jobbak az nVidia kártyának.
a piacszerzéses témára (daa-raa-nak is): fura azért nekem is a dolog, mert a VGA-piacon kevésbé jellemző az érték alapú lojalitás, mint pl. a telco-ban - megszállott hívők itt is vannak, de azokat úgysem lehet eltántorítani, viszont akik meghatározott szempontok szerint vásárolnak, azokat aligha fogja sokban befolyásolni, hogy az előző kártyájának a chipjét ki csinálta. bár, a kártya gyártója már érdekesebb, és miután kevesen szállítanak mind nVidia, mind ATI kártyákat, lehet, hogy ezen keresztül mégis lehet lojalitást szerezni. hmmm, de bonyolult...
meg talán a jobb market share jó hatással van a részvényárra is, nem?Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
szerintem a 8800GT arról is szólt, hogy az AMD profitabilitását rontsák, tavaly év végén nagyon olyan volt a közhangulat, hogy csődirányba megy a cég.
és igen, let us rejoice, mert egy olyan csúcskártya ár, ami 2-3-4 évvel ezelőtt teljesen természetes volt, most egész botrányosan nevetséges hatású
CF / GX2: erős a gyanúm, hogy ha beindul jobban a DX10-es játékfejlesztés, akkor hatványozódni fog a szívás többkártyás vonalon - pl. a korábban kiszámolt geometria újrahasznosítása és az AFR nem lesznek jóban...
#247: olyat nem tudsz
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Hm, nem lehet, hogy azért voltak olyanok a cikkek, mert az nVidia megoldások annyival jobban teljesítettek?
Recon, 274: fizikailag beleteheted, de a driverek csak 4 GPU-t tudnak kezelni, mindkét gyártónál.
ez_meg_az: pedig 1280x1024-ben majdnem annyi kell neki, szélsőségesebb esetekben (Assassin's Creed tömegjelenetek, World in Conflict, etc.)
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
na ettől most megkapartam magam minden magyarázatra fel voltam készülve, de erre nagyon nem.
Herr Z: már x embert kértem itt a pH!-n, hogy magyarázza el nekem, mitől elavult az nVidia-féle architektúra, de eddig még senki nem tette. vajon miért?
AusWolf: a 9600GT-n 1600-as felbontáson már egyáltalán nem fut minden maxon... 12x10-ben is határeset.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
mi a valós DX10 környezet? a G80/G92-t eddig csak ott láttam szarul szerepelni nem totál szintetikus tesztekben, ahol intenzíven stream-outot használt az alkalmazás. ezen segítettek a GT200-ban: kapott a chip egy rakás extra cache-t. ezt azért marha nagy architektúrális újításnak nem nevezném... van még más?
csblade: de, jó az a Tri-SLI, jól megy rajta rajta a Crysis 19x12-ben 8xAA-val! Hm? Hogy az 4870CF-en pont jobban menne? ohshit
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
én nem mondom, hogy a 4870 nem lesz iszonyúrettentőqrvakirály GS-ben, csak azt, hogy a GT200 egyáltalán nem lesz szar (ha félreérthető volt: a "GT200 jobb" összehasonlítást a G8x/G9x-szel gondoltam)
vers: a belinkelt képen majdnem pont GFlops szerint sorakoznak fel a kártyák, ami azt jelenti, hogy a Rightmark tesztek jól parallelizálható pixel shadereket tartalmaznak. ez derék, csak a játékokban még messze nem ez a helyzet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz ]Phobos[ #466 üzenetére
igazából az a kérdés, hogy van-e értelme 4850-et venni, ha 12x10-es felbontást használ a játékos. Fless beállításai arra utalnak, hogy szerinte nincs - de nyilatkozzon ő, ha erre talál járni.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz ]Phobos[ #469 üzenetére
OK, ez rendben van (ill. csak részben, mert az atomrobbanást szerintem nem a VGA fogja meg), aláírom, hogy vannak esetek, ahol elkel ez a kártya még 12x10-ben is.
viszont szerintem az ilyen esetekre pont jobb választ kapsz a teszt 16x10-es vagy magasabb felbontásaiból, ui. a tesztesetek biztos nem ennyire extrémek, ezért jobban közbeszól a CPU / system RAM 12x10-ben - Neked meg pont az kell, hogy ez a VGA várhatóan mennyivel erősebb a jelenleg elérhető kártyáknál.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
-
nagyúr
válasz ]Phobos[ #491 üzenetére
Elég a 2.88GHz a Te kártyádhoz, még egy 3870-hez és talán egy 88GT-hez is - de onnan már a VGA nem lesz kihasználva.
stevve: szerintem baromi hamar össze lehet szedni 3 erős érvet, ami miatt új VGA-t (és bármilyen más HW-t) az első hónapban nem érdemes megvenni...
Integra: a jótállási idő viszonylag egyszerűen lefordítható pénzre a vállalat oldalán (nagy számok törvénye) - ezért aki kevesebb garanciát ad, olcsóbban tudja adni a cuccot.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
a marketing találta ki, de teljesen más megfontolásból: az 50-es kártyákat olyan célközönségnek szánják, ahol van jelentősége annak, hogy 1 slot magasságú a kártya. az AMD-s emberkék is azt javasolják, hogy akit zavar a 90 fok, az vegyen custom hűtésű kártyát.
szerintem igazából ez csak annak probléma, aki mostazonnal akar ilyen kártyát, és sokallja a 90 fokot. erre a problémára 1 hónap múlva több megoldás is lesz.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz schwartz #606 üzenetére
egyetértek Dare2Live-vel, erre lesz az előre. ennek mi sem ékesebb bizonyítéka, mint az új nVidia Tesla kártyák.
azoknál a szervereknél, ahol számításigényes feladatok vannak (tipikusan kutatási terület pl.), a GPU alapú megoldások amellett, hogy nagyságrendileg gyorsabbak, hasonló mértékben költséghatékonyabbak is. a skálázódás meg játékok alatt problémás, de egy elosztottnak tervezett alkalmazás számára a 4 GPU kezelése nem kihívás (vszleg 400-é sem lenne az).
ALONSO: hát köszönjük az értékes hozzászólást, személy szerint remekül szórakoztam rajta
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz TomBoy1986 #618 üzenetére
Ez meg annyit jelent a gyakorlatban kb. hogy sok textúrázóra van szükség (nem annyira sokra, mint az NV-kben, de többre mint a 3870 16db-ja), ebben van 40db, ami a jelek szerint éppen elegendő.
azért ennél lényegesen többről van szó, csak emiatt nem ülne néha akár 4-5 nVidiás kódoló a tripleA játékok fejlesztőteamjében vagy egy évig. én kb. a következőket látom (és vszleg ez is csak a jéghegy csúcsa):
- a vertex / egyéb geometria intenzív cucc eddig tilos volt
- stream out használata is tilos volt
- óvatosan kellett bánni a felhasznált regiszterekkel, mert messze nem volt annyi, mint a Radeonokban
- valamelyest kerülni kellett a jól parallelizálható kódokat - ez csak részben volt g**iségből, a másik része az, hogy a jól párhuzamosítható kód többnyire több regisztert használ
- a memória-latency elrejtése némileg más megközelítésű a két kártyán - ami ideális az nVidiának, az mérsékelten jó az ATI-nak is, viszont ami ideális az ATI-nak, attól a G80 seggreült volna
- a G80-nál még instruction latency-re is kellett figyelni, mert jóval hosszabb az ALU-inak a pipeline-ja, az ATI-nál ennek minimális jelentősége van
- deferred renderinggel óvatosan kellett bánni, mert nem megy rajta korrektül a bedrótozott MSAA, az nVidia pedig nem volt túl gyors az SBAA-ban - erre születtek olyan elb***ott megoldások, hogy csak az árnyékok lettek deferred módon számolva, így AA-val csak kicsit lett szar az eredmény (pl. UE3 engine-nel szinte minden)
- a textúra-intenzivitást említetted, de itt az igazi parasztság az volt, hogy egyes játékoknál olyan formátumot választottak, ami nem volt különösebben jó az nVidiának, viszont csúnya nagy szopás volt az ATI-nak.... meg ilyenből még nyilván egy csomó. ezeknek a többsége azért nem olyan, amitől az ATI kártyákon szarabbul megy a játék - viszont hasonló optimalizálásokat nyilván a Radeonok is "elviselnének".
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz schwartz #656 üzenetére
általában nem tudok válaszolni a kérdésre, mert nem láttam még CUDA programot, de elosztott programozás tekintetében biztos, hogy jobb az említett két API-nál.
a RISC-es kérdést nem értem - de ez nem tartozik ide, folytassuk pü-ben.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
nekem az rémlik, hogy március-április környékén kezdett mozgolódni az nVidia egy előrehozott GT200-ban - ebből némi szerencsével lehet júniusi launch.
de valóban az hangzik a legreálisabban, amit írsz - hogy úton volt a 65nm-es lapka, csak nem került volna a gamerek kezébe.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
ill. ezek a chipek állati jó eszközökkel rendelkeznek a memória-elérésből adódó késleltetés elrejtésére. tipikusan 1000-es nagyságrendű thread van végrehajtás alatt párhuzamosan, ha a prefetch során kiderül, hogy adatra kell várni, akkor az adott threadet félreteszi a GPU, és elkezd / folytat egy olyat, amihez minden együtt van. gondolom, egy direkt multiprocesszingre kihegyezett környezetben ez még sokkal jobban megy, mint a játékokban.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...