- Igencsak szerény méretekkel rendelkezik az Aetina Xe HPG architektúrás VGA-ja
- Miniképernyős, VIA-s Epomaker billentyűzet jött a kábelmentes szegmensbe
- Különösen rendezett beltér hozható össze a Cooler Master új házában
- A középkorra és a pokolra is gondolt az új AMD Software
- Új gyártástechnológiai útitervvel állt elő a TSMC
Hirdetés
-
Miniképernyős, VIA-s Epomaker billentyűzet jött a kábelmentes szegmensbe
ph A megfizethető, szivacsokkal jól megpakolt modell ötfajta kapcsolóval és kétféle színösszeállítással/kupakprofillal szerezhető be.
-
Mozgásban az Arena Breakout: Infinite (PC)
gp A korábban csak mobilokra/tabletekre megjelent FPS hamarosan PC-n is elérhető lesz.
-
Robotkart irányított a majom a kínai Neuralink agyi chipjével
it A mindezt lehetővé tévő Neucybert a Neuralink kínai riválisa, a Beijing Xinzhida Neurotechnology fejlesztette ki.
Új hozzászólás Aktív témák
-
TESCO-Zsömle
félisten
Én úgy tudtam, hogy az az X720-nál várható.
Sundesz: Nem számít, hogy ismerik, nem szánnak rá időt. Multiplatform játékoknál, miután a "nyersanyag" elkészült, megadják a platformoknak e szükséges alap paramétereket és portolnak. Ezt követően minimális optimalizálás jön. Minél nehezebb az optimalizálás, annál kevésbé lesz jó adott idő alatt. Mert nem szánhatnak rá több időt, mint a másiknak, hisz általában egyszerre kell megjelennie a két fő konzolra.
A PS3-ba az RSX csak vész-forgatókönyv volt. Benne se kellett volna lennie. Eredeti elképzelés szerint a Cell csinált volna minden... És igen. Már nagyon hasonlót produkál a PS3 és az X360 a multiplatform játékoknál. Pedig nyers erőben a PS3 elveri az X360-at, mégse tud belőle profitálni...
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
he7edik.
addikt
Nem úgy tűnik:
"A PSM3 magazin legutóbbi számában belsős forrásokra hivatkozva azt találta írni, hogy a PlayStation 4 némileg erősebb lesz, mint az Xbox 720. Azt is tudni vélik, hogy az Xbox 360 utódja valamikor 2013 végén kerülhet piacra, míg a következő PlayStation csak hónapokkal ezután jelenik majd meg."
Égő szöveg a flém vázon
-
TESCO-Zsömle
félisten
Ilyen jellegű információ még pletyka szinten sincs. Azt az egyet lenet biztosan tudni, hogy a Sony (ahogy korábban a Cell-el is) úgy most is már HW szinten felül akarja múlni az X720-at. Ezt azonos chippel nem fogják tudni elérni, ráadásul a PS4 később jön, szóval még van idejük várni. Az X720 a pletykák szerint már jóval korábban összeállt HW-esen, már gyártják bele a GPU-t. A PS4-nél reálisan nézve is beleférne a GCN architektúra.
És ne feledjük! Annak idején az X360-ba az R600 elődjét pakolták. Azt az architektúrát, amivel az AMD sikeresen fordított, és bejött nekik. Logikus lépés lenne a Sony-tól, ha megjátszaná ugyanez. Ekkora tételnél az AMD-nek semmibe nem tart egy a jelenlegi legkisebbnél gyengébb GCN alapú GPU-t összehozni...
Ł-IceRocK-Ł: Az új technológiák terén igen, de ugye a DX lényege a visszafele kompatibilitás, tehát csak attól, hogy egy játék DX11.1-es, nem kell fejvesztve eldobni a régebbi VGA-kat. Ráadásul -tudtommal- a VSC DX verzótól függetlenül is működik a DX11.1-ben, tehát a DX11-es kártyák alatt is futhatnak spéci kódok, ha a gyártók úgy akarják és a kártyák is képesek re. Ez innentől kezdve driver függő, mert nem a kártya mondja majd meg a DX-nek, hogy "képes vagyok rá, had jöjjön".
he7edik.: VLIW-nél nem is volna sok, de egy GCN-nél, amit kifejezetten a Bulldozer 'bal veséjének' szántak, bele az Integer magok helyére, már elgondolkodtató lenne a hozzá fejlesztett CPU-architektúra alkalmazása egyetlen APU-ba gyúrva a kettőt.
Asztali fronton a Kaveri ezt 2013-ban fogja megtenni és a Trinity-t váltja majd le.
Az X360-ban másfél évvel előbb jelent meg az R600 alapját adó architektúra, mint a piacon Radeon VGA formájában!
Sub-Dungeoneer lvl -57
-
Abu85
HÁZIGAZDA
Technikailag igaza van. Azt nem mondanám, hogy a GPU egy hulladék, de ha mondjuk nem rakják ki a fejlesztők az SPE-kre a dynamic branchingot, akkor szar lesz a teljesítmény. Ez a PS3 fő problémája, amire nagyon kell figyelni.
Van hasonló gondja persze az Xbox 360-nak is. A fő fegyvere a Xenosnak az EDRAM, ami 10 MB-os, és marhagyors 256 GB/s-os tempóra képes. Ez nagyon gyorssá teszi az AA-t, ami kedvező a fejlesztőknek. Egyedüli gond a kapacitás, mert deferred render esetén egy 720p-s képkocka 2xAA-val már 14 MB a color és a depth targetekkel. Ilyenkor a fejlesztők tilingot alkalmaznak, vagyis szeletekre osztják a képet. Ez egyszerűnek hangzik, de néha tiszta szopás. SSAO-nál ugye a mélységpufferre kell alapozni, de maga az eljárás eleve túl költséges, így trükköznek a fejlesztők. Kevés mintát vesznek és összemossák az eredményt a felbontás felén. Ez persze egy új render targetet követel, ami nem lehetséges. Erre a megoldás, hogy a back buffer tartalmát használják fel a mélységinfók kinyerésére, ami szar dolog, mert az effekt az előző képkockáról lesz számolva, viszont gyors, és alig észrevehető.
Minden konzolnak megvan a maga nyűgje, de tény, hogy az Xbox 360 felépítése egy multiplatform címnél jóval kedvezőbb. Kevesebb problémát kell leküzdeni. Exkluzív címnél persze ez nem lényeges, mert eleve úgy tervezik az egészet, hogy a konzol képességeihez illeszkedjen.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem a leszarozásról van szó. Ez csak egy szóhasználat. Ismerni lehet a hibáit, és látod, hogy mennyire építenek arra a fejlesztők, ami pont nem megy neki. Erősen kérdéses, hogy 800 pixeles minták mellett mi értelme van a dynamic branching alkalmazásának. Ez a technológia 128 pixeles minták mellett kezd hatékony lenni. A mai GPU-k rendre 64 pixeles mintákkal dolgoznak, ami elég jó, de a Xenos 16 pixelje ennél is hatékonyabb. Na persze figyelembe kell venni, hogy a 16 pixel csak akkor jó, ha van mivel elfedni az elérési időt. Ezért is ideális egy normál PC-s GPU-ban a 64 pixel, ami manapság általános lett. 32 pixelig talán le lehet menni, de nem mindig előnyös. A Xenos esetében azonban a direkt programozás ezen sokat segít.
Alapvetően minden viszonyítás kérdése, de a Xenoshoz képest az RSX egy erősen korlátozott képességekkel rendelkező rendszer. Persze ezen nem kell csodálkozni. Az architektúra alapja időben jóval korábbi fejlesztés, még ha a PS3 később is jelent meg. Ráadásul a PC-ben nem szokás nagyon előre tervezni, miközben az MS-nek konkrét igényei voltak a Xenosszal kapcsolatban. Ezért nem jó vészforgatókönyvben gondolkodni. A Sony későn jött rá, hogy a Cell önmagában nem lesz elég.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arty
veterán
lovagolhatunk a szóhasználaton, de ha belegondolok, hogy egy xenos szintű gpu mellett mit tudott volna kihozni a ps3ból a <tetszőleges sony belsős fejlesztő>, kissé mérges leszek a geforce7re*...
az nvidia évekkel volt lemaradva, csak a piaci részesedése kihúzta a
sz..bajból, de a mi szemszögünkből tisztán csak visszafogták a fejlődést. a korábban innovatív cég a geforce7 idejére maga lett a 3dfx*jöhet a kötekedés, hogy geforce8 így meg úgy
"ugyanitt hazájából elüldözött nigériai herceg aranybányájának tulajdonjogát megtestesítő NFT jegyezhető."
-
vanye
senior tag
-
wsh13
tag
Az évekkel lemaradást gondolom a PS3 GPU-ra értette a kolléga. És ebben igaza is van, az XBOX360 ATI/AMD GPU-ja lényegesen jobb/fejlettebb/gyorsabb volt a PS3-ban lévő nVidia megoldásánál. Ebből a szempontból pedig teljesen irreleváns, kinek mekkora adóssága van. PS3/Xbox360 GPU-k viszonylatában jobb volt az ATI, és ennyi.
-
Tomcat
őstag
Vannak dolgok amire az eltelt idő sem jelent feloldozást. Még 1998-ban amikor elkezdtem beleásni magam a Glide API-ba és azokra modulokat fejleszteni. Ekkor körvonalazódott bennem hogy a 3dfx világa lesz az egyém a későbbiekben. Tulajdonképpen 1997-től 2001-ig csak Voodoo kártyák voltak a gépeimben V1-től V5 5500-ig bezárólag amikért mai szemmel nézve is rengeteg pénzt adtam ki mert az volt a munkám része. Aztán jött egy dötnés 2000 Decemberben ami derékba tört mindent amit addig felépítettem. Nem volt sem további support, sem további HW-ek, még a folymatban lévő GLIDE projekteket is amikben én is részt vettem de facto törölték. Akkor megfogadtam hogy soha az életben nem fogok nVidia terméket tartalmazó HW-t venni. Ez azóta is tart és azóta is érvényben van és ahogy elnézem meg is marad, pedig 2002-2005 között nagyon is rezgett a léc.
A lényeg hogy én nem úgy "siratom" mint mások hanem nekem a döntés a munkámat törte derékba akkor és eltelt egy kis idő amíg helyre tudtam igazítani. Én akár 20 év múlva sem fogok másként gondolni erre mint most ennyi év után. A rossz emlékeket nem olyan egyszerű kitörölni.
Tomcat
-
Abu85
HÁZIGAZDA
-
Egon
nagyúr
Egyszerű júzer szemszögéből lehet hogy nem, de egy olyan pozícióból, ami elvileg nagyobb rálátást jelentett a trendekre, szerintem igen. A DirectX nagyon durva sebességgel fejlődött, és nem mellesleg működött kb. az összes korabeli hardveren, míg a Glide csak a 3dfx kártyákon (márpedig akkoriban nem kétszereplős volt a vga-piac: a VooDoo 2 kortársa volt a TNT1 mellett az S3 Savage 3 (vagy 4?), a Matrox G200 és még az Intel i740 is...).
De tényleg nem akarok tovább offolni..."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Egon
nagyúr
Nem...
Ez a baj, hogy sokan abszolút tévedésben vannak (és érdekes módon, míg az AMD-vel kapcsolatban felmerülő "vádak" ellen a végletekig harcol a szerkesztőség egynémely tagja, a triviális téveszméket nV-fronton valahogy nem sietnek eloszlatni... ).
A GeForce 4 MX nem átnevezett kártya. Egy új fejlesztés (NV17-es kódjelű GPU; a GF2-n NV15, a GF3-on NV20 volt), ami a teljes értékű GF2-k teljesítményét hozta, ennyi. Természetesen lehet kritizálni, hogy visszavetette a fejlődést, mivel csak a DX7-et támogatta (nuku shader modell, ennél már a GF3 is többet tudott), de attól még nem átnevezett chip volt. Beépített video enkóderrel rendelkezett (ilyen sem volt a GF2-ben, de a GF3-ban és a nagytesó GF4 Ti-ben sem), és pár fícsört kapott a teljes értékű GF4-től: LMA II, nFiniteFX II. Amúgy abból is látszik, hogy egész más chip döcögött a kártyán, hogy annak ellenére hozta a GF2 teljesytményét, hogy fele annyi pixel pipeline volt a kártyán (jóval nagyobb órajellel ment).
Az első átnevezett kártya az Ati Radeon 9200 volt (valójában 8500LE).Az NFS 3-ra gondoltál? Ott nem emlékszem hogy lett volna ilyen (Glide alatt volt pl. köd meg mittudomén, D3D alatt nem, de ez nem csalás). A köztudatban az nV 3DMark-os csalásai maradtak meg - pedig az Ati már korábban előadta, mégpedig a Quake 2-vel (a quake2.exe-t átnevezve és úgy futtatva, jól leesett az fps...). Erről többek között a korabeli PC Guru számolt be.
wsh13: erről beszéltem...
[ Szerkesztve ]
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)