- Fejhallgató erősítő és DAC topik
- Vezetékes FEJhallgatók
- Léghűtés topik
- Kormányok / autós szimulátorok topikja
- OLED TV topic
- Sony MILC fényképezőgépcsalád
- Computex 2025: megújult a Cherry kapcsolókínálata
- RAM topik
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Samsung LCD és LED TV-k
Aktív témák
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Igazából a Havok és a Bullet életképes, mert független platformra épül. Mindkettő OpenCL-en működik. Gyakorlatilag a képességeken kívül az a különbség, hogy a Bullet nyílt forrású. A Havok licenszért nyilván fizetni kell.
-
Abu85
HÁZIGAZDA
válasz
Ricco_hun #8123 üzenetére
Nyilván ez is egy felfogás csak az AMD tisztában van azzal, hogy az NVIDIA nem épít hiú reményeket a PC-s GPU bizniszben. Látható, hogy nem ez a piac lesz a következő években a zöldek fő profilja.
Med1on: Nem mennek külön irányba a Havok és a Bullett is elérhető mindenkinek. Csak a PhysX lesz zárt platformhoz kötve.
-
Abu85
HÁZIGAZDA
válasz
Ricco_hun #8118 üzenetére
A HD 4000-nél azért kényeztettek el minket, mert az NV az előző két szériában nagyon erős volt, így az AMD-nek kellett az olcsó felhasználóbarát árakat hoznia. Az egész széria arról szolt, hogy kapargatják ki a gesztenyét. Most, hogy az NV nem tud válaszolni és az árakkal sem tud az AMD után menni, meg lehet enni azt a gesztenyét, amit kikapartak. Egyszerűen minden cég ilyen, ha övék a piacvezető technika, akkor annak megkérik az árát. Alapvetően a HD 5850 és 5870 árával nincs igazán probléma az előzetes teljesítménytesztek alapján még hízelgő is a 299 és a 399 dollár. A HD 4800 széria meg nem naogyn lesz már ennél olcsóbb. Egyszerűen leváltja őket a HD 5700 család. Esetleg a HD 4860 marad még meg, amivel eladják az RV790 lapkákat.
-
Abu85
HÁZIGAZDA
válasz
janos666 #8075 üzenetére
Mindegyik egység képes ADD, MUL, MAD műveletre. A speciális ALU ezenkívül még tud trigonometrikus és transzcendens utasításokat is végrehajtani. A G80 SFU-ja annyiban más, hogy 4 órajel alatt végez egy trigonometrikus vagy egy transzcendens utasítással. Ez azért van így, mert az SFU Dual-issue módban tud egy bónusz MUL-t, amit a négy hozzá kötött SP használhat, persze ezek speciális esetek, a belső ütemezés dolgozik a szálak megfelelő végrehajtásáról.
Speciális műveletekkel sose lesz tele a kód. Ez egyszerűen nem életképes megoldás egyik architektúrán sem. Nagyon kevés ilyen utasítást generálnak a mai shader kódok.
Az új Radeon annyiban más a régiekhez viszonyítva, hogy a shader processzorok képesek egy MUL és egy ADD utasítást MAD-ba fűzni, így egy órajel alatt végeznek két művelettel.Robb202: Egyelőre hír lesz, utána Flessel rávetjük magunkat. Valszeg én írom az elemzést Fless pedig a tesztet. Amint kész lesz kimegy mind a kettő.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
sniper elite #7904 üzenetére
Kapsz hozzá drivert a mellékelt CD-n. Ez mindig így volt. Aztán a 9.10-re frissíted ha kell.
-
Abu85
HÁZIGAZDA
válasz
janos666 #7800 üzenetére
Hát a "lehetetlen" igazából azért volt lehetetlen, mert MSAA van a kártyákban. Itt jön elő az a probléma, hogy a driver egy deferred rendering motorban nem tud normálisan color subsamplet szerezni, ami durván szopás. Ezért van a Shader based eröltetése, mert ott a fejlesztő írja a megfelelő algpritmust.
Az őskori SSAA megoldással sosem lett volna probléma csak ez az eljárás drágább, mint az MSAA, így fel is hagytak az alkalmazásával.
Persze nyilván egy Shader alapú DX10.1-es AA algoritmus költsége sokkal alacsonyabb lesz, mint az SSAA. Az SSAA 4x-es szűrésen el fog zabálni vagy 25-30%-ot a sebességből. Persze van miből, de ebből látszik a lényeg, hogy a megoldás drága. -
Abu85
HÁZIGAZDA
válasz
Ricco_hun #7719 üzenetére
Plusz DirectX 11-re hangolták a rendszert. Igazából nem is kellett változtatni sokat az R600 alapjain. Tovább pofozták, ha jól tetszik ... ennél jobb felépítést a jelenlegi grafikai igényekhez nem lehet találni. Eleve erre készítették fel az R600-at, hogy több generációt is kibírjon.
-
Abu85
HÁZIGAZDA
válasz
Zeratul #7699 üzenetére
A Valve meg van elégedve a Havokkal. Szóval náluk ez nem kérdés. A Crytek egyszer nyilatkozta, hogy nem szeret vásárolni, inkább magának kifejleszti a technológiát. Ez egyébként jellemző volt mindig is rájuk. Carmack is ilyen ... ő is csak saját megoldásban gondolkodik. Bár az új Wolfensteinben Havok van, de valószínű, hogy ez a Raven döntése volt. Tim Sweeney meg nagy Larrabee barát lett manapság, szóval a Havok befigyel ott is, hacsak nem saját rendszert fejleszt. Utóbbi egyébként valószínűbb
-
Abu85
HÁZIGAZDA
válasz
LackoMester #7693 üzenetére
Ha ez így lenne, akkor valószínű, hogy Michael Hara szerdán nem nyilatkozott volna a grafikus képességek háttérbe szorulásáról. Most van egy fudzilla morzsa, ami szemben áll a tegnap megjelent hivatalos állásponttal.
americanidiot: Nem állítottam, hogy nem munkálkodnak rajta, de egyelőre pletykaszintű a dolog. A hivatalos bejelentésig senki sem szereti, ha szellőztetnek, mert ha nem jön össze, akkor felelősségre lesznek vonva. A Terminator is gázos volt ... GeForce PhysX ready, oszt mégsem.
Félhivatalos dolgokat tudok mindkét oldalról, de PhysX: Backbreaker, Borderlands, Shadow Harvest ... DX11: BattleField: Bad Company 2, Crysis 2
Ezek sem biztosak, de valószínű.
A Mafia 2 az olyan pletyka, mint az AMD oldalon a Star Wars: The Force Unleashed. -
Abu85
HÁZIGAZDA
válasz
South Velen #7690 üzenetére
A még be nem jelentett PhysX címek közül a Backbreaker a biztos. A többi kérdéses. Gondolom nem adják magukat olcsón a stúdiók. Főleg, hogy látják mi a tényleges erősorrend a GPU piacon.
-
Abu85
HÁZIGAZDA
válasz
Ricco_hun #7684 üzenetére
Már négy címet lepleztek le (jön több is), de nem is ez a lényeg. A HD 5850 ellenfele a GTX 285. Utóbbi lassabb nála és az NV-t elnézve árcsökkentés nem lesz. Bár én jelenleg azon a véleményen vagyok, hogy mind a két gyártó más ligát hozott létre. A PhysX-es játékokhoz GeForce kell, míg a DX10.1-11-esekhez Radeon. Tulajdonképpen csak formálisan versenyeznek egy piacon, gyakorlatilag már nem ellenfelek. A többi játékban persze összemérhetőek, de igazából érdemes úgy választani, hogy PhysX vagy DX10.1-11.
-
Abu85
HÁZIGAZDA
válasz
Ricco_hun #7680 üzenetére
Ha figyelembe veszed, hogy nincs konkurencia, akkor ez még barátságos árazásnak is felfogható. Emlékezz vissza a GeForce 8800-ra, hogy mennyit kértek érte. Mégis vette a nép. A 8600-at megvárták, aztán látták, hogy az gyengus, és inkább mentek a felsőbb rétegbe. Az AMD kihozza a DX11-es játékokat combos gépigénnyel és hawaii lesz nekik.
Az AMD kikaparta magának a HD 4000-rel a gesztenyét, most szeretnék megenni. Üzleti oldalról még mindig cégnek tekinthetők, szóval ez van. Aki tényleg NV fan, az várja a "GT300"-at (ki tudja meddig), vagy vesz GTX 285-öt, ami a DX11-es játékokban harmad olyan gyors lesz, mint a HD 5850.
-
Abu85
HÁZIGAZDA
Srácok most nem érek rá takarítani, de ha ezután látok egy ki mit vesz ... mennyi FPS posztot, akkor megy a törlés.
Durván kéretik ON módba kapcsolni.
-
Abu85
HÁZIGAZDA
válasz
Zeratul #7598 üzenetére
Nem ezen múlik igazából. Nyilván a PhysX esélytelen a Havok ellen, de az NV láthatóan rövidtávra gondolkodik. Van pár olyan játék, ami a PhysX API-t használja, odamennek nyomnak pár milliót a PhysX támogatásért és kész a termék, amiért vehetsz a GeForce-ot. Nyilván teljesítményben, árban és a független API-k támogatásában nem fogják felvenni a versenyt az AMD-vel, de láthatóan nem is ez a cél.
-
Abu85
HÁZIGAZDA
válasz
cowboy_bebop #7574 üzenetére
Hát ezaz ... össze kell rakni egy második gépet, vagy az egyik technikáról le kell mondani.
Ha menne a PhysX Radeon mellett, akkor nem lenne akkora para a piac. -
Abu85
HÁZIGAZDA
Így meg vehetsz egy GeForce-ot PhysX-re, míg egy Radeont DirectX 11-re. Árverseny a külön ligák miatt így sem lesz.
Keldor papa: Azé Charliet nem bántsuk. Rengeteg dráma van az írásaiban. Igazi felüdülés olvasni őt. Aztán elgondolkozol, hogy mit és mennyit szívott, mire az aktuális cikket kierőszakolta magából.
-
Abu85
HÁZIGAZDA
Csak, hogy az NV nem támogatta a DX10-et teljes mértékben. Az a Geometry Shader teljesítmény, amire képes a G80 az már olyan, mintha nem is tudná a fícsört. A GT200-ban ezt javították úgy-ahogy és rögtön 400 millió plusztranyó lett az eredménye, az RV770-hez viszonyítva.
Hát az NV biztos nem akar, de az Intel nagyon kinézte magának a HPC piacot. Ezt a Tesla rendszerek a GPGPU fronton teljesen uralják. Mindezt úgy, hogy a GT200 DP megvalósítása az iparág szégyene.
Persze megtehették, hogy külön DP egységekkel alázzák meg magukat, mert az AMD-nek hibába volt mérföldekkel jobb hardvere DP szempontból, ha az AMD nem akart beszállni a HPC piacra, a szoftveres platform hiányában. Ezt a Larrabeevel már nem nagyon lehet eljátszani, mert az Intel szándékosan ide tervezi a rendszert. Ráadásul az NV számára ez egy hosszútávú piac. Innen nem fogják kitúrni a platformosodó trendek az x86 hiányában. Ha a HPC piacot elvesztik, akkor felesleges volt kifejleszteni a CUDA-t, felesleges volt minden GPGPU irányba ölt dollármillió.
Külső szemlélőként viccesek az átnevezések, meg röhögünk az NV elmúlt években alkotott akcióin, de ezek pontosan azért születtek meg, mert az erőforrások folyamatosan átcsoportosulnak. -
Abu85
HÁZIGAZDA
Szerintem az a 2% bullshit. Az NV-hez közeli forrás mondta, hogy nem a legjobb, de jobb 2%-nál.
És drivert írtak már a kártyákhoz? ... mert eddig én csak a DirectCompute rutinokat láttam még a dev. drivereken is, ami kevés. Aztán ott a Tesszellátor kérdése, amiben az AMD-nek 6 generáció tapasztalata van, a DX11-es rendszer működési elvét élesben tesztelhették a HD Radeonokon. Ne feledjük, hogy az NV hadilábon áll az új DX-ekkel. A DX9-re harmatgyenge hardvert hoztak össze, míg a DX10-nél a geometry shadert rontották el. DX11-nél a tesszellátor sokkal nagyobb kihívás.
Amúgy ha GPU-t csinálnak, hogy akarnak a Larrabee-vel versenyezni? Az a rendszer 1/2-es DP teljesítménnyel teker, az a maximum amit ki lehet hozni egy hardverből. Ezt minimum tudnia kell az NV-nek is, ha pedig így építik a rendszert, akkor az bődületes tranzisztortöbblet. Az Evergreen megmarad az 1/5-ös DP-nél, mert nem cél a HPC piac, így elég az 500 GFLOPS. Jelenleg az NV rendszerek 1/12-es DP-t használnak külön egységekkel. Az rendben, hogy átépítik a rendszert, de két piacon egy chippel csak vergődni fognak. Az egyiket fel kell adni, mert félő, hogy mindkét helyen kikapnak, ami nem a profitorientált cégek érdeke. A Larrabee 2 GHz-es órajelen 1 TFLOPS-ot tud DP-ben. Ha az NV ezt az értéket hozni akarja, akkor 15x gyorsabb feldolgozás kell a GT200-hoz viszonyítva. Ez már önmagában nem kis szám, és akkor még kell tesszellátor (hatékony felépítéssel - nyilván az Evergreen-féle felépítés a GPGPU vonalra nem kedvező, mert értékes SP-kre lehetnek költeni a Setup egység tranzisztorait), kell az új textúrázóegység (bár ezt átemelhetik a GT21x karikból, azért egy kis javítás sosem árt, a GT215-ből kiindulva láthatóan nem kicsi az egység mérete), meg kell oldani a lokal data sharet (ez azért nem akkora feladat). Szóval van itt kérdés bőven. -
Abu85
HÁZIGAZDA
A pletykák szerint 2% a yield ... ezek a mendemondák kb. annyit érnek, hogy egy-két napra megnöveljék a pletyka forrásoldalának a látogatottságát.
Ráadásul a Ferminek, vagy "GT300"-nak ... kinek hogy tetszik ... a DX11 tengerbe kell megérkezni, és láthatóan minden DX11-re készülő (bejelentett és be nem jelentett) játék fejlesztői az AMD-nél tanyáznak. Persze ez biztos véletlen. Még a Crytek és az ID is az AMD-vel fejleszt együtt. -
Abu85
HÁZIGAZDA
A történelem ismétli önmagát, csak most a 3dfx helyére NVIDIA van írva, míg a Glide helyére a PhysX.
-
Abu85
HÁZIGAZDA
Pontos számot nem tudok a Cypressről, de kb akkora selejtarány, mint az RV770-nél a kezdetekben (nyilván az AMD megint alkalmazza a tartalék SP-ket a shader tömbökben, így pedig könnyű
). Igazából a chip már nyár eleje óta kész van. Csak a TSMC-re várt mindenki. Persze ez előnyére vált a rendszernek, mert addig fejlesztették, és kisebb lett a fogyasztás, valamint nőtt az órajel. Az RV740 volt az AMD-nél a tapasztalatgyűjtés.
Az új generációs NV-nek kicsi az esélye, hogy idén megjelenjen. Igazából a legnagyobb gond, hogy a sokkal kisebb GT215 tömeggyártása is december elején indulhat be. Mondjuk a rendszer biztos megjelenik a Larrabee előtt, tehát mondhatni a "célközönségnek" időben itt lesz.
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #7365 üzenetére
A GI és az SSGI eljárás annyiban különbözik, hogy az SSGI csak a képernyőn látható képre végzi a számításokat. Ettől függetlenül ugyanúgy szüksége van a jelenet információira, így a szükséges fény útját valamilyen módon meg kell határozni. Nem ismerem a Crytek megoldását, de az Emil Persson féle elgondolás Cube map tömbökbe menti a fényforrások információit, az egyes sugarak szögét és erősségét pedig a jelenetben elhelyezett vizsgálópontok határozzák meg geometry shader használatával. Látható, hogy ezt az elgondolást teljesen dinamikus jelenetben tudta anno egy HD 3870. Tehát egész gyors a dolog. A Crytek videóból nekem pont az hiányzik, hogy nem repkednek dinamikusan a tárgyak benne, így a dolog csak szép, de gyakorlatban kérdéses az alkalmazhatósága.
A CE2-es reklám a Sony kérésére lett csinálva. Nem tudjuk milyen géppel van a számítás, de szerencsére tudjuk, hogy a CE2-ben nincs beépítve semmiféle SSGI algoritmus. Pattogó labdákat akarok SSGI mellett.
---
Más (csak nem akarom új hszbe írni):
Charlie nyomot egy újabb agymenést, aki nevetgélni akar kattanjon. Biztos forrásból tudom megerősíteni, hogy az a 2% nem igaz. Bár valóban nagyon gány a selejtarány. Igazából az NV most három pipe-cleaner chipet is bedob. Az ATI ezt az RV740-nel elvégeztette. Az NV-nél most a GT218 tömeggyártása van beindítva. De év végéig beindul a GT216 és a GT215 is. -
Abu85
HÁZIGAZDA
válasz
DigitXT #7354 üzenetére
Ez egy nagy marhaság, vicces, hogy idekeverted...
Miért lenne vicces ... szimpla biológia. 25 FPS-t folyamatosnak érzel.Filmek:
Igen az európai mozi 24, míg az amcsi mozi 30 ... mindkét esetben progresszív a megjelenítés azaz teljes képkocka van kirakva. Az európai TV-ben PAL 576i50 van alkalmazva, ami interlace-es adás, vagyis az eredeti 25 FPS-re felgyorsított mozi egyes képkockáit páros és páratlan sorokra bontják, majd ezeket az 50 Hz-es frissítésnek megfelelően egymás után leadják. Persze az információ tartalom ugyanannyi, mint ha 25 képkockát egymás után leadnák.
Érdemes megnézni egy DB, vagy egy HD-DVD médiát, ez minden régióban az eredeti mozis 24 képkocka/másodperc sebességgel van rögzítve progresszív módban. Teljesen folyamatosnak érzed a mozgást.Ezt az európai HDTV adás 25 FPS-re gyorsítja, szintén progresszív módban. Nem láttam még embert panaszkodni, hogy nem lenne folyamatos az adás.
A V-sync arra való, hogy a monitor ne tegye ki a Frame Buffer tartalmát, ha az éppen felülírás alatt van. Konkrétan szinkronizálja a munkafolyamatot. Azért látod szétesőnek a képet időnként V-Sync nélkül, mert a monitor frissítése magasabb, mint a játék futási sebessége, ilyenkor a monitor nyilván többször rakja ki a Frame Buffer tartalmát a képernyőre. A baj akkor jön elő, amikor éppen a rendszer felülírja a képkockát, de a tartalom alja még nincs megváltozva, így azt változás nélkül kirakja a monitor. Ez eredményezi a kettészakadt képet. A felső rész az új képkocka, míg az alsó a régi képkocka szelete.
Mint írtam játékfüggő a jelenetlimit sebessége, de általánosan érdemes törekedni a 25-30 jelenetre másodpercenként.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #7345 üzenetére
Szerinted az objektum mozgatása nem befolyásolta a sebességet? Ez a videó, akkor lenne komoly anyag, ha valamilyen tárgy valós időben pattogna benne, de az megfeküdné a mai rendszerek képességeit. Az, hogy egy szerkesztőfelületben áthelyeznek valami, nem nagy dolog.
Az adatok impresszívek, de nézd meg a Ping-pong demót. [link] - látható mi a különbség. Több száz pattogó labda teker a képen, ami már sokkal közelebb áll egy játék igényeihez. Ezért tekintik Emil Persson algoritmusát gyakorlati szinten alkalmazhatónak. A többi GI prezi szépnek szép, de nem nagyon látom olyan környezetben, mint a ping-pong-ot. Talán nem véletlenül.
-
Abu85
HÁZIGAZDA
Nemtom, én nem veszem észre a legtöbb játéknál azt az ordító különbséget. Persze lehet, hogy rossz játékot játszok.
Pontosítani kellene, melyik gamánál van különbség, mert lehet 50 jelenetre állítani a limitet, és akkor tényleg baszhatjuk a 25 framet.
Annyira népszerű vagy, hogy hekkelnek a konkurensek?
-
Abu85
HÁZIGAZDA
válasz
VinoRosso #7334 üzenetére
Az, hogy az objektum áthelyezhető, még statikus a scene. Amint áthelyezed az objektumot a térrendezőfát újra kell generálni. Ez kerül sok időbe. Majd ha olyat nyom a Crytek, hogy pl. több száz ping-pong labda pattog a jelenlegi hardvereken, akkor süti amit csinálnak. Ezt egyelőre csak Emil Persson Cube Map tömbös algoritmusa tudja.
Az SSGI, meg ok, hogy Screen Space effekt, de ez azt jelenti, hogy a számítás csak a képernyőn látott képre vonatkozik, de ettől számos információra van szükséged a jelenetből. Különben nincs adat a számításhoz.
Szerk.: Persze jó a Crytek megoldása is a kinézet szempontjából (nem azt akarom mondani, hogy szar amit csináltak), csak ez egyelőre mutogatni való, nem véletlenül nem látsz a videóban valós időben mozgó objektumot.
-
Abu85
HÁZIGAZDA
Most is lehet jobb minőségű AF-et kérni. Ki kell kapcsolni a Catalyst AI-t, ilyenkor nem futnak a trilineáris optimalizációk, így jobb a minőség. Persze többnyire csak nagyítóval észrevehető. Persze ettől függetlenül van annyi kraft a HD 5000-ben, hogy alapból ne legyen szűrés optimalizálás. Komoly újításra azért ne számíts.
-
Abu85
HÁZIGAZDA
Gyakorlatilag ezt mondom én is. Minden motorban van egy fix limitáció, hogy állandó legyen a sebesség. A jelenet limitet egyébként is mindig a kamera frissítéshez érdemes mérni, mert a kamera pozíciójának változása az új információ első alapeleme, innentől már készíthető a virtuális fénykép. Ha a kamera frissítése, tehát a jelenetlimit X, ami lehet másodpercenként 25-30-60 (mint a legtöbbet használt paraméterek), akkor az adott sebesség feletti képfrissítés gyakorlatilag lényegtelen, mert a kép nem tartalmaz új információt.
Gyakorlatilag minden beállításfüggő, ha én egy motort úgy állítok be, hogy 25 jelenetnél ne számoljon többet, akkor nincs az az isten, aki több információt szed ki a gépből. Következésképp, 25 FPS fölött nincs érdemi változás. Erre akarok lényegében kilyukadni. Most a 25 helyébe mindenki képzelhet más számot is, csak a 25 és a 30 jelenet az általános, erre próbálnak menni a fejlesztés során.Brae: Az FPS limitet nem akarjuk kiütni, mi a jelenetlimitet értekezzük.
-
Abu85
HÁZIGAZDA
válasz
DigitXT #7323 üzenetére
Pontosan. A mai játékok is így vannak belőve. A Quake 3 példa volt, hogy milyen a játékmenet ha nincs jelenetlimit.
Minden más játék ilyen lenne, hiszen a gép teljesítménye változó, egyszerűen kell valami fix sebesség, amire limitálva van a számítás. Ezt a legtöbb fejlesztő 25 vagy 30 FPS-re lövi, be ... többnyire azért, mert az ember számára ez a legjobb, de be lehet lőni 60 FPS-re, is ha valami nagyon el lenne baszva a motoron, vagy jobb a játékélmény úgy. Ezek egyéni döntések, de limitálni kell, mert másképp 2,5 másodperc alatt játszol le egy 1,5 perces meccset
Ahogy a Quake 3 videó bemutatja.
A Quake 3 annyira Dos-os, hogy Windows-os.
Képkockát annyi időnként látsz amekkora a monitorod frissítése. 60 Hz-nél 60-szor van a képkocka kirakva a monitora másodpercenként ez azt jelenti hogy 30 FPS jelenetlimitnél a Frame Buffer tartalma kétszer lesz kirakva.Mindegy, hogy mit bír a gép, a fix sebesség kell, mert gyorsítva peregne le előtted minden. Az emberi agynak 25 képkocka az ideális másodpercenként. A filmek is azért tartalmaznak másodpercenként gyakorlati szinten 25 képkocka információt. Esetleg az amcsi szabvány más ha jól tudom az 30 FPS ... ott hamarabb végzel a moziban.
-
Abu85
HÁZIGAZDA
válasz
adamssss #7316 üzenetére
Ha jól tudom a DX11-be mindent sikerült belepréselni. A DX10.1-re azért volt szükség, mert a DX10-et butítani kellett a G80 miatt.
DeckardCain: Az az oldal rosszul írja. A LIano már Bulldozer lapka lesz és a középkategóriába nevez. Az alsó desktopba megmaradnak a régi chipek, amíg a raktér engedi. Azokat később felváltja az Ontario, ami már szintén APU, csak kisebb teljesítményű, mint az LIano. Felsőbe megy majd az Orichi, ami 8 magos és integrált GPU nélkül jön.
-
Abu85
HÁZIGAZDA
válasz
nixx-21 #7313 üzenetére
Változtatni kell a felépítésen, a memóriaalrendszert is át kell építeni, de 2011-re mindenképpen az RV770 teljesítményének a megközelítése az elvárás a LIano APU-tól. Persze a DX11 segíteni fog neki, hiszen gyorsul a feldolgozás sebessége a tesszellátortól és a Local Data Share-tól.
-
Abu85
HÁZIGAZDA
válasz
DeckardCain #7311 üzenetére
A Fusion az igazából Brand. Tehát nem konkrét termék. Jelenleg is van Fusion, csak még nem integrált a GPU, de minden AMD platform Fusion brandbe tartozik.
A kérdésre válaszolva az első APU, azaz az integrált GPU-s CPU. 2011-ben jelenik meg 32 nm-es csíkszélességen. Egy lapkából fog állni, azaz a GPU mag ott lesz a CPU mellett. Kb. 250 mm^2-es lapkára lehet számítani, ami 32 nm-en 1200-1350 milla tranyó. Függően a cache sűrűségétől. Ebbe négy mag és 640-800 shader processzor fér bele. A GPU-nak külön memóriavezérlő kell, mert a gyors memória a szükséges az etetéshez. Nyilván látható az AMD stratégiájából, hogy a legkisebb méretben szeretnék a legnagyobb teljesítményt kihozni a chipből. Az R600 architektúra erre alkalmas, sőt már le is hagyták Moore törvényét. A DX11 célja is az erőforrás tehermentesítése, gyorsabb algoritmusok ügyes trükkökkel.
-
Abu85
HÁZIGAZDA
Van egy Global Data Shader a shader blokkok között, de nem nagyon lesz szükség kommunikációra, csak a Geometry Shader esetében.
Egy ilyen chipnek bőven jó a PCI Express x16 sávszélessége. Az X2 verziónál már rezeg a léc, de még oké a dolog.r_kristi_k: Ha befordítják a játékba a Xenos kódot a fejlesztők, akkor a régebbi HD karik is tesszellálhatnak. Ezt a Tessellator SDK-val nem nehéz kivitelezni.
Bici: Nőt az egy órajel alatt végrehajtható utasítások száma. Röviden és tömören ez az SP bizonyos szituációkban gyorsabban dolgozik, mint korábbi, azonos órajelen.
-
Abu85
HÁZIGAZDA
Nagyon OFF irányba tartunk.
Mennyünk vissza ON-ba.
-
Abu85
HÁZIGAZDA
Például nem ártana visszahozni az év eleji 50 dodó mínuszt a GTX 295-ökön. Ugye akkor olcsóbb volt a régi modell, míg az új az kisebb kihagyás után drágábban debütált. Pontosan azért, hogy az 50 dodó mínusz 50 dodó plusszal legyen ellensúlyozva. Jelenleg a teljes GTX 295 mínuszban van, de a presztizs modell célja a többi termék eladása is, így összességében megérte. Jelen esetben viszont ki kell vonni a piacról, mert nem lehet felvállalni a 399 dolcsis árat rá. A 350-et talán, de az is már 150 dollár mínusz a jelenlegi árakhoz. Termékenként ez masszív veszteség.
-
Abu85
HÁZIGAZDA
Üzleti szinten ez nem orvosolható a másik oldalon. Már most is minimálhaszonnal megy a GTX 295. Egyszerűen azt a kártyát nem szabad tovább forgalmazni, mert anyagilag csak mínuszt termel, most már elvesztette a presztizs értékét is. Nincs értelme a piacon hagyni. Gyakorlatilag semmi esélye, hogy jön egy 3,6 GB-os verzió.
rocket: Ezért nem értettem a vita lényegét, mert nekem az jött le, hogy a GTX 295-öt ajánlod, és bizonyítgattad az elsőbbségét.
Lehet, hogy paranoiás lettem. -
Abu85
HÁZIGAZDA
Ha szerinted sem ajánlott a GTX 295, akkor mi a vitánk lényege? ... mert én is azt mondom, hogy a HD 5870 az ajánlott. Nem értem, hogy mi értelme volt, akkor ennek a billentyűzetkoptatásnak, ha ugyanaz a véleményed, mint nekem?
Sokszor már kezdem azt hinni, hogy direkt csinálod. Bár a végén mindig kiderül, hogy ugyanazt a terméket ajánlod amit én.
-
Abu85
HÁZIGAZDA
Az AMD világos. Lesz DX11, ami az SDK szerint nagyon jó sebességet ad, továbbá az Eyefinity technológia lesz az ultra-hardcore gamereknek. Az összes DX11 játékot az AMD-vel fejlesztik a stúdiók, ami többnyire annak köszönhető, hogy a Tesselation SDK az AMD-é, a DX11 speckókat az AMD dolgozta ki, és így nem lenne meglepő ha az AMD magasan a legerősebb lenne DX11-ben, hiszen az architektúrát is az API igényeire szabták.
Az NV-nél várhatóan a GPGPU piac élvez elsőbbséget, így a lehetőséghez mérten csak annyira csinálnak DX11es chipet amennyire az szükséges a speckókhoz. Számukra is fontos lenne a több blokkos felépítés, mert a tesszellátor ilyen chip mellett nemcsak szebb képet eredményez, hanem sokkal gyorsabb is. Nyilván komolyabb sebességvesztéssel tesszellálni, már probléma. Emellett fontos lenne átdolgozni a textúrázókat az új követelményeknek, de ebből az általános számítások nem sokat profitálnak, így kell találni valami elfogadható kompromisszumot a számukban, mert túl nagy lesz a chip.
A szoftveres oldalról lesz a PhysX és a 3D Vision. Nyilván utóbbi az ultra-hardcore gamereket célozza az Eyefinityhez hasonlóan.
A piac úgy válik kétpólusúvá, hogy PhysX-re venned kell GeForce-ot, míg DX11-re Radeont. Nyilván hatékonyan az NV csak akkor tudja támogatni a DX11-et ha feladja a versenyt a Larrabee ellen. Ez van már régóta az NV-nek választania kell ellenfelet, mert az AMD a PC-s GPU piacra pályázik az Evergreennel, míg az Intel a HPC piacot célozza a Larrabee-vel. Mind a két rendszer fejlesztése ennek alárendelve zajlott. Az NV mind a két piacot akarja egy lapkával, csak ez lehetetlen, mert más felépítést kívánnak a szegmensek. A CUDA bukásával a PC úgy is kiesett a hossztávú tervekből, így szerintem a HPC piacra készül az új chip. A PhysX gyakorlatilag a PC-s piacon a termék, ami csak GeForce-szal érhető el. -
Abu85
HÁZIGAZDA
Ahol nem használnak Deferred Rendering-et, ott jó a DX9 is. Ettől függetlenül már számos cég átállt az új API-re, mert nincs más út. A PC-n nincs lehetőség speckó eljárásokra. A DX9-ben Deferred Render mellett nem lesz AA-d, POM-mal nem lesz AF-ed és még lassú is lesz a feldolgozás. Ez nem szolgálja a játékosok érdekét.
Az NV nyilván továbbra is a fejlődés ellen fog küzdeni, mert nekik ez ad életet, vesznek játékokat PhysX-re és kész. Ahogy az várható volt kétpólusúvá válik a piac.
Sonja: Az jó meleg lesz.
Amúgy 300 alá be kell vinni. Ha nem sikerül, akkor nem adják ki.
-
Abu85
HÁZIGAZDA
A konzolos fejlesztéseket is PC-n kezdik el. Láthatod, hogy év eleje óta mennyi TWIMTBP szerződés járt le, a fejlesztők rögtön nyitottak az új API-k irányába. Már négy játék van DX11-re bejelentve, és a DX10.1-re is készülnek még idén cuccok.
Az, hogy a mai játékok lassúak, vagy nincs bennük AA, azt mi rontottuk el. Persze nem váható el egy átlag embertől, hogy átlássa az NV szándékait, így hibáztatni maximum azt lehet, aki széllel szembe pisál. Persze most már a zöldeket sem érdemes basztatni, mert a terveik belefulladtak a fejlődésbe. Sőt okkal tették azt amit tettek, pusztán a saját túlélésük céljából.Barbarossa88: nem számít annak. Csak két shader blokk van benne, hogy hatékony legyen a DX11-es tesszellálás.
-
Abu85
HÁZIGAZDA
válasz
janos666 #7258 üzenetére
A DX11 pont ezért jött létre. Ahol lehet gyorsítson a feldolgozáson, úgy, hogy a képminőség is jobb. Tesszellatort és aCompute Sahdert kell alkalmazni, és nem lesz sebességgond. Az, hogy az NV belekényszerítette a játékipart a régi megoldások erőltetésére, már nem lényeges. Felbomlottak a TWIMTBP szerződések, most már a gépigények is a korhoz mérséklődnek, mert használják, és használni fogják az új API modern és gyors eljárásait. Nem viccből csinálják ezt a DX10-11 cuccot. Nagyon koros már a DX9, és ez meglátszik a régi eljárások sebességén.
Láttad a Stormrise mekkora erőforrásigénnyel számolja a 8xAA-t? Ezért próbáltam régebben kardoskodni az R600 mellett, mert azzal, hogy az NV logikátlanul felépített megoldása terjedt el, csak a játékostársadalom járt rosszul.
-
Abu85
HÁZIGAZDA
Pontosítsunk:
Battleforge 4xAA-16xAF lassabb. - DX10.1 miatt van Alpha test AA, tehát minden felületre szűr. Szebb képminőség.
Company of Heroes 8xAA-16xAF lassabb. - 2560x1600-ban gyorsabb. Ezeknél a kártyáknál ennek a felbontásnak van jelentősége.
Call of Duty World at War 8xAA-16xAF lassabb. - nagyon öreg a motor, ráadásul alig használ shadert
Crysis Warhead 4xAA-8xAF lassabb. - Mehetsz feljebb is, ahol már hátrány a 896 MB RAM a GeForce-on, és hát miért nem mennénk feljebb.
Devil May Cry 8xAA-16xAF lassabb. - csak szeretnéd63,2 - 46 - mint írtam ezeknél a kártyáknál súlyozottan számít a nagy felbontás. Ide készülnek. 1920x1080-ban már most is játszható minden a jelenlegi palettával.
Far Cry 2 8xAA lassabb. - egyelőre ez a GeForce mellett szól
Left for Dead 8xAA-16xAF lassabb. már megint gyorsabb. Nézd a nagy felbontást.
Prey 8xAA-16xAF gyorsabb. (a tesztben szereplo legregebben megjelent jatek) - egyetértek .. nem túl lényeges az eredmény az ID tech 4 miatt.
STALKER Clear Sky lassabb. (szurokkel jatszhatatlan atlag ertekek vannak) - elfelejted, hogy mennyivel szebb a STALKER-ben a DX10.1 mód. Tudom ezt nem illek belekalkulálni, mert a GeForce nem tudja, de ettől még tény ... a STALKER sokkal szebb árnyékokat és AA-t alkalmaz DX10.1-ben
Stormrise 8xAA-16xAF gyorsabb.
The Chronicles of Riddick: ADA gyorsabb.
Unigine Tropics 8xAA-16xAF gyorsabb (szinetikus benchmark) - és még szebb is a kép a DX10.1 AA miatt
Unreal3 8xAA-16xAF gyorsabb.
Wolfeinstein 8xAA-16xAF gyorsabb (0.6 frame/s kulonbseg) - lényegtelen eredmény, még ha gyorsabb is.A tényekkel kiegészítve már nem a GTX 295 az ajánlott. Egyre nagyobb probléma a kevés memória is.
-
Abu85
HÁZIGAZDA
Vannak linkelve más tesztek is ahol fel van tüntetve a frame érték is.
Akkor rossz grafikont nézünk. Miért ne lenne verve a GTX 295? Eleve a komoly terhelés alatt elfogy a memóriája. Az NV nem tud duplázott memóriás terméket a piacra dobni, mert már a 399 dodós áron is veszteséges a GTX 295. Ha még több motyó lesz rajta még nagyobb a veszteség.
Az irreálisan nagy elvárásokról meg annyit, hogy az elvárás, hogy a GTX 295 be legyen húzva. [link] - látható, hogy egy csomó helyen megtörténik, sőt valahol sokkal gyorsabb. Persze ezeken a helyeken a G80 architektúrája a megfelelő felépítés hiányában betegeskedik, de hát lehetett volna anno valódi DX10 gyorsítót is tervezni. A Crysis eredményekből nekem az jön le, hogy a 35-40 FPS 8xAA-val és 16xAF-fel Full HD-ben simán hozható. Márpedig a kiszivárgott mérések, amiket kaptam és régebben ide beírtam, ugyanezt állítják.A GTX 295 meg nyilván elfogy ramhiányban, de hát most őszintén ez a vásárlót nem fogja meghatni, ha ráadásul olcsóbban veszi meg a HD 5870-et.
Az AMD PR slideja nem igazán sejtett egált. Eléggé komoly előnye van a HD 5870-nek. Egálnak azok akarják kihozni, akik féltik az NV seggét, de mint írtam fejleszteni kell, nem alibizni.
ashot:
... elsőre nem értettem, de a színek alapján poén.
-
Abu85
HÁZIGAZDA
És ha kifut a RAM-ból? Mit csináljon vele az AMD. Rakjon a kártyájára 512 MB-ot, hogy kiegyenlítse az erőviszonyokat? OMG ...
Full HD-ben 8xAA-val 16x AF-ben simán verve van a GTX 295, ahogy nemrég mondtam, ez a napnál is világosabb. Csak próbálod árnyalni a tényeket.De ez nehéz ügy, mert a júzer csak az eredményekre pillant és látható, hogy a GTX 295 és a HD 5870 közül melyik a jobb vétel.
De ha te azt mondod, hogy a GTX 295, hát legyen én megértem.
-
Abu85
HÁZIGAZDA
válasz
DigitXT #7218 üzenetére
Nézz utána, hogy működnek a motorok.
Ha 30 jelenetre van limitálva a sebesség, akkor nyilván 30 FPS lesz a játék tényleges sebessége. A GPU nem is számol több képet, csak a monitornak küldi ki a frame buffer tartalmát.
Emlékez vissza a Quake 3-ra, ahol 30 FPS volt a limit. A timedemo 1 paranccsal ezt ki lehetett ütni, így a rendszer annyi framet számolt amennyit csak tudott. [link] - itt egy benchmark 543 FPS-ről. A sebesség 18-szorosa a limitált 30 FPS-es teljesítménynek, amiről itt egy videó [link].
Na most akkor melyik a játszható, a limitált, vagy a limit nélküli?westlake: Nem számolod bele az NV politikáját. A PhysX és a 3d Vision csak GeForce-on van. Ez a termék, nem a kártya. Ha ezeket akarod GeForce-ot kell venned.
-
Abu85
HÁZIGAZDA
válasz
sniper elite #7213 üzenetére
Erre van az Eyefinity, mert nagyon erősek a kártyák. Veszel egymás mellé három monitort és nem probléma a proci.
dokar: igazából a kétmagos az nem jó kifejezés. Ez a lapka 1600 magos. Úgy érdemes ezt mondani, hogy két shader blokk van a rendszerben.
-
Abu85
HÁZIGAZDA
Aki ilyen kártyát vesz pont a szélsőség miatt teszi. Olyan dolgokra ad lehetőséget a sebessége, amire az előző generációs csúcsrendszere nem. Ráadásul a GTX 295-ből teljesen felesleges egy dupla memós verzió, mert 399 dollárba egyszerűen nem fér bele. Veszteséggel nincs értelme a terméknek a piacon. Az NV palettáján minden marad változás nélkül, mert nem a kártya a termék, hanem a 3D Vision és a PhysX.
-
Abu85
HÁZIGAZDA
válasz
DigitXT #7209 üzenetére
Bullshit. Eleve scene limites minden játék. 25-30 jelenet van maximum másodpercenként. Ha ez nem lenne, akkor a játék folyamatosan a többszörösére gyorsulna és lassulna.
Az persze lehet, hogy marhára elbaszták a motort, így szar lesz a játék bizonyos sebességtartományban. -
Abu85
HÁZIGAZDA
Aki ilyen kártyát vesz nem ilyen felbontásra vágyik?
Biztos nem 1680x1050-ben fogja tolni oda felesleges ennyi pénz.
A jelenlegi NV-s adatokból a zöldek nyomják a GPU piacot csak a PhysX, 3D Vision oldalról közelítik majd meg, az AMD pedig a DX11, Eyefinity oldalt erőlteti majd. Tulajdonképpen kétligássá alakítják a piacot, csak formálisan lesznek egymás ellenségei, mert a technológiák nem érhetőek el, mindkét oldalon.
Chalez: Kisebb felbontásra minek ilyen erős kártya. A HD 5870 ott erősebb, ahova készült. A top felbontásokra.
-
Abu85
HÁZIGAZDA
válasz
robotjatek #7123 üzenetére
Erről beszélt az AMD régebben. A driverek összeakadnak az egyes tuning programokkal, vagy a korábban törölt más gyártói driverekkel. Gyakorlatilag csak a Win reinstall segít.
Valszeg nálad azért nincs ilyen probléma, mert nem használtál olyan programot amit nem támogat a Catalyst. Gondolom engem is ezért kerülnek el ezek a gondok. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #7119 üzenetére
A GDC-t azt annyira nem néztem. Az inkább a játékokról szól, mint a technológiáról.
A SIGGRAPH érdekel ebből a szempontból.
A valós idejű Ray-Tracing motorokat úgy 2018-ra várom leghamarabb (de inkább 2020). Ennél hamarabb nem lesz PC-n hardver ami bírja. 2014 környékén a nagy generációváltás inkább Hibrid elgondolásokat fog eredményezni, Voxeles transzformációval. Carmack és Sweeney terveiből kiindulva.
Az a baj a raszterizálással, hogy piszkosul gyors, és bár fake eredményeket ad, a Ray-Tracing még legalább egy évtizedig nem kerekedik felül. Persze a HPC piacon teljesen érthető az NV elgondolása, ott a valós idejű Ray-Tracing már régóta valóság, csak hát azok a hardverek durván költségesek.Szerk.: Nem videókat néztem. Tech papereket.
Amúgy a videón eléggé statikusan áll minden. Gyakorlatilag interakció nuku. Gondolom nem bír többet a hardver. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #7109 üzenetére
A Crytek a SIGGRAPH-on mutogatta a CE3-as megvalósítását. Zömében Vec4 kód semmi probléma nem lenne vele Radeonon, sőt azon fut igazán jól. Nem véletlen vannak az AMD-vel szerződésben, mert a Xenosra írnak mindent.
GI-t már írtak DX10-re. Emil Persson csinált egy Cube map tömbös megoldást, aminek az algoritmusát az AMD felhasználta a Ping-Pong demóhoz. Láthatóan megy a rendszernek. Az Nv-nek ez halál lenne a geometry shader miatt. A DX11 is ezt a megoldást tartotta meg, egyszerűen a jelenlegi rendszereken magasan ez a leggyorsabb. Persze a minősége nem a legjobb, de hát nincs erőforrás jobbra. Sajnos még évekig nem lesz.
Az NV-nek a GPGPU lesz a piaca. A HPC rendszerekbe lesznek eladva a jövőben a chipek, nyilván nem a PC-s vonalra fog fejleszteni. Ezért erőltetik a Ray-Tracinget. Oda rakják a pénzt, ahonnan vissza is jön.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
theniel #7064 üzenetére
- Nem tudunk szoftveres problémáról AMD oldalon.
- Már nem. Az NV PhysX-szel tud kereskedni, de láthatóan több stúdió is az AMD-hez megy, mert nincs az NV-nek megfelelő dokumentációja a DX10-ről és főleg a DX11-ről.
- Inkább a DX10.1/11-re van szükség, hogy gyorsabb legyen a feldolgozás, legyen újra AA a játékokban, ne kelljen már a jövőbeli AF problémákkal szembenézni.
- Októberben. Egyelőre négy játék van bejelentve az API-ra. Három tervszerű volt, míg egy sajnos kiszivárgott, így az AMD már nem tagadta, hogy az is DX11 lesz.Ricco_hun: Ez az árazás azért van, mert nincs konkurens. Ha itt lenne az újgenerációs NV, akkor mehetne az árverseny, így viszont be kell nyelni ezt. Az NV is ugyanezt csinálta a GF8 megjelenésekor, csak sokkal durvább árakkal. Az AMD az 600+ területet meghagyta az X2-nek.
-
Abu85
HÁZIGAZDA
Esetleg két külön lapkáról is beszélhetünk. Elméletben ugye van az RV830 és az RV840 a köztudatban. Lehet, hogy ezek együtt adják az RV870-et.
Chaser: Simán meg lehet oldani az idle fogyasztást a feszültség szabályozásával. A régi karik is a GDDR5 miatt fogyasztottak sokat. Ezt most már javították a memóriagyártók. -
Abu85
HÁZIGAZDA
válasz
VinoRosso #7042 üzenetére
Nem értem mi lenne a probléma a Crytek demóban, hisz az is Vec4-es utasításokat használ, ami megfelel a szuperskalár egységeknek. Az NV is az AMD megoldását erőltetné, ha nem lenne fontos a GPGPU piac. Egyszerűen a modern grafikai számításokra a Xenosos 4 utas szuperskalár az ideális. Az AMD ezt egy picit kiegészítette de elvi szinten ugyanaz. Az NV féle 2x4 utas stream is jó, csak hát a tranzisztorigény borzalmasan magas.
Chaser: Eme hsz után biztos nem tudják meg.
-
Abu85
HÁZIGAZDA
válasz
janos666 #7036 üzenetére
Ez azért nem jó gondolkodás, mert a modern játékokban ilyen nem fordulhat elő. A legtöbb shader nem függ a másiktól, így a szuperskalár forma ma a legjobb a grafikai feldolgozásra. Ráadásul ez a méretben is előny, mivel kicsi a chip és a számítási teljesítmény magas. A gyakorlatban is ezt látod, 3D-ben az RV790 tartja a tempót a sokkal nagyobb G200-zal. Ráadásul a G200-nak nincs is DX10.1 támogatása, ami tovább növelné a chip méretét.
A GPGPU-ban jelent problémát a függőség ... lásd Folding.
NEISSE meg akarja magyarázni teljesítmény oldalról a dolgokat, de ezt már az NV sem teszi. A PhysX és a 3D Vision levelek jönnek tömegszámra tőlük. Ja és, hogy nincs szükség nagyobb teljesítményre.
-
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
Petya2900XT #6797 üzenetére
Ja a Red Faction Guerilla az erősen módosított Havok.
PhysX-et soha nem látott az a gém.
-
Abu85
HÁZIGAZDA
válasz
attiLANte #6611 üzenetére
Azokat stratégiai okok tartják vissza. Egyrészt nem jó mindent egyszerre startoltatni, mert az egyszer okoz hype-ot. Vársz három hetet a startok között, akkor karácsonyig az Ati a téma. Plusz ott vannak még a régi termékek.
Bluegene: Valószínűleg a DX10.1 és a DX11 között nem lesz sok különbség. Inkább a DX11 feldolgozása gyorsabb lesz. A DX10-hez képest meg a szokásos előnyt nyújtja a DX10.1. Alpha csatornára működő élsimítás és várhatóan szebb árnyékok, vagy gyorsabb feldolgozás.
alien_, Keldor papa, Bici: A tesszellátor működése a régi karikban a fejlesztőktől függ. Mivel a Tesselation SDK-t használják a fejlesztésre, így jó esély van rá, hogy írnak egy Xenos kompatibilis kódot is. Ez DX9-ben könnyen, DX10/10.1-ben kicsit nehezebben engedélyezhető, de megoldható. OpenGL-ben pedig van AMDX kiterjesztés tesszelláláshoz.
-
Abu85
HÁZIGAZDA
válasz
westlake #6399 üzenetére
Még sok a régi HD 4000 az üzletekben. Ezek nehezen eladhatók majd a mostani áron. Teljesen normális a dolog. Teszteredmények is szivárogtak ki, reggel volt Crysis és Crysis Warhead eredmény is. A mai napra meg az Eyefinity technológia volt bemutatónak. Ez volt a nem fogsz hinni a szemednek, mert Ultra-giga-extremeHD felbontáson voltak játszhatóak a játékok.
Többet nem tudok/akarok/lehet hozzátenni.
-
Abu85
HÁZIGAZDA
Valszeg ezt a Prof. kártyákra szánták, csak lehozták asztaliba is, hogy legyen valami extra. Végülis a GeForce-on is ott a 3D. A felhasználók többsége egyiket sem engedheti meg magának, de marketing szempontból papírsárkánynak jó mind a két technológia.
Sárpac: Nem vagyok meggyőződve arról, hogy van olyan játék ami 120 scenet számítását engedélyezi másodpercenként. A legtöbb program 25-öt alkalmaz. Vagy picit többet, 60 fölött nem nagyon tudok példát említeni. Szóval ilyet lehetetlen kivitelezni.
-
Abu85
HÁZIGAZDA
válasz
tzsolesz #6346 üzenetére
A teszt nem tudom pontosan hogy lesz. Az biztos, hogy (ha nem jön közbe valami, ami az AMD-nél nem szokatlan) a gyakorlati teszt az meglesz időre. Az architektúra vizsgálgatós teszt lehet, hogy késni fog egy picit. Majd még megbeszéljük házon belül.
Dolgozik az AMD-nél magyar srác is. Ő érti, hogy mit nyomtok itt.
TESCO-Zsömle (#6349): Azért fontos meglátni, hogy az eddigi tesztek, illetve Crysis eredmények AA-val és AF-fel születtek. Lehet (
), hogy rengeteget optimalizáltak a ROP teljesítményén, így az AA kvázi ingyenessé válik, az is lehet, hogy új algoritmust dolgoztak ki.
-
Abu85
HÁZIGAZDA
válasz
Alister71 #6341 üzenetére
Nem mindegy melyik? Az elején úgy is csak a kardozó csajos matricákban különböznek.
ZewaDeluxe: Én sem tehetem be. Max. majd fLeSs a szerkesztőségben. Amúgy írnék hírt tényleg, de az AMD úgyis töröltetné.
Sőt szerintem ezt a topikot is nézik.
Bici: Én nem tudom. Most itthon vagyok.
-
Abu85
HÁZIGAZDA
Mondták, hogy nem fogunk hinni a szemünknek.
Aktív témák
Hirdetés
- Call of Duty: Black Ops 6
- Milyen okostelefont vegyek?
- Genshin Impact (PC, PS4, Android, iOS)
- Bemutatkozott a Poco X7 és X7 Pro
- Fejhallgató erősítő és DAC topik
- Xiaomi 15 - kicsi telefon nagy energiával
- CADA, Polymobil, és más építőkockák
- Vezetékes FEJhallgatók
- Futás, futópályák
- Léghűtés topik
- További aktív témák...
- BESZÁMÍTÁS! XFX MERC 310 RX 7900 XTX 24GB videokártya garanciával hibátlan működéssel
- Videokártya pasztázás és padolás csúcsminőségben!
- Csere-Beszámítás! Asus Rog Strix RTX 3070Ti 8GB GDDR6X Videokártya!
- Powercolor Red Devil 6700XT
- Facebook csoport eladó! Hardver, laptop, TV adás-vétel lendítsd fel a vállalkozásod!
- AKCIÓ! Apple MacBook Pro 13 2022 M2 8GB 256GB SSD garanciával hibátlan működéssel
- Használt Intel procik - Core 2 - Dual Core
- BESZÁMÍTÁS! Gigabyte H610M i3 12100F 16GB DDR4 512GB SSD RTX 2060 6GB Rampage SHIVA SilverStone 700W
- Bomba ár! Dell Latitude 7420 - i7-1185G7 I 16GB I 512SSD I HDMI I 14" 4K I Cam I W11 I Garancia!
- REFURBISHED és ÚJ - Lenovo ThinkPad 40AS USB-C docking station (akár 3x4K felbontás)
Állásajánlatok
Cég: Liszt Ferenc Zeneművészeti Egyetem
Város: Budapest