- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
- Két Zen 5-ös dizájnjának mintáit is szállítja már az AMD
- A Colorful "fagyosan kompakt" alkatrészekkel megy elébe a nyárnak
- A Keychron ismét egy űr betöltését vállalta magára az egerek szegmensében
- Az átlagnál vaskosabb ventilátorok kandikáltak ki a Corsair vitorlája mögül
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- HiFi műszaki szemmel - sztereó hangrendszerek
- Modern monitorokra köthető 3dfx Voodoo kártya a fészerből
- AMD Navi Radeon™ RX 6xxx sorozat
- E-book olvasók
- 3D nyomtatás
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Sony MILC fényképezőgépcsalád
- ThinkPad (NEM IdeaPad)
- Dell notebook topic
Hirdetés
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
-
VR játék lesz az Batman: Arkham Shadow (Meta Quest 3)
gp Egyelőre csak egy teaser trailert kaptunk a teljes leleplezésre a Summer Game Festen kerül sor.
-
Eleglide C1 - a középérték
ma Szintet lépett az Eleglide, az egyébként egész korrekt M2 után a C1 sokkal komfortosabb közlekedésre alkalmas.
-
PROHARDVER!
nVidia GeForce GTX 670 / 680 / 760 / 770 (GK104) téma összefoglaló
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz matteo_szg #58 üzenetére
TSMC sucks Az árversenyt sajna erősen befolyásolja ez.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz matteo_szg #64 üzenetére
Nem ... nekünk tegnap küldtek egy árat. Azelőtt erről nem beszéltünk velük.
Ha csökkentettek is, akkor a várakoztatás a cél. Olyan yield mellett, amit a TSMC produkál nehéz lesz mindenkit kiszolgálni. Kicsit off, de a legnagyobb szarban a Qualcomm van. Nekik is rossz a dizájnjuk, de a lapkájuk kicsi ahhoz, hogy minden szempontból elemezzék a helyzetet.
Úgy hallom, hogy a Tahitivel az AMD is szopcsizik. Persze arra jó volt a lapka, hogy a Cape Verde és a Pitcairn esetében már átalakítsák a dizájn, amihez kellettek a Tahitiről gyűjtött tapasztalatok. Ellenben gyenge gyártókapacitás miatt a Tahitire elég sok wafert el kell tolni, ami nem jó a kicsi lapkáknak.
Szóval maradhatunk annyiban, hogy a TSMC egyelőre sucks. A legnagyobb gátját az árversenynek most ők jelentik. Amire szükség van az a kapacitás gyors bővítése. A GPU-knál gondolom a gyártók visszatérnek a tervezéshez a rosszabb dizájnoknál. Ehhez persze kell a tapasztalat. A Qualcomm-mal meg nem tudom mi lesz. Olyan pici lapkával nem igazán lehet látni a node lényegi problémáit. Persze a TSMC biztos segít nekik. Ők is látják, hogy a többiek hol javítanak. Az általános gondokat jelezhetik mindenkinek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Sajnos ez közel sem ilyen egyértelmű. Először a TSMC-nek kell felnőni az igények kiszolgálásához. Utána lehet csak árcsökkentésen gondolkodni. Lehet egy 10-20 dollárt faragni, de többet nem érdemes, mert így sem jó az ellátás. Attól, hogy olcsóbb lesz, csak nagyobb lesz az igény a termékekre, de ettől a gyártókapacitás még nem nő.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mutasd.
De, hogy ne kelljen keresni. Ez volt az utolsó hír, ahol meg volt említve valamilyen szinten a start lehetősége. [link]
"Az NVIDIA a Kepler bemutatásáról nem beszélt, de Jen-Hsun Huang elmondta, hogy a 2013-as üzleti esztendő első negyedévében elkezdik szállítani a bevetésre váró lapkákat."[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mindenki komoly nehézségekkel küzd a TSMC-nél. Ez már szinte be van ismerve. Egyrészt nincs meg a kellő gyártókapacitás, másrészt a GPU-k nem FPGA-k. Nagyságrendekkel bonyolultabb lapkák. Az majdnem biztos, hogy elsőre senki sem talál be. Az NV mondta, hogy rosszabb a kihozatal a vártnál. Az AMD nem panaszkodik publikusan, de Dave Baumann a B3D fórumán már elmondta, hogy a Tahiti nem az igazi, de sok tapasztalatot adott, és ebből építkezve jobb lett a Cape Verde és a Pitcairn kihozatala, így most ránéznek a Tahitire is újra. Ezekkel mindenki megküzd. Az NV is szerez a lapkáról tapasztalatokat, és egyre jobb lesz az egész. De ehhez idő kell. A TSMC-nél ez a helyzet hatványozottan nehéz, mert ők a 32 nm-ert törölték, és a 28 nm lett a full node. Ez szerintem őszig problémás is lesz, de a helyzet fokozatosan javulni fog.
Nem az összes 600 szériás GeForce épül majd a Keplerre. Rengeteg átnevezés lesz, ahogy arról korábban is írtunk (de ez az AMD oldalán is így lesz). Nincs meg az a gyártókapacitás, hogy szimplán a 28 nm-ből ki legyen szolgálva az egész piac. Egyrészt az NV most szál be a gyártásba, és a kapacitás nagy részét a Xilinx, az Altera és az AMD már lefoglalta. Na most a TSMC tőlük nem veszi el, mert az NV és a Qualcomm be akar szállni. Egyszerűen ami marad megkapják és majd a bővítésekkel kapnak többet. A Qualcomm persze fekete ló, nekik komoly problémáik vannak, így az NV-nek is több kapacitás juthat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Talán a másik portált nem köti az NDA. Ha aláírod, akkor onnantól kezdve kussolni kell.
A Trinity-ről is lesz NDA. Amíg viszont nincs, addig lehet róla hírezni. Az Ivy-ről sem véletlen, hogy nincsenek hírek.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Annyit tudok, hogy az elkövetkező három-négy hétben nem lesz semmi új. De szerintem a Computexig is kérdéses, majd a GTC-n talán több derül ki. Egyelőre GK104 és GK107 van (előbbi csak asztalra, utóbbi csak mobilra). Azt biztosan megmondom, hogy lesz egy GK106 és abból lesz GeForce, de a mikor az nagy kérdés. Amit esetleg lehet várni az a GK104 szeletelése. Ebből jöhetnek kisebb verziók. Itt szintén nagy kérdés a mikor. Ez mondjuk már főleg a TSMC-n múlik, hogy a bővítéssel hogy haladnak. Most azért van csak GTX 680 és azért nem jött egy kisebb, mert az NV-nek nagyon kevés gyártókapacitás jutott. Ahhoz, hogy ez nőjön a TSMC-nek kell bővíteni, és így az NV is egyre több kapacitáshoz jut. Addig persze lehet gyűjtögetni a GTX 680-nak nem jó lapkákat, csak ugye a start nem biztos, hogy most még kifizetődő. Tulajdonképpen most minden a TSMC-n múlik. Tömik is a pénzt most nagyon bele a kapacitásbővítésbe. Az NV-nek itt mákja, hogy a Qualcomm a hírek szerint szopcsizik, és ezért folyamatosan csúszik a 28 nm-es Snapdragon tényleges startja. Ezzel az a gyártókapacitás, amit a Qualcomm elvinne gyakorlatilag kiadható.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Lightningből nincs kiiktatva a PowerTune. OBR baromságot ír. A PowerTune limit van kitolva 180%-kal. Kiiktatni nem lehet. Az AMD ezt már nem engedi ebben a generációban.
Az NVIDIA a Keplertől ugyanolyan túlterhelés elleni védelmet használ, mint az AMD a HD 5800 óta. A driveres nem elég jó már. Anno a teszteken leégett GTX 590-ek felnyitották a vállalat szemét.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem mindegy, hogy azért, hogy azok a shaderek milyenek. Jelentősen jobb a GCN, ha a számítás bonyolult, illetve sok állapotváltásnál is jól jön a brutálsok regisztertár és LDS, emellett a komplex cachehierarchia is előny. Egyszerű shadereknél már nincs akkora előny. Sőt egál közeli a helyzet. Valamikor kedvezőbb a Kepler egyszerűsége. A játékokban eléggé ritkák a komplex shaderek.
Ahol előnyös a GK104 azok az atomi műveletek. Bár nem nagy az előny, de az egyszerűbb shadereknél ez értékes. Ebből a szempontból egyébként a GCN és a Kepler csúnyán lehagyja az előző generációkat.
A textúrázási modell esetében is majdnem ugyanarra megy a Kepler és a GCN. Mindkét rendszer jelentősen több textúrázó utasításra képes, mint amennyire a DX11 API lehetőséget ad (ez 128 darab ugye egy shader kódon belül ... ez a jövőben limitáló lesz, így a vállalatok ezt jól látják). A Kepler megoldása egymillió fölé emeli ezt a számot (egészen pontosan 1048576). A GCN picit más elvet használ a működéshez, így lényegében végtelen mennyiségű textúrázó utasítást kezel egy shader kódban. Persze ilyen nem lesz, mert akkor sosem futnak el a kód, de a lényeg ugye, hogy sokat kezeljen. Ezt még az AMD megfejelte a PRT-vel, hogy a hardveres megatextúrázásra is képes legyen a rendszer. Itt a Keplerbe az NVIDIA valamiért ezt nem építette bele. Valószínűleg azért, mert a tényleg hatékony megvalósításhoz úgyis platform kell, ami nekik még hiányzik.
Konkrét győztest lehet hirdetni, mert az aktuális játékokban jobb a GK104. A kérdés, hogy a fejlesztők merre mennek. Ha a shaderek komplexitása nő, akkor az a GCN-nek lesz hasznos. Ha maradnak a mostani szinten, akkor az a Keplernek jó. A PRT egyelőre kérdéses. Erre már van OpenGL kiterjesztés, de a DX-be való beépítéssel meg kell várni a DX11.1-et. Szóval játék maximum 2012-ben épül majd erre. Egyelőre Carmack mondta, hogy erre építi a Doom 4-et. Ahol még a PRT előny azok a texture streaming algoritmusok, de ez a rész nem annyira kritikus, hogy a fejlesztők gyártóspecifikus kódot írjanak. Valszeg itt maradnak a szoftveres megoldások.
Az újszerű textúrázómodelleket valószínűleg gyorsan kihasználják. Ez még 128 textúrázó utasítás alatt is hasznos, mert kisebb lesz a CPU overhead. Bár igaz, hogy ennyi textúrázás mellett annyit nem lehet nyerni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #293 üzenetére
Nem, csak a jövőben a teljesítmény attól függ, hogy merre mennek a fejlesztések. Ahol a Keplernek nagy lemaradása van az a hardveres megatextúrázás hiánya. Azon kívül nincs nagy probléma. A gyengébb teljesítmény a komplex feladatokban még nem jelent alkalmatlan terméket. A játékokat látva meg főleg nem. Azt persze el tudom képzelni, hogy ez az irány a Quadro esetében nem lesz nyerő a fejlesztőknél. Professzionális szintre a GCN jobbnak tűnik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez egy kicsit más helyzet. A GCN az AMD-nek már integrálásra kell. A Kepler az NV-nek még nem kell integrálásra. Ez a két architektúra között a fő különbség. Az AMD már 2013-ban beépítheti a rendszert egy APU-ba, míg az NV-nek ez a lehetőség 2014-ben adódik meg. Ez elvekben komoly különbségeket teremthet, mert az AMD-nek már kell a natív C++ támogatás az architektúrába, míg az NV-nek még nem. Persze amiket az AMD beépített a Radeonokba azt nehezen használják most ki. A PRT is egy hackelt megoldás, hogy legyen valami haszna annak a tudásnak. Ebből a szempontból sok tranyó áll a levegőben, és csak az integrálás után lesznek fontosak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #298 üzenetére
A VRAM egyszerűbb helyzet. Ha elfogy elfogy, ha nem, hát nem. Egy monitor mellett ennek max. Full HD fölött lesz jelentősége.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #301 üzenetére
Az egy másik dolog. Ha elfogy a VRAM, akkor az rossz. Nem öli meg teljesen a teljesítményt, de érezni lehet.
A GPU-k esetében a virtuális memória támogatása egy platformfícsőr lesz. AMD VGA-hoz AMD APU kell, míg az NV VGA-hoz NV APU.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz gainwardgs #303 üzenetére
Messze nincs meg a külföldi oldalakon a +15%, csak azoknál amelyek követték az NV review guide-ját, vagyis, hogy ne menj Full HD fölé, és ne erőltesd az MSAA-t 4x fölött. Mi ezeket szokás szerint leszarjuk. Ezeknek a termékeknek bírniuk kell az extrém terhelést is. Ha nem bírják, akkor az már nem a mi hibánk. A review guide eleve egy hülyeség. Ha azt követtük volna a HD 7970 tesztelésénél, akkor 60% előnyt is kihozhattunk volna a GTX 580-hoz képest. Meg kell érteni, hogy a gyártók a legjobb szituációkat emelik ki. Ezért csak elolvassuk a review guide-ot, de az elveinket nem befolyásolja.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A tesszelláció is más szempont volt. Az egyrészt nem jelentett 10 millió tranyónál többet a HD 2000-ben, másrészt ezzel minden Xbox 360-as játékot Radeonos PC-n kezdtek fejleszteni, mert az AMD támogatta a PC oldaláról a Xenos tesszellációt. Ez volt a fő célja. Egyébként ez az egység máig benne van a termékekben. Szimplán 10 milla tranyót visz el, ami nem sok.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #308 üzenetére
Rakhattak volna rá 4 GB-ot. Valszeg azért nem raktak rá, mert túl drága lenne. Azért mégiscsak dupla mennyiség a piac legdrágább GDDR5 lapkájából. Ráadásul ez a fogyasztást is növeli. Mondjuk ez a kisebbik baj. Ezt amúgy majd a gyártók megteszik. Idővel úgyis lehet saját megoldást csinálni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #313 üzenetére
Akkor adják ki, ha nő az ellátása a gyártóknak. Amikor kevés a lapka, akkor senki sem gyárt külön NYÁK-os verziót. Egy cég gyárt, és azzal a költségeket az összes gyártó megosztja. Így a legolcsóbb. Ha nő az ellátás, akkor már megéri elgondolkodni az egyéni gyártósorok bevetése mellett. Ezt az NV tiltja meg, de ép ésszel egyik gyártó sem indítana be egyéni NYÁK-os gyártósort. Anyagilag még nem éri meg.
A memória sávszélessége számít, nem a memóriabusz. Mivel már nem instabil a Kepler memóriavezérlője, így mehetnek az 5-6 GHz-es lapkák is a termékre.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #320 üzenetére
Azért a jövő nagy címei esetében nem ennyire triviális. Jórészt a motor technikai implementációjától függ, hogy mennyi VRAM kell. Abszolút nem általános, hogy pár hónap múlva már 2,5 GB-ot esznek majd a játékok. Annyi lehet, hogy elképzelhető olyan program, ami Full HD-ben ennyit fog enni. Az biztos, hogy messze nem ez lesz az általános, de ahogy már vannak ilyen programok, így a jövőben is érkezhetnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz kranazoli #352 üzenetére
Azért, mert a ventilátor kevésbé pörög a HD 7970-hez viszonyítva. Annak, hogy valami halk az az ára, hogy nagyon melegedni fog. Itt a fogyasztás másodlagos, a hőelvezetési képesség számít, ami nagyrészt függ a ventilátor fordulatszámától.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Hacsak nem fut ki a memóriából, akkor nem kellene problémának lennie a megnövelt textúraméret miatt. A GPU mintavételezési és szűrői munkája bármilyen textúraméret mellett megegyezik.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #371 üzenetére
Ő kérdezte, hogy lehet-e ebből probléma. Én csak megmondta, hogy ha lehet, akkor az a memória mennyiségéből fog eredni, és nem mástól.
Most nem vennék eleve semmit. Elég nekem a HD 5850. Éppen ezért nem is gondolkodtam el azon, hogy vegyek-e valamit. De ha a GTX 680 és a HD 7970 közül a HD 7970-et választanám, akkor nem a memória mennyisége miatt tenném, hanem a textúrázási technológiák miatt.
(#372) Alpachino: Fura meglátás egy olyan cikk megjelenése után, amiben "különösen ajánlott" lett a GTX 680. Ajánlhattam volna rá simán "ajánlottat" is, és akkor nem különösen ajánlott plecsni lenne a végén. [link] - ezt amúgy már más megjegyezte. Csak már unjuk, hogy ezekre válaszoljunk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #375 üzenetére
Hát nem jut idő játékra. Ez van.
(#376) Alpachino: Ott van az Asus Crosshair II Formula. Meg az "egyéb dolgok" még takarnak egy GeForce GT 240-et. De ez titok.
(#378) Keksz03: Nem tudom pontosan mire gondolsz. Az NV leírása szerint Surround megy két DVI és egy HDMI mellett. A DisplayPort-hoz persze kell az átalakító, ha nincs ilyen monitorod, de sima Surround esetén ezt nem kötelező használni. 3D Vision Surround esetében kötelező a három DVI, és mivel az csak zárt DVI-on megy oda sajnos nagyon fizetni kell, de az NV kínál rá zárt holmit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A tesztünkben is jobban ment a HD 7970 az AVP-ben (igaz mi nem tuningoltunk). Más tesztben is ez van, szóval ez nem egyedi. Le is írtuk, hogy miért ilyen.
Alapvetően a tesztünkben láthatod, hogy vannak játékok, ahol a GTX 680 húz el, míg vannak játékok ahol a HD 7970. A harmadik opció, hogy pár %-on belül van a különbség. Amitől vannak ezek az elhúzós részek, vagy a pár %-nál nagyobb előny az egyik, vagy a másik javára, az attól függ, hogy a játék milyen terhelést ad. Például a DiRT 3-ban az FP16-os textúraszűrés nagyon számít. Az a GeForce-on full speed, vagyis órajelenkénti, míg a Radeonon half speed vagyis két órajelenkénti. Ebből van a GeForce elhúzása. A Metro 2033 és az AVP a másik véglet. Ott van a játékokban egy-egy nagyon komplex shader kód, melyek nagyon építenek a shared memory tempójára. A Kepler SMX processzora 0,33 bájtot mozgat lebegőpontos operációnként. A GCN CU-jánál ez az érték a szétválasztott gyorsítótárakkal 1,5 bájt/FLOP. Az AVP-ben tehát ez jelenti a különbséget.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az 1500 MHz-hez nagyjából 1,35-1,4 V kell. Ahhoz minimum két 8 tűs csati kell. De kiépíthető, mert vízzel el lehet vinni a hűtést. Korábban meg már láttunk olyan tápáramkört, ami bírt 450 wattot.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Pont azért teljesítenek szépen. A szabályzás az ami limitálja a termékeket. Ugyanezt mondtam a Radeon HD 7970 esetében is. Húzták azokat 1,2 GHz-re, meg fölé, de azért nem fagytak le, mert a túlterhelés ellen védettek. Az órajel visszaskálázódik, ha rezeg a léc. Ezért kell a combosabb tápáramkör.
Ha a középkategórián 660 szintű terméket értesz, akkor ott az OC UK szerint a GTX 560 fut tovább. Szóval sokat kell várni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #02119936 #647 üzenetére
A driverek jellemzően szoftveresen megadott paraméterek szerint dolgoznak. A hardver szempontjából az AMD és az NV is egy szinten áll a képminőségben. Nüansznyi különbségek vannak. Igazából itt az a fő kérdés, hogy melyik gyártó mennyire képes az ízlésedre szabni a képminőségre vonatkozó beállításokat. Tehát, ha az AMD neked részletesebb képet adott, az nem a hardver miatt volt, hanem azért, mert az AMD alapbeállításai közelebb álltak az igényeidhez. Ugyanakkor ez változtatható. Ott vannak a driverben az opciók és nyugodtan lehet rajtuk változtatni. Meg lehet találni a számodra ideális állapotot NV-n is.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #02119936 #651 üzenetére
Az FXAA injector az egy külső program. Nem feltétlenül lesz jó az eredménye. Mellesleg a játékban is van FXAA, szóval teljesen szükségtelen ennem a programnak a használata. De ott az SMAA injector. Az szvsz jobb, de a játékbeli FXAA-t kapcsold ki. Egyébként ez is külső alkalmazás, vagyis számítani kell arra, hogy az eredmény nem feltétlenül tetszik majd.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egyértelmű, hogy nekem tudni kellene róla.
Amúgy én is azon paráztam, hogy erről hogy maradhattam le. Keresem is egy ideje bőszen, hogy van-e valami infó. [link] - csak ezt találtam, de ez inkább specifikus, mint általános. Szóval az egyetlen magyarázat az április elseje. Na meg az, hogy átvertek engem is.Hát érdemes odaírni a hír végére valami utalást a dátummal kapcsolatban. Nem azonnal, de úgy fél órán belül azért illik. Mi is így csináltunk a múlt évben. Fél óra múlva írtam a hír végére egy utalást, hogy valami nem stimmel. Mondjuk az már más kérdés, hogy a 2011-es április elsejei hírünk végül igaz lett.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
BIOS hackeléssel szerintem ez is kikapcsolható. Valahol be van szabályozva a Boost a driveres értékek keresésénél. Ha azokat kellően alacsonyra állítja a user, akkor a Boost lényegében megszűnik, még ha a működésben meg is marad. Na persze kérdés, hogy megéri-e ezt hackelni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #1006 üzenetére
Az teljesen más rendszer. Ott a védelem és a PowerTune sokkal komplexebb módon van szabályozva. A DVFS-re rengeteg eltérő megvalósítás van.
Az NV a Keplernél a legegyszerűbb megoldást választotta. A GPU energiáját a VRM-ből mérve állapítja meg a rendszer. Ezt az adatot megkapja a driver, ami egy adatbázisból kinézi a megfelelő feszültséget, majd beállítja azt, és a BIOS az órajelet hozzáméretezi.
Az AMD a PowerTune esetében jóval bonyolultabb megoldást választott. A lapkába helyez egy áramkört, ami az egész rendszert hardveresen vezérli.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Fontos, hogy a HPC-re nem jó a GK104-ben használt 1/24-es DP. Oda 1/2-es illik. Borítékolható, hogy ez a tranyóban látszani fog, de a játékbeli teljesítményhez nem ad hozzá. Szerintem ki se hozzák ezt a terméket GeForce-nak. Nincs értelme. Sokkal előnyösebb stratégia a dual GK104.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Vigilante #1066 üzenetére
A big Keplernek sokkal komolyabb feladata van annál, hogy a játékokat futtassa. Meg kell verni a Knights Cornert a HPC-piacon. Az NV már el is kezdte az Intel MIC-et lejáratókampányát: [link] - az általánosítás dolgokban igazat beszél az NVIDIA, csak a megoldásokat úgy állítják be, hogy az az NV-nek kedvezzen. A problémákra más opciók is vannak, nem csak az amit ők ajánlanak. Mondjuk ez a saját bloguk, nem lehet mást várni, ellenben az látható, hogy most már vérre megy a játék. Az előző évek a Tesla szempontjából egyszerűek voltak. A Tesla ellen nem volt semmilyen accelerator. Ez idén megszűnik. Most már nem elég valamilyen terméket berakni ide, hanem konkrétan ide kell tervezni valamit, mert az Intel a MIC-et minden szempontból a HPC-piacra tervezi, és az AMD a GCN-nel olyan elvi irányt vett, mint amit az Intel a Larrabee-vel gondolt el, csak kigyomlálták a koncepció buktatóit.
Az NV másképp fogott hozzá az új fejlesztésekhez. Csináltak egy Kepler dizájnt a VGA-piacra, és csinálnak egyet a HPC-piacra. A Ferminél gondolom megtanulták, hogy a kettő együtt nem megy.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Vigilante #1073 üzenetére
GPU-piacban óriási pénz van, csak nem a VGA részében. A legtöbb pénz az NVIDIA az Intelnek eladott licencekből és a 3D Visionből szedi. Ezek nem a felhasználói oldalról jönnek, mert az Intel fixen fizet, míg a 3D Vision támogatásért fizetnek az adott monitorgyártók, míg az SDK-ért az adott fejlesztők.
Az AMD architektúrája már sokkal általánosabb felépítésű, mint a Kepler. Egyelőre az NV rak most többet ebbe a gémer dologba, ha az architektúrát nézzük. Persze az AMD már jövőre integrál egy komoly rendszert, míg az NV leghamarabb 2014-ben, szóval érthető, hogy miért ilyen a Kepler, és miért csinált ennyire általános rendszert az AMD. A nagy Kepler amúgy sokat el fog árulni arról, hogy az NV hogyan képzeli el az integrációt. A kis Keplerek annyira nem ideálisak ilyen terepre.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ha az AA be van kapcsolva, akkor semmilyen kártyán sem aktiválódik a legmagasabb textúraminőség. Sima AAA-val, vagy bármilyen AA nélkül a Radeonokon, és a DX10/10.1-es GeForce-okon igen. Ez amúgy a sebességre nincs hatással, mert a mintavételek száma nem változik, csak a textúra felbontása nő.
A Metro 2033-ban a Diffuse DoF eszi arányaiban a legtöbb sebességet. Az egy nagyon komplex effekt. Ennek kikapcsolásával lehet a legtöbbet nyerni fps-ben. Ez egyébként tipikusan nem megy a Keplernek a Fermihez és a Terascale, valamint a GCN Radeonokhoz viszonyítva. A shader memory teljesítmény kevés hozzá. Az említett architektúrák közül a FLOPS-onként mért shader memory teljesítmény a Kepleren a legkisebb. Egészen pontosan 0,33 bájt/FLOP. A GF100/110-en 1 bájt/FLOP, míg a GF104/114/106/116/108/119-es Fermin 0,66 bájt/FLOP. A GCN Radeonokon 1,5 bájt/FLOP ez a tempó. A Terascale Radeonokon ez az adat sok dologtól függ, de lapkától függően 0,5 és 1 bájt/FLOP között alakul a shader memory teljesítmény.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Vigilante #1567 üzenetére
Sehogy. Ez így el van baszva. Megjegyzem a patch hiányát nem értem, mert a hiba baromi egyszerűen reprodukálható, gyakorlatilag kiveri a fejlesztők szemét. A sebességben is maximum 2-3% mínusz. Szóval érthetetlen, hogy miért nincs patch erre.
DX9-es módban egyébként nincs ez a gond. Csak DX11-ben fordul elő ez a baj.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #1579 üzenetére
Mert a sebességre ennek jelentéktelen hatása van. Ezzel a GeForce max 2-3%-ot nyer, de ez nagyon max. A textúra minősége nem befolyásolja a mintavételezéssel járó munkát és számításokat.
Az egész a tempó szempontjából mindegy. A játék viszont a rendkívül komplex shaderekkel megelőzi korát, így érdemes tesztelni vele, hiszen azon kevés programok egyike, ami komolyan épít a shader memory-re. Itt a Diffuse DoF effekt, ami ezt a képességet nagyon kihasználja. Ilyen még az AvP-ben az advanced shadows effekt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Borotva, szakállnyíró, szakállvágó topic
- Egyre közelebb a Poco F6 startja
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Kerékpárosok, bringások ide!
- A fociról könnyedén, egy baráti társaságban
- Sorozatok
- HiFi műszaki szemmel - sztereó hangrendszerek
- Revolut
- Modern monitorokra köthető 3dfx Voodoo kártya a fészerből
- AMD Navi Radeon™ RX 6xxx sorozat
- További aktív témák...
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- XFX RX 6600 XT SPEEDSTER SWFT 210