Hirdetés
Hirdetés
Új hozzászólás Aktív témák
-
oliba
őstag
Nem értem ezt a memóriás dolgot. Állandóan azt hajtogatod, hogy az 1250Mhz-es lapkák után rettentően megnő a fogyasztása a memóriának.
Nem tudom miért nem működik most a linkelés nálam, de:http://www.xbitlabs.com/images/graphics/nvidia-geforce-gtx-680/43_gtx68_cons-xbt.png
ebben a tesztben majdnem 20% memória és gpu tuning mellett emelkedett a gép fogyasztása Metro 2033 mellett 34W-ot a tuningolatlan változathoz képest hatásfokkal együtt. Ez 7,2Ghz-es memóriaórajel és 1,2Ghz-es GPU órajel és csak 34W különbség.
http://www.xbitlabs.com/images/graphics/radeon-hd-7770-ghz-edition-hd-7750/zpw-xbt.png
Itt a 40%-os memória OC és majdnem a 20%-os gpu túlhajtással keletkezett 22W különbség hatásfokkla együtt.
Akkor itt most milyen 20-30W-os fogyasztásbeli visszaesésre számítsunk, ha csökkentik 10%-al a memória órajelét?
http://www.hardwareluxx.de/images/stories/galleries/reviews/2012/palit-gtx680-4gb/bench/mess2.jpg
Itt van 4,4W különbség a 4GB-os GTX 680 és az referencia 2GB-os között.
-
Abu85
HÁZIGAZDA
Az órajel az részletkérdés. A feszültség a fontos. A legmagasabb órajelekre tervezett lapkák 0,1 volttal nagyobb feszültséget kapnak, mint a szabvány szerinti. Ezek a 7 Gbps-os lapkák. A 6 Gbps-os megoldások jóval kisebb feszültséget kapnak. Az új GeForce 7 Gbps-os lapkákat kap, míg az AMD maradt a 6 Gbps-osoknál. Ettől függetlenül lehet vásárolni 7 Gbps-ost is, mert azok a legjobb chipek, és 0,2 volt mínusz is mehet a feszültségre 5 Gbps-os teljesítményhez. Energiahatékonyság szempontjából az 5 Gbps melletti 1,35 V legjobb opció, csak drága, de egy csúcskártyánál bevállalható. 6 Gbps-hoz és fölé mindenképpen 1,5 V körüli feszültség kell.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
"Ha a DVI HDCP kompatibilis, akkor megy rajta a hang is. Ehhez a gyártók adnak speckó DVI->HDMI átalakítót, ami át is viszi. Más átalakítóval persze nem fog menni, csak azzal, amit a kártyához adtak."
Ehhez nem kell speciális adapter sem, a hang a képadattal keverede jön ki, ugyanazokon a vonalakon. Szóval 3rd party adapterrel is működik.
-
Abu85
HÁZIGAZDA
Ez csak elméletben van így, de a gyártók szeretik lezárni a termékeket ebből a szempontból. Hiába szabvány a DVI, készítenek egy extra csatit bele, amivel a 3rd party adaptereknek harangoztak. A képet átviszi, de a hangot már nem. Ezért adnak a termékhez átalakítót, mert szándékosan úgy csinálják, hogy csak azzal menjen.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azért nem jön ki, mert a tesztekre alapozol. Márpedig a memória feszültségét nem lehet állítani. A gyártók általában úgy választanak lapkát, hogy 5 Gbps-ra, vagy alá 1,35 V-os chipeket vesznek, míg 5 Gbps fölé kell az 1,5 V-os. Persze az 5 Gbps határeset, oda lehet, hogy olcsóbb az 1,5 V-os lapka, de ez döntés kérdése. Az biztos, hogy a gyártók kínálnak 1,35 V-tal 5 Gbps-on működő lapkákat.
+0,15 V és a magasabb órajel 12 memóriánál már okoz 10-15 wattos különbséget. 24 memóriánál meg meg is van a 20-30 watt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #214 üzenetére
Bocs mester, megyek a sarokba. ... de aztán ne lepődj meg, ha véletlenül kijön egy gyorsabb HD 7990. Utólag egyszerűbb terméket fejleszteni, mert van mihez igazítani a teljesítményt. Fogyasztásban amúgy szerintem jobb marad a GTX 690.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
oliba
őstag
Persze, hogy a tesztekre alapozok, mert az elmélet számomra semmit sem ér, mert nem elméletileg mérném le a kártyám/gépem fogyasztását, hanem gyakorlatba. Sokat nem érek vele, ha elkezdem összeadogatni a TDP osztályokat, mert a végeredményt nyugodtan eloszthatom 2-vel.
Egy olyan teszt, vagy mérés kell nekem, ahol le van írva az, amit mondasz. Nézhetek én is 3GB vs 6GB-ot is, ha nem látom az annyit.
[ Szerkesztve ]
-
dezz
nagyúr
Fogalmam sincs, hogyan tudnák ezt megvalósítani.
(#214) schwartz: Na ja, mert ők nem butították le compute-ban az új chipjeiket. Az NV igen, azon az áron is, hogy ez káros a játékok jövőjére nézve is, plusz az egyéb GPGPU-s alkalmazások terjedésére néve.
Csak aztán nehogy az legyen, hogy az AMD is elkezd hasonlóan butítani...
-
Abu85
HÁZIGAZDA
A tesztek pedig nem mutatják, hogy mennyit számít a memória fogyasztásánál 0,15 V különbség mert ez nem állítható paraméter. Ezért kell a gyártók dokumentációira alapozni, amiből ezt ki lehet számolni. Más lehetőséged itt nincs.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egyszerűen. A DVI specifikációi adottak, de ezeket a gyártók önhatalmúlag módosíthatják, amivel kizárnak nem kívánt adaptereket a használat során. Ezt csinálta az NVIDIA a DVI-os 3D Vision monitorokkal. A gyártó csak akkor kapta meg a 3D Vision matricát, ha a monitor az NVIDIA DVI interfészét használta. Ez egy jelet küldött a monitornak, ami csak azt tartalmazta, hogy a gépben 3D Vision rendszer működik. Azután a monitor engedélyezte a 3D-t. Ha ez a jel megszűnt ... teszem azt egy baromira olcsó szemüveggel akartál 3D-t, akkor azt nem tudtad megtenni, mert a jel hiányzott a monitornak. Ugyanezt csinálják a gyártók a 3rd party adapterekre. Egy jel igazolja a működést. Ha a jel megvan, akkor a tartalom átmehet. Ha van egy nem gyártói adaptered, akkor a jel nem fog visszatérni, ezzel pedig a 3rd party adaptereken nem lesz hang. Ezért terjedt el az a nézet, hogy csak a HDMI viszi át a hangot, pedig a HDCP kompatibilis DVI is, csak számos kártyánál nem mindegy, hogy milyen adaptert használsz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
Ezzel az a bibi, hogy a DVI->HDMI adapter teljesen passzív, simán átvezeti a jeleket. Esetleg azt tudták csinálni, hogy a dual-channel DVI-nek nem az A, hanem a B portját vezetik át (miközben a 3rd party adapterek mindig az A-t, mert önmagában a B normális esetben sosem aktív). [Ti. a HDMI single-channeles, de >2x max. óralellel a DVI-hez képest.] De ezt nem nagyon hiszem, mert a standard DVI IP-core-ok nem nagyon támogatnak ilyesmit. Persze be lehet vetni egyéb "hülye" trükköket, mint pl. weak ellenállásos lezárás vagy visszacsatolás valamelyik vonalon, amit figyelhetnek. Eléggé értelmetlen dolog (lenne), főleg hogy így nekik kell(ene) gyártani az adaptert is, miközben valójában meg oly mindegy, hogy a mellékelt adaptert használják vagy külön vásárolnak egyes pár dollárért.
(#224) schwartz: Már hogy ne lenne butítás, amikor nagyon lassan futnak ezeken a kártyákon a GPGPU alkalmazások? Profi kártyát pedig elég kevesen vesznek, főleg hobbi célra. Így hát ez a dolog visszafogja a GPGPU-s gyorsítás elterjedését. Legalább is játékokban, mert azokat nem fogják úgy megírni, hogy csak AMD-n menjen jól (esetleg 1-2 AMD által szponzorált cím, már ha anyagilag kompenzálni tudják az NV oldalon kieső eladásokat). Egyéb programokra persze vehetnek AMD-t, de akkor sem optimális a dolog.
Ez az esélyét is elveszi annak, hogy pár kimondottan PC-s játékba valaki komolyabb fizikát építsen. És itt most nem olyasmire gondolok, amit procival is könnyedén meg lehet valósítani, hanem ami kihasználja a GPU-k többszörös peak FLOPS-ait.
-
Abu85
HÁZIGAZDA
Dual-link DVI nem dual channel. Részletkérdés, de lényeges. A miérteket én sem értem, de ez van. Nem kevésbé tartom hülyeségnek egyébként, de a gyártók már csak ilyen különcködők. Baromság az egész, de el kell fogadni.
A GPGPU-t érdemes pontosítani. Alapvetően a Keplernek a shared memory tempóval van problémája. Persze elég gond ez is, amikor a konkurens fejlesztések (Intel, AMD) a shared memory teljesítmény erősítését célozzák meg. Szerintem ezekben a döntésekben az is közrejátszott, hogy a Tegra 4 ezt a Kepler alapot kapja majd meg, így nagyon energiatakarékosnak kell lenni. Mobilba pedig ez jó. Asztalra már nem igazán, de elmegy.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
oliba
őstag
Jó jó, ezt értem, de ha gyakorlatban a duplázott memóriájú kártya és a refencia között a fogyasztásbeli különbség elenyésző, akkor miért kéne elhinnem azt, hogy akár 30W is hozható?
Vagy ez a 30W olyan, mint ha a gpu-ra nézve furmarkot tolnék a 4850-esemen?
[ Szerkesztve ]
-
Löncsi
őstag
Ez az esélyét is elveszi annak, hogy pár kimondottan PC-s játékba valaki komolyabb fizikát építsen.
Yeah.
[link]Egy jó ideje megvalósítható lenne a dolog, de valamiért senki nem lát ebben fantáziát.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
válasz schwartz #227 üzenetére
GPGPU és shared memory tempó terén a TeraScale mindig is acélos volt. A VLIW 4 főleg, de a VLIW 5 is. A shared memory teljesítményt figyelembe véve a Kepler a leggyengébb megoldás. Beleszámítva a GCN-en és a Fermin át a VLIW-eket és az Intel Ivy IGP-jét is. Persze mondom szerintem erre okuk volt, mert ez az architektúra megy majd a Tegrába. Emellett a játékokban nem, vagy csak ritkán lehet probléma.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az a 30 watt az elméleti érték. Mivel mérni nem lehet, így itt marad a dokumentációra való számolás. A memória duplázása az nem feltétlenül jár a lapkák számának duplázásával. Utóbbi nyilván több fogyasztást igényel, mert fizikailag is több lesz a terméken a memóriachip.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
válasz schwartz #231 üzenetére
Érdekes, mert a karakter elakad a törmelékben és a lezúzott falon át tud menni.
Ez biztos csak látványfizika. Jó lenne ezt a kis tech-demót továbbnyomni, komplett izom-fizikás játékot lehetne belőle csinálni.
2007-es Crysist így 5 év után le lehetne nyomni fizikai interakció tekintetében.[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
A GPU Rigid Body az erős túlzás, hogy jó ideje megvalósítható. A Bullettre az algoritmus az év elején készült el, míg a PhysX-re nem sokkal később. A CPU-s Rigid Body valósítható meg már régóta. Benne is van például a Frostbite 2 motorban, amit a Battlefield 3 ki is használ. Alapszinten használta már a Frostbite korábbi verziója is a BF: BC2-ben. Ugyanígy használva volt a Crysis-ben és még pár programban. Szóval látnak benne fantáziát a fejlesztők, csak baromira nem úgy, ahogy azt az NV szeretné. Rengeteg törmelék mellett normálisan vezérelni az AI-t lehetetlen. Idővel el kell tüntetni a törmelékeket, mert az AI beleakadhat, de még a játékos is. Minél gyorsabban történik ez annál kisebb a hiba esélye.
Szóval ezt már minden fizikai motor tudja, csak megvannak a korlátok is, amik mellett limitált a használhatóság lehetősége egy játékban. E korlátok mellett azért használják.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A BF3 már lenyomta a Crysist a fizikában.
A PhysX zárt technológia. Pontosan ezért jelenik meg csak látványként, mert normális játékmenetre ható fizika befolyásolná az élményt a nem GeForce gépeken. Mivel a GeForce a teljes piac 16-17%-át birtokolja, így a fejlesztőknek egyszerűen nem opció kizárni a többséget a játék eladásából. Az Apex is azt a célt szolgálja. Előre bedrótozott mechanizmusok, ami teljesen a látványra megy ... az NVIDIA pontosan tudja, hogy a fejlesztők játékmenetre ható fizikát zárt rendszerre nem építenek ki. Persze így is lehet ezzel játszani. Mivel zárt a rendszer, így az egész fölött az NVIDIA rendelkezik, azaz ők döntik el, hogy mely termékeken futhat jól, vagy szimplán csak futhat az adott effekt ,... utalva a Borderlands 2-re, ahol mindent csak a Kepler tulajok kapnak meg, holott a Fermin nincs akadálya a technológia futtatásának. Ilyet láttunk már a Mafia 2-ben. Ott is lezárta az NVIDIA a GPU cloth funkciót. Ha volt dedikált kártyád megkaptad a gyorsítást, de ha csak egy GeForce-od volt, akkor a CPU számolta.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #236 üzenetére
Csak a fejlesztőknek az IGP-kkel számolni kell, mert az a többség. Ha ezeket kizárod, akkor kapásból elveszted a potenciális vásárlóbázis elég jelentős részét. Rég nem olyan a GPU-piac mint régen. Az extrém módon erősödő IGP-k átvették a vezető szerepet. Ezt a tényt nem lehet figyelmen kívül hagyni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
BF3 engem nem győzött meg annyira ...
Border 2 pedig szvsz csak marketing, nemrégiben a 300-as driver funkciókat is Kepler exlúzívnak hirdették, de megkapta minden kártya nV kártya.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
Ez már egyéni dolog. Ettől a fizika az élvonalban van. Jobbat én nem láttam.
Ha nem igaz, amit a Border 2 vezető fejlesztője mondott, akkor az nem marketing, hanem hazugság. Mindenesetre a Mafia 2-ben megcsinálták, nem tesz semmit megcsinálni a Borderlands 2-ben sem. Ez a PhysX értelme. Ha boldog vagy a termékeddel, akkor csak a pénzt viszi a PhysX. Ha viszont vásárolsz, akkor a pénzt hozza a PhysX. Az NVIDIA-t pedig üzleti érdekek vezérlik.
Sose hirdették exkluzívnak. Egyedül a TXAA az, de az nem driveres funkció, hanem játékba építhető. Ezt el is mondták, amikor bemutatták. Az FXAA-ról régóta tudni, hogy amin mehet technikailag azon menni fog. A többi meg teljesen lényegtelen funkció. Az adaptív vsync pont, hogy nem vsync, mert beállítástól függően 60/30 fps alatt kikapcsol a szinkron, ezzel pedig pont azt éred el, hogy eltörik a kép, amit el akartál kerülni. Az fps limiter szintén nem driveres funkció. Az NV API-n keresztül kell támogatnia a játéknak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #239 üzenetére
Talán azért, mert a casual réteg jelenti manapság a PC-s játékpiac értékét. A hardcore gaming PC-n egy apró rész, akik még valamiért nem álltak át konzolra.
Nincs, de nem is kell. A GK104 egy 300+ dolláros kategóriába sorolt termék. Ez a kategória a negyedévenkénti VGA eladások ~2-3%-át adja. Ami az eladások döntő részét adja, az a 100 dollár alatti réteg. A 100 és 300 dollár közötti rész a VGA-eladások ~20%-áért felel. Ilyen számok mellett az IGP-t egyszerűen bele kell venni, mert a piac nélkülük nem értékes. Az irány is az IGP-knek kedvez, hiszen annyira vékony notikat akar az Intel, amikben alig fél el két lapka. A Haswellt ultrabook verzióját nem véletlenül tervezik egy chipesre. Két chip már nem fér a termékekbe. Ezeket is figyelembe kell venni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Az fps limiter szintén nem driveres funkció.
Értem én, az oldalon annyi van megemlítve, hogy EVGA Precision kell hozzá és minden szép és jó lesz. Jó lenne ezeket a driveres funkciókat kipróbálni, csak lusta voltam hozzá.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
Az EVGA Precision az az EVGA-nak a fejlesztése. Azt csinálja, hogy elemzi a képkockák számításának idejét. Aztán a magórajelet leveszi, hogy a következő képkocka ne készüljön el 33 ms-nál gyorsabban. Ezután minden másodperc után leméri az adott képkocka elkészültének idejét, majd aszerint állítja be a következő egy másodpercre az órajelet. Az NVIDIA megoldása is így fog működni, csak az adott játékkal biztos kompatibilis lesz. Az EVGA Precision mindenhol aktiválható ugyan, de sokszor ugrál a frame és a program is kidobhat a desktopra. Ezért nincs ez a funkció driverből engedélyezve, mert nem olyan, amit általánosan meg lehet oldani. Ezt tudja az NVIDIA is. Az EVGA programjában persze berakható, hiszen, ha kidob a desktopra, vagy rossz az élmény, akkor nem egy driver okozta, hanem egy 3rd party tuningprogram, aminek a tökéletes működésére eleve nincs garancia.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #244 üzenetére
A notival én is így vagyok, de nagyon sokan nem. Ez egy fontos dolog, mert ha a mi igényeinket a többség igénye nem reprezentálja, akkor mi leszünk lefosva és nem a többség.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
Ahh, tényleg, link. Mindenesetre, bocs, de hiszem, ha látom.
"Alapvetően a Keplernek a shared memory tempóval van problémája."
Tudom, de végül is tök mindegy, hogy mitől lassú... (Megjegyzem, itt az utolsó előtti bekezdésben egyebeket is írtál.)
(#227) schwartz: Én nem, de amúgy már az sem volt olyan rossz erre. Meg hát a jövő felé megyünk, nem a múlt...
(#229) Löncsi: Hát, ez nem túl meggyőző...
Amik itt vannak, egy kicsit jobbak... (Ez persze még nem real-time.) Ilyen fizikájú és optikájú játékokkal szerintem sokkal több embernek lenne kedve játszani, mert tényleg teljesen új élmény. Bár lehet, hogy tömegek csak akkor fognak ilyesmivel játszani, ha már a konzolok is tudni fogják. Mindenesetre, ehhez brutális számítási teljesítményre van szükség.
(#246) Kaiku: HDMI módban HDMI-nek megfelelő sávszélen jöhet az adat, a DVI csatin nem múlik semmi. Elektronikus átalakítgatás pedig nincs az adapterben, lévén passzív.
[ Szerkesztve ]
-
proci985
MODERÁTOR
ddr5 eszméletlenül zabál teljes órajelen. multimonitor miatt szitkozódtam is rendesen, amikor a 3870nél elvileg kevesebbet idle fogyasztó 6950et ugyanúgy beraktam az akkor még két monitor mögé, aztán a fogyasztás 60Wot ugrott idleben. fogyasztás miatt problémás lenne 8GB.
1000usd, limitált széria szint. külföldi hc tagok vannak, de általában ott is megnézik, mire adják ki a pénzt. és lehet ezzel is az lesz, mint az 590el, igazán HC arcok 580 3GBkből raktak inkább össze SLIt. 6990 és 590 meg egy idő után nagyon nem is volt kapható.
a 27es Dell csak 1440p, az még annyira nem vészes, bár a 2GB vram már határeset lehet. árban is sokkal olcsóbb a 3011hnál. pl nézz rá a steam survey multimonitoros részlegére, van 7680x1600 is. és 1600ps monitor nincs olcsón...
Don't dream it, be it. // Lagom amount.
Új hozzászólás Aktív témák
- MSI RTX 4070 GAMING X SLIM 12G WHITE - bontatlan, 3 év magyar kisker garancia!
- Zotac GTX 1060 6GB (Gari: 2024.11.13.)
- Inno3D RTX 3060Ti /ÚJSZERŰ/FRISS MX6 PASZTA/GYÁRI ÁLLAPOT/BESZÁMÍTÁS/
- 10x R5 430 2GB DDR5 egybe (zörgő ventis)
- Mint az új! EVGA GeForce RTX 3070 XC3 ULTRA GAMING 8GB ÚJ THERMAL PADOK + ÚJ PASZTA + GARANCIA