- LG 34GS95QE-B: OLED paneles, ívelt gamer monitor
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Google Home/Nest
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- MILC felhasználók szakmai topikja
- TCL LCD és LED TV-k
- Mini-ITX
- Házimozi, és Hifi kábelezés!
- Ülésezik a hardveregylet
- Milyen processzort vegyek?
Hirdetés
-
Olcsó 5G-s ajánlatot nyújt a Realme Indiának
ma Megérkezett a Realme C65 5G, az első készülék a MediaTek Dimensity 6300-zal.
-
Free Play Days 2024 - 17. hét: Railway Empire, Prison Architect
gp Extraként a TramSim: Console Edition című játékot is kipróbálhatják az érdeklődők.
-
Lenovo Essential Wireless Combo
lo Lehet-e egy billentyűzet karcsú, elegáns és különleges? A Lenovo bebizonyította, hogy igen, de bosszantó is :)
-
PROHARDVER!
AMD Radeon™ HD 7950 / 7970 topic
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Ezek még csak tervezetek. Nem biztos, hogy ez lesz a végső paraméter. Meg ilyen órajelen fogyasztani is fog. A 300 wattot biztos túllépi. Hiába tervezték az architektúrát 1300-1400 MHz-re a fogyasztás nagy akadály.
Gibbo egyébként írta, hogy az OcUk 100+ készlettel indít. [link]
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #181 üzenetére
Főleg a hőtermelés a probléma. Itt egy lapkából jönne egy rakás hő. Illetve a legtöbb részegységet, a háztól az alaplapig úgy építettek, hogy sosem fog a PCI Express slotba 300 wattnál többet fogyasztó VGA kerülni, hiszen a szabványban 300 watt a max.
Ezek itt elég nagy akadályok, de természetesen technikailag lehetséges. Én nem vagyok híve annak, hogy a VGA fogyasztása 300 watt fölé menjen. Az Atomicokat nem lehet 300 watton belül megcsinálni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Callisto #204 üzenetére
Nem bug van a BF3-ban. Az alkalmazott Deferred Render algoritmus zabálja a memóriát.
Itt sok megoldás van, amit alkalmaznak a fejlesztők. A Defered Shading az, amikor a G-Buffer kimenetek között akár 6 fázis is lehet. Ez nagyon sávszélesség-igényes, de lehetővé teszi az virtuális anyag indexelését, ami sok információ tárolását jelenti pixelenként. Le is zabálná a legtöbb kártyát (a legtöbben kerülik). A Partial és a Full Defered Lightning kevesebb információt tárol, vagyis kevesebb a sávszélességigény, de a kevesebb információ miatt limitáltak a felületi variációk (mindenesetre jelenleg jobb alternatívák). Ha jól tudom, akkor a full, legjobb esetben 96 bit/pixel, míg a partial 64 bit/pixel. A Deferred Rendering esetén, olyan 130-140 bit/pixel elég lenne sok dologra, de nincs meg a sávszélesség. Ezekben ugye még nincs benne a Deep G-Buffer, amire az AA-hoz és az átlátszó felületekhez szükség van. Itt jön képbe a Repi ötlete a Frostbite 2-ből. Arra épít, hogy memória van bőven, vagy az árak esésével lesz, így a legfőbb cél a sávszélesség kímélése. Tile-based deferred acceleration egy DirectCompute 5.0-ban írt algoritmus, mely kihasználja a Local Data Share előnyeit, ami nagymértékben csökkenti a sávszélességigényt. Ezzel lényegében megszerzed a szükséges pixelenkénti információt anélkül, hogy kicsinálnád a kártya memóriaalrendszerét. Az MSAA azonban problémás továbbra is, és összességében ez a megoldás jár a legtöbb memóriahasználattal, még ha a belső adatmegosztás a sávszélességet aránylag kíméli is.
Eddig egyébként szvsz a Partial Defered Lightning volt az arany középút. Ez persze az én véleményem. Láttunk már Full Defered Lightningot is a STALKER: CoP-ban, és hogy a Partial Defered Lightningra is legyen példa ott a Crysis 2 (persze csak egy-egy példát hoztam fel ... van több is). A Tile-based deferred acceleration viszont erősen megkérdőjelezi mindkettőt, mert a memória használatát leszámítva eléggé kímélő, de a minősége elképesztő lásd BF3. Szvsz most ez a top megoldás, és nem is nehéz vele bánni. Ezt a gyártók is látják, és reagálnak rá sok VRAM-mal, mert az igények erre mutatnak. A másik követelménye, hogy csak DX11-es kódban működik, de manapság ez már nem gond. Persze az AA-val állandóan trükközni kell, így előtérbe kell hozni a post-process megoldásokat.
A BF3-at egyébként Full HD-ben AA nélkül 1 GB-ra tervezték. 1,5 GB-ot eszik Full HD-ben 4xAA-val. Ha Full HD fölé mész (pl.: 2560x1600), akkor csak a deferred render képkocka információi, a frame buffer, és a back buffer 1 GB, és akkor még semmi más nincs a VRAM-ban. Ehhez még kell 1 GB. Ha Eyefinityzel, akkor 3 GB a minimum, mert 2+ GB-ot eszik a képkockaadat 3x Full HD-ben. Látszik, hogy nem kíméli a VRAM-ot a gyorsítás, de sebességben nagyon jó.
Szintén felhozható az új Serious Sam 3, ami Full HD-ben teljes AA-val megeszi a 2 GB-ot. Fölötte még a 3 GB is kevés lehet. Ez persze a méretes textúrák miatt ilyen zabagép, na meg a streaming algoritmus sem valami agresszív.
Aztán gondolni kell az új Radeonoknál a PRT eljárásra, ami egyfajta cache-ként használja majd a VRAM-ot. Itt minél több memória van, annál jobb. Persze a PRT a jövő zenéje, mert még csak OpenGL-re működik, így a DX-es implementálással meg kell várni a Win 8-at, viszont valós időben alkalmazható vele a Disney Ptex textúra, ami nagyon megkönnyítheti a fejlesztők munkáját, hiszen végre nem kell UV mappozni az eltérő részletességű modellekre.(#203) Callisto: Nem, de a GDDR5 ára is szépen esik a DDR3-mal egyetemben. Tekintve az aktuális fejlesztések irányát, megéri a többletmemória. Ha mást nem, akkor a Tile-based deferred accelerationt mindenképpen érdemes lereagálni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #495 üzenetére
Az Amcsi törvények a boltra vonatkoznak. Te egy ügyfél vagy, vagyis akárhol használod a kártyát, a bolt köteles eleget tenni a törvényeknek. Ha elromlik és visszaviszed, akkor természetesen kötelesek cserélni. Na most itt a probléma a visszaviszed részen van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #501 üzenetére
Itt nem tudod hol érvényesíteni. Vissza kell juttatni a terméket a boltnak valahogy.
Sajnos nincs. Az a helyzet, hogy az AMD jól lőtte be az árakat, csak nekünk sok. Kíváncsi vagyok, hogy látva az eladásokat lesz-e HD 7950 január végén, vagy inkább mennek februárra. Stratégiailag érdemes az egyik terméket egy érkező játékhoz kötni, mert ez jót tesz a reklámnak. A Syndicate pont ideális. Még az is elképzelhető, hogy február végén lesz HD 7950.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #503 üzenetére
Tulajdonképpen ahhoz képest drága, amit eddig az AMD-től megszoktunk, de most már új mérce lesz. Egyrészt Rory sokkal inkább látja, hogy mit hogyan kell csinálni. Másrészt az AMD az elmúlt két generációban a leggyorsabb VGA-t rakta le. Most már megfordult a helyzet. Inkább pénzt akarnak, mint piaci részesedést. Ez is egy opció.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igen. VGA-ban már két éve övék a leggyorsabb VGA. Most már több pénzt akarnak. Gondolom azt is látják, hogy az NVIDIA még egyszer sem mutatta be a Keplert ... miközben az AMD már prezentálta ezt a kártyát a múlt nyáron, illetve a fejlesztőknek is adott már akkor belőle. Ők jobban tudják, hogy a 28 nm milyen problémákkal küzd. Mi is sejtjük abból, hogy milyen tartalék van az architektúrában. Valszeg az AMD erre gyors megoldást talált az órajelcsökkentésben. Nem a legjobb megoldás, de ki lehet jönni a termékekkel. Valszeg az NV is ki tud hozni egy hasonló méretű lapkát, de egy nagyobb méretűnél (az elmúlt évek stratégiája szerint óriáschipben gondolkodnak), már ott van a radikális órajelcsökkentés opciója, vagy menni a PCI-SIG-hez a 400 wattos fogyasztás szabványosításáért.
Én úgy gondolom, hogy az amit ezek a VGA-k most tudnak már mindegy. Ez már csak egy kis csata egy vergődő piacon. Ami számít az AMD-nek, és az NV-nek, az az architekturális integráció lehető legjobb kivitelezése. Ha nem ez lenne a cél, akkor a GCN-t nem így tervezte volna az AMD. Nyilván a Kepler esetében sem lenne szó a virtuális memória támogatásáról. Minek egy VGA-ba ez. Ha nem integrálod, akkor csak agyontrükközött eljárásokkal lehet kihasználni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #509 üzenetére
Tulajdonképpen nem a 28 nm a baj, hanem a fejlődés fizikai része. Ez régen is így volt, csak nem jött annyira komolyan elő, mint manapság. Kúúl az egész, hogy csökken a csíkszélesség, és így most belevágsz egy 36x mm^2-es chipbe pluszban majd kétmilliárd tranyót, na de ezeket a tranyókat be kell kapcsolni. Ha nem csökkent olyan mértékben az ehhez szükséges energia, mint amilyen mértékben a tranyók mérete (márpedig nem csökkent, sosem csökken ilyen mértékben), akkor ott vagy, hogy fogyaszt a lapka, mint az állat. Nagyjából most itt tartunk. Persze ez az első kör a 28 nm-en, így biztos van mit javítani, de ehhez először tapasztalatot kell gyűjteni egy aránylag méretes chippel, és ki kell értékelni, hogy mit kellene másképp csinálni. Itt a méretes chip is nagy kockázat, mert durván be lehet szopni a kihozatalnál. Nem véletlen, hogy az AMD a lapka 10%-át redundáns résszel töltötte ki. Ha valami rossz, akkor könnyebben lehet pótolni.
A GPU-nak sok baja nem lehet, de a NYÁK esetében kérdéses, hogy mekkora terhelésre készítették fel. Ha a feszültséghez nem nyúlsz, akkor kicsi az esélye, hogy károsodás érje a rendszert.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz Cybertrone #524 üzenetére
Igen ez egy érdekes része. Nem fogták vissza mesterségesen a CPU-s PhysX-et, mint régen. Ez jó, mert gyors, de rossz, mert nem látszik, hogy miért kellene GeForce-ra költeni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #527 üzenetére
Egész nap azon a teszten pöcsölnek a srácok. Készül. Meg vagyunk csúszva kisebb-nagyobb gondok miatt. Ez az ami gáz. Végre egyszer van hamar tesztholmi, erre nincs más, és jönnek a parák. Bekaphassa minden hardver.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #529 üzenetére
Több gond volt. Legutóbb faszán összeomlott a win, így újra kellett rakni, ez volt a legnagyobb hátráltatás. Mindegy már sínen vagyunk. Műkszik a kari, semmi para. Nem tudtunk két GTX 580-at szerezni. GTX 590 viszont van.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mert úgy állították be. Ettől a GCN architektúrát 1300 MHz-re tervezték. Adhattak volna 1 GHz-es órajelet is. Semmiből nem állt volna, csak nem lenne elég a beállított 250 wattos TDP limit.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #564 üzenetére
Láttad a teszteket. Az Overdrive modulban rángatták a kártyát rendesen. Fel kell húzni a PowerTune-t +20%-ra, és azzal 300 wattra nő a TDP limit. A NYÁK-ot erre tervezték.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Magasabb feszültségen, de itt az a gond, hogy az architektúrát többre tervezték, 1,3 GHz-re. Ezt nem sikerült elérni, mert nagyon sokat fogyasztana. Előrelépés a 28 nm, de nincs annyi előnye, mint amennyit a mérnökök kalkuláltak. Most ebbe vagy bele kell törődni, és visszavenni az órajelet, vagy menni kell a PCI-SIG-hez a 300 wattos határ kitolásáért.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #573 üzenetére
250 wattra állították a TDP limitet. A 300 wattban valszeg kicsivel 1,1 GHz körül/alatt lenne. De inkább meghagyták ezt a kategóriát a 7990-nek. 1,3 GHz-hez több feszültség kell. 400 wattot enne a kártya.
A memók 6 Gbps-osak. A memóriavezérlő hivatalosan 7 GHz-ig stabil. Nyilván az 5,5 GHz-es alapórajel kényszerű. A memóriák is fogyasztanak. Elég sokat.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #575 üzenetére
Nem érdemes feszültséget emelni. Az amit alapban beállítanak elég. Igazából tuningra is elég nagy határt dob a CCC Overdrive. 1125 MHz-et adhatsz a magnak. Ennyi szvsz elég kell, hogy legyen.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #577 üzenetére
Technikailag mindegy a feszültség, csak az Overdrive miatt figyelni kell a limitre. Ez módosíthatatlan. Ha +20%-ra húzod a PowerTune-t, akkor kapsz egy 300 wattos limitet. Ilyenkor ha emeled a feszt, akkor ugyanazon az órajelen hamarabb limitbe futsz és ekkor a VGA visszaveszi az órajelet valamennyire. Ezért nem érdemes ezen módosítani.
A BIOS-ban ki lehet kapcsolni a kártya védelmét, de akkor konkrétan kikapcsolsz mindent, vagyis azt kockáztatod, hogy végleg megsérül.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A limitek a hardver szintjén vannak kalibrálva. Ezt BIOS-ból ki lehet kapcsolni, és szoktak is készülni ilyen mod-BIOS-ok, de ez kikapcsolja a legfőbb védelmeket is. Ha a BIOS-ból nem lövöd ki, akkor a hardverben él a beállított limit. Ezt ide-oda tologathatod a PowerTune-nal, de a max határt nem tudod felülírni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #579 üzenetére
Az OCP is félig szoftveres. A hardver felel a túlterhelés elkerüléséért, de szoftveresen ezt befolyásolhatja a driver. Az AMD-nél teljesen hardveres a dizájn. Itt vagy aktív BIOS-ban és működik, vagy inaktív és akkor nem megy.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Sapphire természetesen úgy paraméterezi a saját tervezésű termékét ahogy akarja. Az AMD alapvetően a referenciáért felel, illetve úgy tervezi azokat, hogy megfeleljenek az OEM igényeknek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #648 üzenetére
Egy OS-re gyorsabb a WHQL aláírás, mert nem kell csak egy tesztsort kifizetni, és végigmérni. Gondolom az AMD úgy volt vele, hogy úgyis Win 7 64 bitre használják a terméket, így arra legyen driver, a többire meg jó a CD-ken a béta.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
-
Abu85
HÁZIGAZDA
Az Tahiti technikai demójától fog leesni az állatok. Most töltöttem le a videót. Olyan, mint egy disney rajzfilm, csak valós időben számolva.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #833 üzenetére
A demót csak akkor rakják fel, ha meglesz hozzá a szoftveres alap. Számos szoftveres frissítés kell, ahhoz, hogy működjön. Ezek az AMD-nek már megvannak, de még nem publikusak.
(#835) adrian23: Már fent van valahol? Amúgy az. Alapvetően a megatextúra a lényege, csak az az extra, hogy ptex textúraformátumot használnak, amit a Disney eredetileg offline renderhez fejlesztett ki. A Tahitivel ez valós időben is megy.
#836) SzlobiG: Előbb szerez belépőt az AMD ftp-jére.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #1021 üzenetére
Cuki a kutyus.
A Sapphire kártyát ide kell regisztrálni. [link] Először csinálj egy regisztrációt és ezüst tag leszel. Aztán a kártya beváltásával lehetsz arany fokozatú tag. Ilyenkor ad néha a Sapphire ingyen játékot, vagy más szoftvert. Persze nem mindenkinek, hanem néha sorsolnak, vagy van olyan, hogy az első 1000 jelentkező kap, szóval nem csak szerencse kell.
(#1028) jippa: A PCI Express 3.0 egyelőre nem sokat ér.
A teszt kész, de még meg kell írni a szöveget. A héten már nem lesz kirakva, de jövőhéten ezzel akarunk kezdeni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz deicide #1098 üzenetére
Az AMD azt írta nekünk, hogy lehet tolni a feszt, csak ésszel, mert a kártya lehet, hogy nem gyorsul tőle. A 300 wattos cap él, ami azt jelenti, hogy magasabb fesszel hamarabb belefut a termék a határba, aminek az órajel dinamikus csökkentése a vége. Ezért nem fagynak ezek 1200 MHz-en, mert ha a terhelés túl magas, akkor a kártya inkább visszaveszi az órajelet, mintsem, hogy fagyás legyen.
Ami nagyon fontos, hogy senki se cserélje le a GYÁRI BIOS-t. Ne is írjátok át, mert ez biztosítja a termék védelmét és a stabilítást. Kikapcsolt védelemmel gyorsan instabillá válhat a rendszer, vagy tönkre is mehet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz deicide #1104 üzenetére
Szerintem az Afterburner még bugosan kezeli a kártyákat. Néha ír hülyeséget. Valszeg lesz még frissítés.
Az AMD azt mondta nekünk, hogy a Catalyst Overdrive-ot használjuk tuningolni. Ott úgy állították be a max szinteket, hogy a legkiegyensúlyozottabb legyen a termék temérdek program eredményét mérlegelve. Fölé mehetsz, de a tapasztalataik szerint ez esetenként inkább lassulást hoz, mint gyorsulást. Valahol persze gyorsulást jelent.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #1108 üzenetére
Valahol gyorsul, valahol lassul. A 3DMark 11 tipikusan nem terhelő, ha más alkalmazást is beleveszünk ebbe.
A gyorsulás attól függ, hogy a CCC limit fölötti órajel esetében a VGA eléri-e a 300 wattos limitet. Ha nem, akkor gyorsulhatsz, ha igen, akkor lassul a rendszer.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz radi8tor #1113 üzenetére
Egészen pontosan 3 wattot fogyaszt majd. De előbb be kell építeni ezt a Catalystba. Azt nem tudom melyik drivert használod. Az is kérdés, hogy ez tuning mellett működik-e.
Mi a long idle-t ellenőriztük az default órajeleken ment. A CF-et nem néztük, mert még nem volt rá lehetőségünk.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #1281 üzenetére
Persze, hogy ugrál a fesz. A VRM szabályzása nem csak az órajelen dolgozik, hanem a feszültségen is. Ezért mondja az AMD, hogy itt nem olyan egyszerű a tuning, hogy a legmagasabb a legjobb. A kártya megvédi magát a kifagyástól, de ennek a fesz és az órajel ugrálása az ára. Ezért nem ajánlják, hogy állítsd a feszt, mert hamarabb éred el a 300 wattos TDP limitet. Az Overdrive-ben beállított értékek úgy vannak maximalizálva, hogy átlagosan, temérdek programot vizsgálva ez hozza a legjobb teljesítményt.
(#1295) deicide: A Furmark tök lényegtelen. Ha a kártya olyan terhelést kap, amit az a program fejt ki, akkor az ACE nem engedi, hogy az összes CU dolgozzon. Korábban ez ellen a Radeonok az órajel csökkentésével védekeztek, de az nagyon rontotta a teljesítményt. A Furmark terhelését nagyon egyszerű felismerni a driver szintjén, és a rendszernek van is erre egy olyan rutinja, hogy maximális legyen az elérhető teljesítmény, és ne is menjen tönkre a kártya. Emellett az órajel se ugrándozzon. Ezeknek a terhelésszimulátoroknak már egy ideje harangoztak. Az AMD HD 5000 óta védekezik ellene, míg az NV is a GTX 580-590-nel kezdte meg ezt a harcot. Ezeken a termékeken teljesen használhatatlanok ezek a szimulációk. Futnak, de a céljukat nem érik el. A kártya többet malmozik, mint dolgozik.
Lessetek a gyártóktól. Ők a valós terhelés stabilitását még mindig 3DMark 06-tal mérik, méghozzá a második, illetve a harmadik teszttel. Nyilván okkal tesznek így.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Gaboman #1422 üzenetére
Most lett kész a teszt. Nekünk skálázódott a CF mindenhol. Mondjuk lehet, hogy mi másik drivert használtunk. Még a gyártók is mást csomagolnak a kártyák mellé. Szinte kétnaponta készült egy új. Mi azt használtuk, amit a Sapphire adott a CD-n.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz schwartz #1435 üzenetére
Hát, ha megy, akkor megy. Most ebben a tesztben nem volt probléma semelyik kártyával, illetve semmivel. A Windowst leszámítva. Az sajna csúnyán összeomlott, így ezért csúsztunk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cybertrone #1456 üzenetére
Van olyan opció is, hogy vigyázni kellett rájuk, mint a szemünk fényére. Amúgy sem vagyunk a tuning hívei, mert minden termék más. Csak azért csináljuk, mert ha nem lenne a tesztben tuning, akkor menne a fika. Húzunk valamennyit, aztán csók, a végletekig nincs időnk kitesztelni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A DX11.1 lehetővé teszi a specifikus kiterjesztések használatát. Itt lehetnek komoly különbségek. Ez azonban gyártóhoz kötött, vagyis az adott kiterjesztést, csak az adott gyártó tudja használni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ha lesz ilyen, akkor sok jóra nem. Egyelőre az AMD a PRT kiterjesztést akarja berakni, amivel valós időben képes kezelni a rendszer a PTEX textúraformátumot például. Ha ez bekerül, akkor lényegében a teljesítmény a legtöbb terméken nem lesz korrekt. Olyan lesz, mint a Rage. Az is megatextúráz, csak nem PTEX formátummal, de a textúrázás elvi működése egyezik.
Egyelőre a PRT csak OpenGL kiterjesztésre érhető el. Szóval attól nem kell tartani, hogy ezt játékok elkezdik idén tömegesen használni. A Prey 2 és a Syndicate esetében van erre esély, mert ez a két játék OpenGL-es motorra épít. Illetve a Rage-hez lehet csinálni patchet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Kepler is DX11.1-es lesz, de ott az NV az ARM-ra épít, vagyis nem olyan a helyzetük, mint az AMD-nek. Az AMD a GCN architektúrával az x86/AMD64 irányt erőlteti. Ezek a VGA-k már nem úgy születtek meg, hogy itt nagy háború lesz. Az lesz, csak nem VGA-piacon. A fő fejlesztési szempont a CPU-val való integrálás. Az AMD világos, hogy AMD64-et választ, míg az NV-nek az ARMv8 jelent lehetőséget.
Igazából a DX11.1 specifikációi nem szigorúak. Két kötelező újítás van benne. A specifikus kiterjesztések nem tartoznak a követelmények közé, mert az NV például képtelen támogatni a PRT-t. Amilyen kiterjesztéseket az AMD készít, azokat úgy készíti, hogy az x86/AMD64 utasításarchitektúrához igazodjanak. Az NV pont úgy fog dolgozni, hogy az ARM-hoz igazodjanak a technológiái. Logikus, hogy az MS nem várhatja el, hogy ilyen feltételek mellett a gyártók támogassák egymás kiterjesztését.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mondtam srácok, hogy ennek a VGA-nak a tuningja teljesen más. Ha feszt emeltek, akkor lassulást kockáztattok. A VRM nem engedi kifagyni a kártyát, azért ilyen stabil, de ettől az órajeleket még vissza fogja venni a tudtotok nélkül. Ezzel őrzi meg a stabilítást. Az, hogy nem lehet óriási feszt adni neki, azért van, mert 1,3 V-nál már komoly lassulás is lehet. Alapfeszen érdemes tartani, vagy nagyon kicsivel felette.
[link] - Olyan a védelem benne, mint a GTX 590-en, csak valós időben, azaz nem állandó lassulás formájában. De az eredmény ugyan az, ha a kártya a tűréshatárához ér, akkor a fagyás elkerülése érdekében lelassítja magát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Redmi Note 13 Pro+ - a fejlődés íve
- Nintendo Switch
- LG 34GS95QE-B: OLED paneles, ívelt gamer monitor
- Amazfit GTS 4 - divatos megjelenés
- Vallás
- Revolut
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Otthoni hálózat és internet megosztás
- Diablo 3
- A fociról könnyedén, egy baráti társaságban
- További aktív témák...
- GARANCIÁLIS! MSI SUPRIM RTX 3080 Ti 12GB GDDR6X Videokártya! BeszámítOK
- BESZÁMÍTÁS! Gigabyte AORUS MASTER RX 6800XT 16GB GDDR6 videokártya garanciával hibátlan működéssel
- nVidia GeForce RTX 3060 TI AMP White Edition Videókártya
- ASRock Radeon RX 6800 XT Phantom Gaming
- GAINWARD RTX 3070 8GB GDDR6 PHOENIX Eladó! 125.000.-