- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
- Két Zen 5-ös dizájnjának mintáit is szállítja már az AMD
- A Colorful "fagyosan kompakt" alkatrészekkel megy elébe a nyárnak
- A Keychron ismét egy űr betöltését vállalta magára az egerek szegmensében
- Az átlagnál vaskosabb ventilátorok kandikáltak ki a Corsair vitorlája mögül
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- HiFi műszaki szemmel - sztereó hangrendszerek
- Androidos fejegységek
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Modern monitorokra köthető 3dfx Voodoo kártya a fészerből
- Melyik tápegységet vegyem?
- Amlogic S905, S912 processzoros készülékek
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Milyen CPU léghűtést vegyek?
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
Hirdetés
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
ph Megkezdődött az NPU-k elleni hadjárat, de egy fontos részletet nem említ a cég.
-
Snapdragon 8-as szériával várhatók a Honor 200-ak?
ma A Honor 200 állítólag a 8s Gen 3-at, a 200 Pro változat pedig a 8 Gen 3-at használja majd.
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz [CS]Blade2 #36 üzenetére
Ne a teljes rendszert nézd. A GTX 480 a PCI SIG teszten bent van a 300 wattban, de több programban folyamatosan 315-320 wattot fogyaszt. A HD 5970 ennél 15-20%-kal beljebb van, itt lesz a GTX 580 is.
Az OEM gyártók egyébként a 3D mark 2006 űrös tesztjét tekintik irányadónak. Ezt javasolja az NV és az AMD is (a tapasztalatok alapján egy instabil kártya itt pusztul meg a leghamarabb). A PCI SIG esetében persze sokkal kisebb az eltérés valószínűleg mind a három kártya 290 és 300 watt között van. Itt az a gond, hogy az NVIDIA sosem adja meg a PCI SIG-et, mert a saját bevallásuk szerint hátrányosan érinti az architektúrájukat a tesztsorozat. Ezt láthatod a GTX 480-nál, aminek az NV belső méréseire alapozott TDP-je 250 watt, míg az AMD a HD 5970-nél a PCI SIG 297 wattos TDP-jét adta meg. Persze nyilván az OEM gyártókan ettől a PCI SIG még irányadó, de nagyon sok az eltérő program, és már többen alapoznak a belső mérésekre. Alapvetően nem kizáró tényező már a PCI SIG előírásainak félrúgása, persze az értékelés gyártónként változik.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A GF100 SM-jeit kell itt továbbvinni. A GF104 esetében a DP sokat romlott, és így az nem életképes a Tesla rendszerekben.
A GF110 ugyanarra a piacra nevez, ahova a GF100. Fel kell áldozni a GPU-s teljesítményt a half-speed DP-ért. Ami itt értékelhető fejlesztésként lehet jelen, az az 512 bites busz. A Tesla kártyákra már elkél a 8 GB memória.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Új lapkáról van szó. Úgy nevezik, ahogy akarják. A számozásba akkor lehet belekötni, ha ugyanazt a lapkát adják más néven ... G92 esete: 8800-9800-GTS 250. Minden más igazából egyéni döntés következménye, mert ha új a lapka, akkor adhatnak neki olyan nevet, amilyet akarnak, akár lehet generációváltás is, mert ez így nem számít átnevezésnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz DemonDani #52 üzenetére
Ebből a GF110-ből nem is most lesz Tesla. Majd valamikor a következő év tavaszán. Nyugodtan cserélhetnek. Az új rendszerek megfelelnek majd a régi paramétereknek. Csak meg kell rendelni őket. A gép már ki van építve, így az eredeti költségekhez képest fillérekért megúszható az aktuális Tesla generáció modernizálása.
De nem csak a kínai nagyvasra kell gondolni. Vannak öregebb Tesla-s gépek. A rendszer specifikációk évek óta nem változtak, így még a GT200-as Tesla kártyákat is ki lehet cserélni ezzel, az meg nem kicsi boost. Pénteken volt hír, hogy 2014-től az NV szerint minden játék a felhőből fut majd, szóval ha ezt komolyan gondolják, akkor kell a géppark.A TMU-ról van egy 64 és egy 128-as pletyka. Én a 64-et tartom valószínűnek, mert az az infó olyan helyről származik, akinél már volt egy ilyen kártya. Ugye a PCINLIFE-on írták a fórumba, hogy 50 GTexel/sec a textúrázóteljesítmény. Ez 64 TMU-val kijön a magórajelen.
(#53) leviske: A dupla-GPU-s kártya kétélű fegyver. A Dual-GF104 sem azért lett leállítva, mert nem volt jó. Sokkal inkább stratégiai dolgok állnak a háttérben. Egy csomóan azt hiszik, hogy az NV képes egy két-GPU-s VGA-t fejleszteni, és akkor újra a trónon lesznek, ehhez az kell, hogy adagolják a single-GPU king marketinget, és ez többet ér, mintha kijöttek volna egy Dual-GF104-gyel, ami kikapott volna a HD 5970-től ... az egész elmélet megdőlt volna, és mérhetően kiderült volna, hogy az NV már csak második a technológiai versenyben. Még annyian vannak, akik azt hiszik, hogy a GF100 nem a HD 5970 ellen, hanem a HD 5870 készült.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz [CS]Blade2 #62 üzenetére
A 3Dmark 06-ból is csak egy tesztet tekintenek a gyártók irányadónak. Azt az űröst, ahol lövöldöznek a katonák.
A Furmark értelmetlen program, mert már nincs olyan driver, ami fel ne lenne készítve rá (A 256+-os GeForce driver már nagyon agresszíven védekezik. A GF104-en ez meg is látszik. Jelentősen visszaesett a teljesítménye). A Radeon HD 5000 már hardverből sem terhelhető túl, még szoftveres lefojtás sem kell. A Furmark semmire sem jó.
Az NV TDP mérése szerint a GTX 480 250 watt, míg a GTX 580 244 watt. Nem hivatalos eredményből pedig a GTX 580 annyit fogyaszt, mint egy HD 5970, vagyis tényleg csökkent a fogyasztás a GTX 480-hoz képest. Ezt a kiszivárgott adatok -10-20%-ra teszik. Majd mi is lemérjük, hogy mi változott. Addig csak azt tudom mondani, ami infó jön.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az nem jó ötlet. Az NV-nek a lehető legkisebb befektetéssel kell mindent megoldani. Ha a GF100 mellé kellett volna még egy gamer GPU is, akkor az egy extra chip tervezését jelenti, és alapvetően nem ér ennyi befektetést a megcélzott piac. Az AMD sem csinál HPC-s GPU-t. Itt dönteni kellett, hogy ki melyik piacot tartja fontosnak a PC, a professzionális és a HPC közül. Az AMD a PC-t választotta, míg az NV a másik kettőt. Ez stratégia, az viszont tökéletesen látszik, hogy egyik cég sem vállalta fel egy külön termékskála fejlesztését a kevésbé fontos szegmensekbe.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem tudom. A FirePro-t keményen fejlesztik, de első a consumerpiac. A jövő év szempontjából a számottevő lépés az AMD-nek a mobil termékek felhozatala a Fusion APU-kkal. Ennek ellensúlyoznia kell a mobil GPU-s üzletág összeesését. Itt valószínűleg követik az NV-t a külső VGA-k megalakuló piacára. Nem tudni mennyi van benne, de fejlesztés szintjén egyszerű lépcső, és akár be is válhat. Itt még mindig az Intel a kérdéses, mert a Radeonok közül is nagyon sok GPU megy el a mobil Intel platformokba. Ha a Sandy Bridge IGP-je külső GPU mellett lekapcsol, akkor ezek az eladások lényegében megszűnnek.
A prof piacon, amit látni lehet, hogy az Eyefinity keményen a Matrox életére tőr. Valószínűleg csak idő kérdése, amíg valaki felvásárolja őket. Az Intelnek jól jönnének a kijelzőkezelő technológiáik.(#74) max-pain: A HPC-vel kapcsolatban az Intel, az AMD és még az NV elképzelése is hasonló. Az NV annyiban van előnyben, hogy már a GPU-t arra fejleszti. Persze különbség lesz, hogy az AMD és az Intel x86-os, míg az NV ARM-os CPU magokkal fog versenyezni, de technikailag úgyis a GPU ereje fog itt számítani.
Nyilván stratégiailag nem a legjobb az NV-nek ez a fejlesztési szempont, de nem tudnak mást csinálni. Esetleg még annyi, hogy eldobják teljesen a PC-s GPU-piacot, ami megoldaná a fejlesztéssel kapcsolatos problémákat, de amíg a mobil szegmensben van előny, addig biztosan maradnak. A jövőben meg majd kialakul. A Tegra sikere itt kulcsfontosságú lehet. A következő generációs Kepler, már radikálisan más elveket követ, mert bevezeti a virtuális memóriát a GPU-nak, és lesz benne processzormag is, feltételezhetően egy ARM core. Az AMD egyik lépést sem fogja követni, mert a PC-ben egyiknek sincs előnye, sőt megint hátrányos, mert a tranyót viszi, de nem fut gyorsabban a játék. A DP-ben a HD 7000 is marad az 1/4-es feldolgozásnál, ami még mindig fele olyan hatékony, mint a Fermié, de a játékokban nincs belőle hátrány, csak egy csomó tranyót megspórolnak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ezzel az idő és a méret a probléma. A GF104-en ez meg is látszik. Az AMD egy sokkal kisebb GPU-t hozott ellene, ami nem szerencsés. Akkor lenne ez az NV-nek nyerő stratégia, ha a GF104 teljesítményét beleraknák a GF106-os méretbe, ahogy a Barts csinálta.
A GF114 is jön jövőre. Az infók szerint ott változtat ahol kell: a memóriavezérlőt bővíti ki 384 bitesre. Akár 320 bites kiépítésben 4 GHz-es GDDR5-tel már nem lesz kevés a sávszélesség a 384 SP-re. A gond itt majd az lesz, hogy a GPU mérete a GF104-hez képest nem csökken. Akik tudják a Cayman méretét azok érzik, hogy ez komoly baj, mert előállítási költségben nem a HD 6800 lesz az értékelhető vetélytárs, hanem egyel felette.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igen. Sajnos régóta van ez a probléma, de az olvasóbázis növekedésével már nagyon látványos lett a lassulás. Hamarosan hardvercsere és megszűnik a gond, addig csak a türelmet kérhetünk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Joachim21 #103 üzenetére
Gondolom a PhysX korlátozásait sérelmezi. Mivel csak NVIDIA GPU-val működik, így az NV-nek az az érdeke, hogy minél több GPU-t követeljen a folyamatos futás. A Mafia 2 esetében a CPU-s cloth korlátozás jó példa erre. Minimum két GeForce kell a High opció élvezhető futásához.
Az AMD-nek egyébként szabványos GPGPU-s megoldásai vannak, ugyanúgy működik, ahogy a CUDA. Bár az ArcSoft már bemutatta az új OpenCL-es SimHD plugint, ami minden eddigi megvalósításnál gyorsabb, szóval előnyök is vannak, a nyílt platformokban ... nincs lehetőség a sebesség mesterséges korlátozására, mert versenyezni kell a gyors futás érdekében.(#105) antikomcsi: Ne másban keresd a hibát, ha nem látod az NV lemaradását. Egyszerű példával szemléltetni lehet ezt. Melyik a világ leggyorsabb VGA-ja? Segítek HD 5970.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz antikomcsi #107 üzenetére
Szokásos szöveg. Bizony a tények ellen nagyon nehéz ... Köszönöm, hogy nem kell felesleges köröket futni.
(#108) Cyberpunk: Igen a marketing. Erre meg jön az a kérdés, hogy az NV, miért nem hozza ki a két-GPU-s csúcs-GeForce-ot ... máig sokan várják. Nekik is egyszerűbb lenne az élet, hiszen újra trónra kerülnének, és nem jönne a le van maradva szöveg. Persze itt most felejtsük azt, hogy a GF100 a Hemlock ellen készült, ezt sokan nem képesek ennyire átlátni. 1.0-s júzer elméjével átgondolva egy dolog látszik a Radeon HD 5970 a leggyorsabb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Maximum azoknak volt a leggyorsabb, akik a leggyorsabbnak akarták látni. A GeForce 6800 Ultra sokkal inkább megfelelt a kor igényeinek. Ettől függetlenül az ATI sokat ért el az x800 sorozattal, mert akkor még szépen növelte a részesedését. A GeForce 7000 volt, ami ezt visszafogta. Erről egyébként sok vita volt. [link] - itt én is belekeveredtem egybe, sikerült találnom egy ATI fant. :Akkoriban még le is NV fanoztak ... pedig csak elmondtam, hogy nem jó az ATI X-es architektúrája.
(#114) Badman 4ever: HP Proliant DL585 G2 - 4 darab Dual-Core Opteron 8220, megy 64 GB memória.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz max-pain #116 üzenetére
A Maxwell a GTC2010-es ismeretek szerint már full DP-s lesz, teljesen új elvekre építve, négy darab belső központi processzorral. Kicsi az esélye, hogy abból lesz PC-s GPU. Inkább a Keplert viszik tovább, mert a Maxwell már nagyon nem GPU. Az NV is inkább a Ray-tracing teljesítmény helyezi előtérben, valószínűleg az Optix motort is ilyen irányba fejlesztik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az akkori PH-s tesztekhez nekem nem sok közöm volt. Egyébként nyilván nem értettem egyet, de ez már nem változtat semmin. Aki a véleményemre volt kíváncsi az akkor is megtalált, és nagyon nem az x sorozatot ajánltam. Ez nem terelés. Egyszerűen akkor a GeForce-ot tartottam jobbnak. Az okokat is leírtam miért.
Ki állította azt, hogy a 6600GT nem volt siker. Az alapfeltevés onnan indult, hogy egy technológia képességeit a legerősebb versenyző tudja megmutatni. Az Intelnek van a legerősebb processzora, tehát ők járnak technológiailag előrébb. Ugyanez igaz az AMD-re a VGA-k között, mert övék a leggyorsabb rendszer. Ár érték arányban meg könnyű versenyképesnek lenni. Az AMD is versenyképes ebből a szempontból a procipiacon, ahogy az NV is a VGA-piacon.
Véleményem szerint sokkal nagyobb gáz volt az ATI-nál a technológiai lemaradás. A GeForce SM3.0-t kezelt, ami jobb volt az SM2.0-nál. Értékelhető funkcionális különbségek voltak, ahogy például a DX10 és a DX10.1 között. Ezek a különbségek később ki is jöttek. Ezért ajánlottam anno a GeForce 6 sorozatot a Radeon X helyett. Nem kell a pártatlanság látszata, ha az egyik gyártót pártolnám, akkor nem ajánlanák generációnként más terméket. Ezt lehet, hogy neked nehéz kezelni, de nekem ez teljesen természetes. A jobb az jobb.(#123) [CS]Blade2: Kb. jól írod le. Ha így jelent volna meg a GF100, ahogy te visszakövetkezteted, akkor most nem beszélnénk arról, hogy a GF110 egy javított GF100.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Világosíts fel minket mi ellen készült az NV csúcsrendszere, ha nem az AMD csúcsrendszere ellen.
(#119) max-pain: A Maxwell esetében egyértelmű, hogy nem jó GPU-nak. Valószínű, hogy az NV mérlegelni fogja a piacokat. Állításuk szerint 2014-re már minden játék felhőben fut, tehát 2012 végén már kell valami látszat erre, vagyis lehet építeni a felhős gépeket.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
És mi az amit vesztettél az SM3.0-ig. Teljesítményben majdnem egál volt.
Hogyne számított volna. Láthatod, hogy az ATI mit ért el a HD 3000-rel, már ha az anyagi szempontokat nézzük. Az NV halálra kereste magát a HD 4000 megérkezéséig.Nem hiszem, hogy a vezetőség haragszik rám, mert korábban a GeForce 6-7 generációt ajánlottam, míg a PH pár tesztben az X800-at. Mint mondtam, szerintem akkor az NVIDIA kínálta a jobb terméket. Lehet, hogy ebben nem értünk egyet, de ettől még tartom magam az álláspontomhoz: az ATI X szériája nem volt nagy eresztés, függetlenül attól, hogy anyagilag jobban jártak, mint az NV.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Az Intel az nem jönni akar a VGA-piacra, hanem konkrétan ki akarja csinálni a VGA-piacot. Ha az NV megy, akkor az AMD marad egyedül. Semmi esély, hogy más belépjen, mert lószar haszon van a piacon ... különösen, ha a mobil VGA-knak vége.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Joachim21 #149 üzenetére
Lefuttatsz egy benchmarkot? Kíváncsi vagyok az eredményre.
(#148) gbors: Régebbi driverrel a StarCraft 2-ben mérhetsz komoly fogyasztást. Ott még nem volt a teljesítmény korlátozva. A Furmark-ot lealázza a játék, nem véletlenül döglöttek a túlterheléstől hardveresen nem védett kártyák. Erről volt egy hír is.
(#144) schwartz: Volt egyszer egy Cypress chip. Az AMD a Radeon HD 5800 nevet adta neki. Egy évvel később az AMD elkészítette a Barts lapkát, aminek a Radeon HD 6800 nevet adta. Itt a mese vége ...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz hugo chávez #153 üzenetére
Gyártják a GTX 480-at. Mostanában a tuningolt GeForce GTX 480-ak vannak gyártásban, mert ott nem kell tartani a 300 wattos fogyasztási határt, és nem jelent problémát a gyártósorok gondja. Persze sokáig már nem gyártják ... a GF110 mellett értelmetlen.
A GF100 esetében nem a hibás részekkel van probléma. Sosem az volt a nagy gond. A TSMC már majdnem hibátlan wafereket csinál, de a chipek termikus varianciája még mindig eltérő. Persze már nem kell 100 wattos különbségekre gondolni, mint tavasszal. Most már bőven kezelhető a helyzet, ha a 300 wattos határt nem kell tartani, márpedig a gyári tuningtermékekkel nem kell.
(#154) Joachim21: Én is játszok a játékkal. Egész hétvégén ezt toltuk a szomszéddal. Ha harc van, akkor szívás van aktív PhysX mellett. Erre jó a benchmark, ami egy akciódús jelenetet tesztel. Nekem gáz, ha ilyen jeleneteknél leesik az FPS, valakinek nem számít. Ez is érthető. Persze sokkal jobb lenne, ha támogatnátok Zogrim kezdeményezését, hogy legyen a cloth modul is GPU-s, mert az még gyorsabb teljesítményt eredményezne, de erre nagyon kicsi az esély. Bele kell törődni, hogy a Mafia 2-t szépen kiherélték a GPU PhysX szempontjából. Ez számomra nem elfogadható, és alapvetően szerintem senkinek sem az, hiszen milyen dolog egy technológiát mesterséges korlátozásokkal futtatni. Ebből a user nem profitál. Ilyen negatív hátszél mellett meg ne csodálkozz, hogy a PhysX szekere nem megy.
Mi a baj azzal? Ha jól tudom az említett programok nem alkalmaznak mesterséges korlátozást az AMD Phenom processzorokra. A valós eredményt kapod az adott számításra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz hugo chávez #156 üzenetére
Nem mondhatok semmit, de egy pislogást megengedhetek a havi csatára.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz adamssss #160 üzenetére
Játékfüggő. A Mafia 2-ben főleg a cloth viszi a teljesítményt, ami eleve CPU-n fut, de ha lesz egy tűzpárbaj, akkor szívás van, mert a particle modulok is a CPU-n futnak.
(#161) Joachim21: Érzékelni fogod, ha belinkeled a benchmark eredményet, ami egy meglehetősen akciódús jelent. Nem számítok sok FPS-re. Szerencsére a VGASpeed volt olyan kedves és lemérte a PhysX teljesítményét, hogy más is láthassa, hogy mit hagy ki.
Azzal, hogy elengeded a füled mellett a problémát nem teszed játszhatóbbá a játékot, csak beletörődsz, hogy az NV rászedett a PhysX-szel, ami futhatna gyorsabban is. Nyilván felteheted a kérdést, hogy mikortól kell majd SLI+dedikált GeForce a PhysX-hez, mert a zárt technológiával az NV úgy bánik ahogy akar. Ezért nem szeretik a piacon a zárt rendszert, mert nincs kontroll mögötte, úgy fut a szoftver rajta, ahogy az a gyártónak jó, és következősképpen a usernek nagyon nem jó. Vagy te örülsz, hogy a CPU-n fut a cloth, amikor a GPU-n kellene?[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
Abu85
HÁZIGAZDA
válasz Ricco_hun #187 üzenetére
Valahol a gyártók lépése is érthető. Jelenleg a diszkrét asztali VGA-k piacán szart sem keresnek (ha keresnek is valamit). Be kell vezetni ezt az új luxuskategóriát luxusárral, ami nagyon drága lesz. Egy piac csak addig jó, amíg pénzt keresel rajta, amint ez mondhatni önhibádon kívül megszűnik át kell gondolni a lehetőségeket.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Lassabb lesz nála, de nem számít, mert a HD 5970 gyártása leáll, nem kell vele versenyezni.
(#196) Boxi88: Jelen pillanatban úgy áll a dolog, hogy ez nagyon nem így lesz. Anyagilag nem kifizetődő a GTX 460-akat olcsóbban adni. Jön egy GTX 560 új árral és a GTX 460 eltűnik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Miben korlátozottabb a DX10-11, mint az OpenGL megfelelő verziója?
A BattleForge nem költötte el a sebességet extra effektekre. Más fejlesztő ezt megtette. Miért baj ez. Megtehették volna mondjuk azt, hogy az adott effektet lekódolják DX9-be, csak nem lenne olyan kártya, ami jó sebességgel futtatná.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
De csak azért, mert a legtöbb DX11-re tervezett effektnek a programozók csináltak egy DX9-es eljárást is. A BattleForge is ezért gyorsul, mert a HDAO-nak van DX10-es kódja. Ha ezt több játékban be lehetne állítani, akkor mindenhol gyorsulás lenne az eredmény, csak ezt azért nem játsszák meg a fejlesztők, mert egy HDAO úgy sem menne DX10-ben jól. Erre tökéletes példa a Stalker SoC. Mindenképpen DX11-es kártya kell, mert a régi kártyák sebességben kevesek az effektre. Sokan ezért nem látják az értelmét DX11 alatt leképezni a modern eljárásokat.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mert a gyakorlatban senki sem írja meg a DX11-es effekteket DX11 alá. Úgy vannak vele a fejlesztők, hogy sebességben használhatatlan a post process az LDS és a Gather4 nélkül. Ez amúgy nem meglepő, a HDAO DX11-ben például 7x olyan gyors, mint DX10-ben. A Diffuse DoF-nak is van DX10-es verziója, de 15x lassabban fut, mint a DX11-es. Ilyen sebességkülönbség mellett nincs értelme engedélyezni az effekt futását DX11 alatt.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A pipeline optimalizálás alapból él. Ezt láthatod, ha nem raksz extra effektet a DX10-es kódba a DX9-hez képest. Ez átlag 1-5%-ot kínál pluszban. A compoute shader miatt gyorsabb a HDAO 7x és a Diffuse DoF 15x. Jelenleg ezek a legelterjedtebb részek a DX11-en belül. A probléma (ami látva a sebességdifferenciát nem is biztos, hogy probléma), hogy a HDAO-t és a Diffuse DoF-ot vagy más CS-re optimalizált Post Processt tiltanak DX11 alatt, mert szar lenne a sebesség.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Badman 4ever #246 üzenetére
Mert a két effekt nem jelenik meg DX11 alatti API-n. Nem engedik a fejlesztők, mert nem lenne értékelhető sebesség. Így nyilván DX11-ben nincs mihez képest gyorsulni, vagyis az effekt nélküli állapothoz lassul a rendszer, de bekapcsolhatók a DX11-es effektek, amik jöbb képminőséget eredményeznek.
Azt egyébként eldönthetik a fejlesztők, hogy a DX11 alatti API-kon rossz sebességgel futó effekteket engedélyezik-e. Általában nem teszik meg, de láttunk erre ellenpéldát is pl.: Stalker: SoC, BattleForge. Egyik játék sem játszható max. grafikával egy DX10-es kártyán. Még DX10.1-esen sem, pedig az is gyorsabb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Okos Otthon / Smart Home
- Samsung Galaxy Z Flip5 - ami kint, az van bent
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- HiFi műszaki szemmel - sztereó hangrendszerek
- Androidos fejegységek
- Linux - haladóknak
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- War Thunder - MMO Combat Game
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Parfüm topik
- További aktív témák...
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- XFX RX 6600 XT SPEEDSTER SWFT 210