Hirdetés
- Speciális tápadapterrel védene a leégés ellen a Thermal Grizzly
- OLED monitor topic
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- Hogy is néznek ki a gépeink?
- Raspberry Pi
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Hobby elektronika
- VR topik (Oculus Rift, stb.)
- Apple asztali gépek
Új hozzászólás Aktív témák
-
-
Petykemano
veterán
válasz
FLATRONW #47850 üzenetére
"Pont az NV fog Intel gyártásra menni azok után, hogy jól megégették magukat a Samsunggal."
valóban úgy tűnhet, hogy megégették magukat, de...
1) ez valószínűleg inkább csak presztízsben mérhető, vagyis, hogy az AMD látszólag veszélyesen közel került teljesítményben. Viszont abu mondott valami olyasmit, hogy az nvidia csak a jó lapkákért fizetett és elég alacsony árat. És azt se zárnám ki, hogy akkortájt a konzolchipek mellett talán a samsungé volt a nagyobb kapacitást kínáló/lehetővé tevő ajánlat.
2) de ami a mondanóm lényege, hogy a Samsung gyártástechnológiája híres arról, hogy elsősorban sűrűségben tudnak lépést tartani, magasabb frekvencián viszont durván elszáll a fogyasztás. (Talán épp azért, mert nagyobb tranzisztorokat raknak sűrűbben)
Az Intel gyártástechnológia viszont épp ezzel ellentétes karakterisztikát mutat. Gondolj csak arra, hogy a raptor lake Intel 7 gyártástechnológián készül, ami a korábbi 10nm, tehát ez a TSMC nomenklatúrájához.viszonyítva 7nm-es osztály és mégis magasabb frekvenciát tud elérni vele az Intel CPU, mint az AMD. (Persze ebben nyilván nem kizárólagos faktor a gyártásechnológia)Szóval én egy olyat el tudnék képzelni, hogy a mainstream konzumer lapkákat, ahol nem tényező a reticle limit, az intelnél gyártsa.
-
gejala
őstag
válasz
FLATRONW #47744 üzenetére
Intelnek egyik nagy baja, hogy ez a Nehalem óta görgetett ringbus 10 magig bírja a strapát. Comet Lake-ben kihozták a 10 magot i9-re, aztán Alderrel megpróbálták ezt a limitet trükkösen megkerülni az e-core történettel. Akkor sikerült is, de Raptornál máris túlfeszítették a húrt. Nincs értelme tovább kerülgetni a csapdákat, kell egy alapjaiban új architektúra.
-
huskydog17
addikt
válasz
FLATRONW #47393 üzenetére
Igen, mert pályánként, sőt pályaszakaszként masszívan más eredmények jönnek ki, erre a CB fel is hívta a figyelmet, hogy az eredményeiket megfelelően kell kezelni:
"Die Performance von WRC und auch die Reihenfolge bei den Grafikkarten-Benchmarks ist stark von der Strecke abhängig. Die von ComputerBase durchgeführten Testreihen zeigen die korrekten Ergebnisse, doch sind diese nicht allgemeingültig für das Spiel, sondern gelten eben nur für gewisse Strecken beziehungsweise Abschnitte. Entsprechend kann es vorkommen, dass Benchmark-Ergebnisse einer anderen Strecke völlig andere Ergebnisse ergeben, dennoch wären beide Testreihen korrekt."
A játékban ugyan a performance masszívan változó dolog, viszont két dolog fix: shader compilation stuttering és traversal stuttering, ezek mindig ott vannak, minden pályán.
#47394 ETOM: UE4 powaaa: Iszonyat szarul fut a game, de legalább rondább is, mint az elődje.
-
HSM
félisten
válasz
FLATRONW #47124 üzenetére
Összedugják a fejüket, hogy milyen adatokból, a futószalag melyik pontján kéne egy ilyen technológiának szerepelenie, és milyen kimenetet kell adnia a játéknak. Onnantól kezdve a belső működés már mindenki magánügye lehetne. A DLSS is maradhatna a saját technológiájuk, az FSR is maradhatna nyílt.
A játékfejlesztői wrapperek és a streamline is ezt próbálja, de ez utólag már foltozgatás, ezt előre kellett volna jó alapokra építeni, ami mindegyik érintett igényeinek megfelel."Az a baj, hogy közös szabvány esetén nem igazán tudnának egymással versenyezni."
Miért ne tudnának? Mennyire terheli a hardvert, milyen a képminőség, temporális stabilitás? Bőven van hol versenyezni.#47125 b.: Ezért kéne összeülni, megegyezni.
#47126 FLATRONW : Miért ne lehetne? Régen ilyen volt pl. az anizotróp szűrés. Szabvány volt, de bizonyos VGA-kon jobb minőségben dolgozott. Pl. a HD6800-6900 széria ezen javított az előző generációs Radeonokhoz képest [link] .
#47129 Busterftw : Nem tudom, mit akarsz bizonyítani a listáddal. Talán azt, hogy évek óta van szabvány és innováció is? Miközben ezt tudom írni egy USB-C-s dokkolóról, USB-A-s perifériákkal?
#47133 Busterftw : A scaler ugyanúgy működhetett volna szabványos alapokon, sok fejfájást megspórolva az érintetteknek. De inkább a lock-in-t preferálták.
-
válasz
FLATRONW #47128 üzenetére
Én is ezt gondolom,főleg,hogy van 200 DLSS játék,ami nem szponzorált,függetle n döntés.
proci985:
Ezt a forgatókönyvet már olvastam valahol,hogy azért hozta a Gsyncet ,mert jön a freesync,csak nem igaz szerintem .
AMD a Gsync bejelentése után valami kiállításon egy laptopon mutogatta a freesync korai verzióját ami azt hiszem egy meglévő technologia volt. -
válasz
FLATRONW #47126 üzenetére
Ilyesmi lenne jó.
AMD és Intel kb úgy gondolkodik, hogy hoznak egy általános megoldást és néha azon felül hoznak egy specifikust, mint mondjuk az AMD féle framegen nem FSR3 változata vagy Intel XeSS nek is van olyan verziója, ami csak Intelen fut és jobb minőséget ad de van egy általános is.
Nvidia hoz egy frankó megoldást, viszonylag jól megvalósítja, de mindig kizár valamilyen hardvereket a körből vagy ahhoz köti őket és az alap általános támogatást nem szorgalmazza.Ez alól az RT a kivétel, mert a Microsoft DXR adja az alapot , egy szabványra épül, azt maximum gyorsítani lehet speckó hardverekkel és megoldásokkal de az alapok adottak.
Ugyanezt meg tudta volna oldani Gsyncnél is, hogy hoz egy alap adaptiv támogatást minden Nvidia kártyára aztán hardverhez köti a jobb minőségű Gsync-et vagy egyes szolgáltatásokat.
DE erre én nem az olyan open megoldásokat látom megfelelőnek, amik egyetlen VGA gyártótól származnak vagy ahhoz köthetőek. -
arabus
addikt
válasz
FLATRONW #47090 üzenetére
Te valami nagy szakértő vagy.
Fsr3 driverben is lesz azt nem tudja az nvidia megtiltani.
Egyébként valószinüleg jó lesz az fsr3,mert nagyon rezeg most az nvidia.
De remélem legalább az intel gpu-k is feljönnek vele annyira hogy ne legyen ennyire nyeregben az nv mert a felhasználóknak ez semmiképp sem előnyös. -
HSM
félisten
válasz
FLATRONW #47080 üzenetére
Először is, senkitől nem akarok elvenni semmit...
Másfelől elég érdekes az álláspontod, miszerint azt írod az FSR-re hogy "az tényleg egy hulladék megoldás", ugyanakkor azt várod, hogy a konkurencia megoldása meg jó legyen?Ugyan mitől lenne jobb, ugyanezt csinálja.
Én a saját szememmel láttam, melyik mit tud, a nagy szakadék ott van, amikor nem natívban indítod, az FSR/DLSS között viszont már nagyítóval kell keresni a különbségeket...
Egyébként a szabvány sem azt jelenti, hogy csak egyformán sz@r megoldása lehet mindenkinek...#47081 Busterftw : Úgy, hogy két különböző, független dolgot jelentenek.
#47084 FLATRONW : Én 1080P-n és 1440P-n próbáltam őket. De 1080P-n már alapból nagyon kevés a pixel, onnan hova csökkented már?
-
huskydog17
addikt
válasz
FLATRONW #46982 üzenetére
Az is előfordulhat, illetve talán úgy működik a játék, hogy figyeli a kimeneti felbontást és ahhoz köti a VRAM fogyasztást. Én legalábbis erre tudok tippelni, hogy a rendering felbontás helyett a kimeneti felbontás alapján foglalja a VRAM-ot.
#46983 b.: Erről lemaradtam, továbbá az angolom nem annyira jó, hogy mindent megértsek belőle. Van erről valahol magyar nyelvű leírás, hogy itt mi is történt, miről van szó? Köszi előre is!
-
PuMbA
titán
válasz
FLATRONW #46807 üzenetére
Én sem értem ezt a kötelező logózást, mert szerintem nem kötelező. Marvel's Spider Man Miles Morales. Én itt nem látok indításkor NVIDIA logót, pedig ebben a játékban is van DLSS. RDR2-ben sincs NVIDIA logó, csak a Cyberpunk 2077 esetén tudom, hogy van, de ott is 8db logó közé rakva és pirosan, tehát még az NVIDIA zöld színe sincs használva.
-
huskydog17
addikt
válasz
FLATRONW #46598 üzenetére
A beszámoló alapján a grafikai szint megközelítőleg sem indokolja a brutális gépigényt, én személy szerint viszont nem ismerem (nem is fogok soha hozzányúlni, mert alapból a játék témája se érdekel), még korábban néztem meg az első in-engine trailert az mondjuk tényleg jó ronda volt.
Úgy látom már elkezdtek róla özönleni a gameplay videók különböző videósoknál.
A Shadow of Mordor legalább annak idején korrekt PC portot kapott, az még valahogy ki is nézett (nyilván korához képest). -
Yutani
nagyúr
válasz
FLATRONW #46587 üzenetére
Jöttök mindig ezzel a "problémás az AMD" kifogással. Polaris-t a kezdetek óta használok, most is van ilyen egy kisebb gépemben. Utána RX 5700-at használtam, majd RX 6600XT-t, és kb 1 éve egy 3060 Ti-t. És tudod, mit? Pont annyi problémám van a 3060 Ti-vel, mint előtte bármelyik AMD kártyával. Vagy én vagyok rohadt szerencsés, hogy nem futottam bele problémákba, vagy fel van fújva ez az egész. Vagy rövid az agyam és nem emlékszem semmire.
Mondjuk ahányféle build van, nem csoda, ha valami előjön. Akár itt, akár ott.Szerk: Nem probléma, de nekem hiányznak az NV esetén azok a funkciók, amik az AMD esetén elérhetők driverből (tweak, stb). Ha bármit állítani akarok a kártyán, akkor Afterburner. AMD-nél ez adott volt. Ja, itt volt egy probléma, időnként elfelejtette a driver a beállításokat az AMD szoftver. NV-nél nincs ilyen gond, mert nincs is mit beállítani.
-
Kolbi_30
őstag
válasz
FLATRONW #46415 üzenetére
Személy szerint, amikkel játszom, azokban csak FSR 1 van..Egy MMO 4k felbontáson nekem jobban tetszik bekapcsolva mint ki, valamiért. Wows ban amig jatszottam vele ott is bekapcsoltam, bar ertelme nem volt, on/off nem lattam kulonbséget.Aztan The Hhunter Call of the Wild, szintén 4k ez csont NV jaték. FSR mellett a fények jobbak, viszont a fak es a levelek változnak, kicsit.De nem azt figyelem. Összegezve szamomra latványilag inkabb jobb mint nem, de ez szubjektiv vélemény. Minden általam jatszott jateknal.Black desert ingyen kiprobalható 7 napig, ha valakii ránézne.
-
huskydog17
addikt
válasz
FLATRONW #46219 üzenetére
Azzal is voltak gondok megjelenéskor. Ott is sok akadás volt, ami erősen függött a CPU-tól, de legalább a VRAM igénye annyira alacsony, hogy még 4K-ban is elegendő a 6 GB.
Azt nem tudom, hogy azóta az akadásokat sikerült-e javítani. Amúgy érdekes módon a Days Gone is pont arra mutat rá, illetve bizonyítja, hogy a Hogwarts-nál valamit kegyetlenül elcsesztek a VRAM használatnál.#46220 b.: A DLSS-el is vannak gondok, sok az úgynevezett smearing jelenség, valószínűleg ez majd javítva lesz, vagy akit zavar, az ki tudja cserélni a DLSS verziót. Szerencsére ebben a címben van olyan jó a sebesség, hogy nem feltétlen szükséges a DLSS. Igen, FSR-ből sajnos csak az első generáció került bele, ezért olyan ocsmány a minősége.
-
Raggie
őstag
válasz
FLATRONW #46180 üzenetére
A bugok keresése és a tesztelés szempontjából a gyártók felől nézve egyáltalán nem számít a piaci részesedés, csak a VGA modellek száma.
Kb ugyanannyi VGA típus van a két oldalon, tehát ogyanannyi fajta hardveren kell letesztelni a dolgokat. De mivel egy játékban lévő bugot nem feltétlenül gyártói feladat megtalálni és kijavítani ez nem is annyira lényeges szerintem.
A játékfejlesztői oldalról viszont nagyon is számít a piaci részesedés, mert azt szeretnéd, hogy a lehető legtöbb felhasznló jusson lehető legjobb élményhez. Magyarán ha racionálisan szeretnéd elkölteni a tesztelési időt akkor a legnagyobb részedeséssel bíró VGA-któl haladsz a legkisebb részesedéssel bíró VGA-kig. Így tehát favorizálva lesznek az NV kártyák és az azokon előjövő grafikai bugok hamarabb lesznek kijavítva.
Szerntem ez így logikus. -
Raymond
titán
válasz
FLATRONW #45987 üzenetére
Ezek a kartyak 2+ eve jottek ki igy jo eselyel vannak ott 1+ eves kartyak amiket a bolt mar nemigen gariz es a gyartohoz kell fordulnod.
Ettol fuggetlenul kar hogy azonnal a driverre koncentral mindenki aki a hirt felkapta pedig a videoban a szerzo ezt nem mondja csak annyit hogy az egyetlen kozos pont az volt es kene tobb adat tobb felhasznalotol.
Friss a dolog, majd meglatjuk merre megy a napokban, ahogy neztem der8auer es Builzoid is bekapcsolodott es az utobbi hetek akcioi utan az AMD se fog talan ucsorogni es varni.
-
Pug
veterán
válasz
FLATRONW #45810 üzenetére
Az ugye megvan, hogy az alábbi két kiemelt mondat üti egymást?
"Nagyon komolyan veszik a tűzveszélyes készülékeket. 2015-ben szinte az összes Shield tablettet visszahívták, mert volt valami gond az akkukkal. Az enyém is beletartozott és Európából még vissza sem kellett küldeni a régit, a helyi hulladék szabályoknak megfelelően kellett volna megszabadulni tőle."
-
paprobert
őstag
válasz
FLATRONW #45461 üzenetére
A youtube-on található GCN fix órajel és feldolgozószám összevetés. Effektíve egy "GPU IPC" teszt. Talán a Digital Foundry csinálta, már ködösek az emlékeim.
A feature-ök ellenére alig volt egy számjegyű a fejlődés a generációk között, szinte minden gyorsulás csak az órajel és a feldolgozók növekvő számának volt betudható.
-
Petykemano
veterán
válasz
FLATRONW #45456 üzenetére
Maga a Vega 10 chip lehet, hogy a GCN legalja volt, de érdekes módon a vega architektúrát mai napig értékesítik és elég jó frekvenciákat elér és tudtommal jó energiahatékonysággal dolgozik. Talán tényleg nem véletlenül volt a Navi kitűzött célja a scalability.
Szerintem egyébként már aligha beszélhetünk FineWine-ról. Nem is tudom, hogy pl a legutóbbi OpenGL és DirectX11 újraírásból fakadó előnyből a promozótt 6000-es széria alatt részesült-e bármi?
Máskülönben FineWine-ról addig beszélhettünk, amíg a generációk között GCN alig-alig változott.
-
Busterftw
nagyúr
válasz
FLATRONW #45230 üzenetére
Amugy a fenti beszelgetest olvasva en is erre jutottam, nagy altalanossagban az igaz, hogy Nvidia-val eleg regota nem lohetsz nagyon melle. A nagyobb piaci reszesedes is lehet selling point, mert kb mindenkinek az erdeke, hogy menjen vele minden.
Mar ezek miatt is siman fizetnek kicsivel tobbet a nepek.
-
Pakmara
őstag
válasz
FLATRONW #44872 üzenetére
Nekem meg a 3070 Ti VS 6800 a fura. Teljesítményben közel van a kettő, gaming fogyasztásban a 6800 kb a leghatékonyabb kártya bármilyen teszt oldalon. Itt Ti:298 W, RX: 223 W-ra jön ki a fogyi, 60 Fps-re vetítve viszont elveri a 3070 (91 W VS. 119W az RX-nél.) Sőt elvileg a 3090 is csak 119-et eszik.
-
Raggie
őstag
válasz
FLATRONW #44858 üzenetére
TPU perf/dollar mutató: LINK
Lényegi rész belőle(1080p-s grafikon alja):
Német(Európai) piacon kapható és elérhető legolcsóbb RTX 3050: ~470 EUR
Német(Európai) piacon kapható és elérhető legolcsóbb RX 6500 XT: ~270 EUR
A grafikonban dollár van eur helyett, de az arányok ugyanazok. A kettő közül egyértelműen a 6500-as a jobb.
Mondjuk RX 6600-as már kapható ~450 EUR-ért amivel jobb helyezése lenne mint a grafikonban az 500-assal, de szerintem nem érné utol így sem az RX 6500-ast. -
Raggie
őstag
válasz
FLATRONW #44814 üzenetére
Azért nem kérhetnek el annyit érte, mert annál már olcsóbban van RX 6600 vagy RX 6600 XT és azok meg bőven jobbak, mint a 3050.
@#44813 b. : persze, de aki kártyát akar venni nem biztos, hogy abban az 1 másodperceben keres rá, amikor van rtx 3050. A többi embernek meg marad 650 EUR-ért. De annyiért szarabb vétel.
Akik MSRP közeli áron tudnak venni ott nyilván jobb vétel a két kártya közül a 3050. De az álalánosan elérhető piaci áron viszont jobb a 6500.
Szerintem. -
Abu85
HÁZIGAZDA
válasz
FLATRONW #42740 üzenetére
Ez egy időbeli probléma csak, a funkció működik, de be kell paraméterezni. Azért lát az NV lassulást, mert ez még hiányzik az egyes játékokra. A gond az, hogy az AMD a SAM-et 2019 elején kezdte el fejleszteni. Az NVIDIA 2020 nyarán. Egyszerűen hiányzik az a másfél év, ami alatt az AMD kitesztelte az összes játékot. 2022 közepére az NV is el fog érni az összes címig, addig fokozatosan hozzáadják az egyes címeket. Sajnos a paraméterezés az pepecselős meló. Le kell ülni, és egyenként be kell lőni az egyes játékokra a működést. Ezt nem lehet siettetni. Amint kész lesznek ezzel a melóval, az NV sem fog lassulást látni a játékokban. Minimális eltérés egyébként bármikor előfordul, de ha 3%-on elül van az mérési hiba is lehet.
#42739 AsakuraDave : A 3060-ra fel van rakva a VBIOS. A többi hardverre még nem készült el, de nem ez a prioritás jelenleg, hanem növelni kell a támogatott játékok számát.
-
Yutani
nagyúr
válasz
FLATRONW #42434 üzenetére
Én meg azt olvastam, hogy az NV írta a kódot, csak elérhetővé tették a többi gyártó számára is. Így nem csoda, hogy szarul fut AMD-n. Szarabbul, mint indokolt lenne.
AMD RX 6800 XT runs at almost half the frame rate of Nvidia's RTX 3080 in Vulkan Ray Tracing tests
-
Shing
őstag
válasz
FLATRONW #41190 üzenetére
Nem használ milliárdnyi poligont, de a LOD rendszer le van tiltva, megascan-es assetekkel, 8k textúrákkal. Plusz van RT is. Szóval nem csoda ha játszhatatlan.
Screenshotokon nagyon szép, ügyes hogy ilyen gyorsan megcsinálta. De szerintem láttunk már szebb rendereket is. -
Kolbi_30
őstag
válasz
FLATRONW #41114 üzenetére
ha minden fertozottet fejbelonenek akkor meg gep sem kellene es 20 forintbol meg lenne oldva...
De wz a jarvany meg total tul van porogve. Eddig csak az halt bele aki amugy is kb meghalt volna 2 honapon belul..De legalabb kiruugtak, mert lelottek a projekjeimet, miatta..
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #40333 üzenetére
Nincs baja vele, ha az engine verziót a target RHI-vel használod. Vagy esetleg módosítod, hogy működjön az explicit parallel RHI. A Respawn nem módosította, illetve a fallback RHI-t használja. A 4.21 óta az UE4 target RHI-ja a VulkanRHI. Működik a fallback DX11, de már magát az RHI-t nem erre az API-ra írták. Ez jelentősen befolyásolja a feldolgozást, mert az Unreal Engine a 4.21 óta explicit parallel RHI-ra van optimalizálva, és fallback mellett ez nem használható.
Ugye itt nagy kérdés, hogy mi lesz, mert a The Outer Worlds is így jelent meg, de ott ugye kapásból mondták, hogy hoznak egy DirectX 12 módot később, amivel lesz explicit parallel RHI, amivel sokkal gyorsabban fut az Unreal Engine 4.21-es verziója.
-
keIdor
titán
válasz
FLATRONW #40301 üzenetére
Már a Turing megjelenésénél kielemezték, hogy sokkal jobb DX12-re és Vulkan-ra egyaránt.
Nagyvonalakban csak erről van szó, az RDR2 pont ezeket használja.
A Pascal meg 3 és fél éves (2016. május, GTX-1080) már és az még DX11-ben tündökölt.
Ma már nem ezzel az API-val jönnek a játékok.
Nyílván az is közrejátszik, hogy kifutott széria, nem kapni újonnan és nem is kap már akkora figyelmet optimalizálásnál sem a fejlesztőktől sem az nVidiától. A cél, hogy vegyél inkább RTX-et, ebben a játékban gyorsabbak is, már egy RTX-2070 Super is.
A Vega is megveri a GTX-1080-at, pedig régebben alatta volt, most már felette.
A történelem ismétli önmagát, mert a Kepler is lehalt nagyon idővel, régen verte a GTX-780Ti a 290X/390X-eket, később beelőzte az AMD. -
Abu85
HÁZIGAZDA
válasz
FLATRONW #40114 üzenetére
[link] - ezen ne csodálkozzunk, az Unreal Engine 4 DirectX 12 leképezője sok szempontból nagyon elavult. Az Epic a Vulkanba rakja a pénzét, és a DirectX 12-t nem fejlesztik vele, vagyis ezt a licencelőknek kell megcsinálni. Ha erre nincs erőforrás, akkor inkább ajánlott a Vulkan leképezőt használni, mert azzal foglalkozik az Epic.
-
Egon
nagyúr
válasz
FLATRONW #40069 üzenetére
Nemtom, ki kellene próbálni, de nekem nincs olyanom (ha valakit érdekel, és van olyan kártyája, szívesen megadom hozzá az inputot privátban).
Annyit tudok, hogy a 2080 Ti-nek szűk 2 óra a becsült futási ideje, a 1070-emnek kb. 6.5 óra volt (a feladat jellegéből adódólag, lehet hogy a tényleges számítással fele ennyi idő alatt végez; elvileg a becsült futási idő a releváns, mert az a maximum ami alatt ténylegesen végezni fog). -
Abu85
HÁZIGAZDA
válasz
FLATRONW #40022 üzenetére
Ez a játék DX12-ben tele van furcsa dolgokkal. Az erőforrás-korlátozásoknál iszonyatos, hogy mik vannak. A szinkronizáció ránézésre is eléggé rossz, mert sok a fences, ami azért baj, mert minden ilyen művelet az összes cache ürítését vonja maga után, legalább egyszer, de bizonyos esetekben további szinkronizációs műveletek szükségesek. Itt veszik valószínűleg el a sebesség a DirectX 11-hez képest, mert ugyan a fences fontos funkció, de a túlzott használata nagyon káros. A képi hibák DirectX 12 alatt valószínűleg a rosszul felépített szinkronizációhoz kötődnek, mert az erőforrás-korlátozások nem megfelelő használata bőven okoz hasonló grafikai bugokat, és minden bizonnyal a fences is emiatt van sűrűn használva, mert valamennyire kezelik vele az alapból rosszul felépített szinkronizálást. Csak ez teljesítményben drága, és minden amit nyernek a DirectX 12-n, azt elvesztik itt, plusz még grafikai hibák is vannak.
Ezt rendbe lehet egyébként hozni, bár ez a DirectX 12 legnehezebb része. A legtöbb programot így ki sem adják DirectX 12-vel, mert lerí róla, hogy szarul működik a leképezője, és ez a mód inkább jön egy patch-ben.
A QB ehhez képest sokkal jobb volt, nem tudom, hogy mi ment félre, de gondolom a motort is átírták rendesen.
-
GodGamer5
addikt
válasz
FLATRONW #38741 üzenetére
Pont ez a lényeg anno a 7950-et sokkal olcsóbban vettem újonnan mint a konkures kártyákat és 3 giga ram volt rajta, az addig megszokott 1-2giga helyett. Most meg mindent a konkurenciához mérnek...
Hwaprón meg október közepe körül 80k-ért már kifogtam 1070-et, a Vegák meg még most is 90 körül mennek használtba. -
proci985
MODERÁTOR
válasz
FLATRONW #37944 üzenetére
masban voltak jo.
a far cry 2 hangulata nekem a mai napig kedvencem. tavaly vegigtoltam megint az 5re varva es van abban valami szep, amikor a 10 eves jateknal harom kijelzon tolva meg mindig volt, hogy megalltam gyonyorkodni a tajban. mechanikailag pedig ma is pont ugyanolyan jo (rossz), mint a megjelenesekor volt.
meg ott volt az idojaras modellezese.
mondjuk tulzas nelkul infamouson az utobbi 10 ev egyik legnehezebb fpse.
-
szmörlock007
aktív tag
válasz
FLATRONW #37944 üzenetére
A far cry 2-ben ami engem anno igazán lenyűgözött, az a környezet. A korhoz képest gyönyörű növényzet volt abban a játékban. Sőt szerintem a növényzet ma is megállja a helyét. És a szél. Mai napig emlékszem, amikor az amúgy is nagyon szép tisztáson gyalogoltam és egyszer csak elkezdett fújni. A fű, a fák minden annyira természetesen mozog. A tűz is nagyon jól terjed, hat rá a szél stb.
-
-
proci985
MODERÁTOR
válasz
FLATRONW #37687 üzenetére
magas felbontasban (5760x1080) nalam a 970 ugy produkalt mikroakadast far cry 4 alatt, hogy kozben 40-45 fpsem volt.
forumtarssal teszteltunk DSRrel 4Kban, neki a 980 picit gyorsabb volt, viszont nem produkalt mikroakadast. a 290X sem.
1080pben persze ez nem volt problema, de en 5760x1080ra vettem es eredetileg SLIt akartam.
-
Loha
veterán
válasz
FLATRONW #37553 üzenetére
A G-Sync modullal szerelt monitoroknak nincs alsó frissítési határa (függetlenül a használt paneltől), tehát 1Hz - 240Hz (vagy a monitor által tudott max.) között működik, alacsony inputlaggal, adaptive overdrive-al, amit szintén nem alapértelmezett FreeSync-es monitorok esetén...
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Sorozatok
- Hálózati / IP kamera
- Gitáros topic
- Kerékpárosok, bringások ide!
- PlayStation 5
- Speciális tápadapterrel védene a leégés ellen a Thermal Grizzly
- World of Tanks - MMO
- OLED monitor topic
- Eredeti játékok OFF topik
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- További aktív témák...
- Pcie 5.0 ATX 3.0 12Pin - 16Pin Moduláris Kábelek És Adapterek 12VHPWR 12v2x6 Egyedi Harisnya Nvidia
- BESZÁMÍTÁS! Sapphire NITRO+ RX 5700 XT 8GB videokártya garanciával hibátlan működéssel
- BESZÁMÍTÁS! Intel Arc B580 12GB Limited Edition videokártya garanciával hibátlan működéssel
- BESZÁMÍTÁS! GIGABYTE AORUS MASTER RX 6800 XT 16GB videokártya garanciával hibátlan működéssel
- BESZÁMÍTÁS! Sapphire Nitro+ RX 6800 XT 16GB videokártya garanciával hibátlan működéssel
- Bomba ár! Lenovo ThinkPad X280 - i5-G8 I 8GB I 512GB SSD I 12,5" FHD I HDMI I Cam I W10 I Gari!
- Telefon felvásárlás!! Apple Watch Series 6/Apple Watch Series 7/Apple Watch Series 8
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X3D 32/64GB RAM RTX 4070 12GB GAMER PC termékbeszámítással
- DELL PowerEdge R630 rack szerver - 2xE5-2680v4 (28c/ 56t, 2.4/3.3GHz), 128GB RAM, 10G, áfás szla
- Telefon felváráslás!! Samsung Galaxy S22/Samsung Galaxy S22+/Samsung Galaxy S22 Ultra
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest