Hirdetés
Új hozzászólás Aktív témák
-
Lord Myn
senior tag
2011-ben jött ki a játék, 2008-ban vette meg a PhysX-et az nVidia és a 8xxx-es széria volt az első amiben támogatást kapott (első generációs CUDA), azért mert a min. követelmény 7600-os VGA, attól még lehet benne HW PhysX támogatás...
Példaként a Batman AA-nak csak GF6600/ATI1300-as VGA a minimum követelmény.
-
Pikari
addikt
A madness returns 2 ghz-es athlon2 mellett és x1650-es radeonnal - ami minimumnak van feltüntetve - kb 4 fps-t tud alapbeállítások mellett, volt szerencsém nemrég épp egy olyan konfigon játszani vele
De 4850-en már szárnyal, ahogy kell. Szóval nem hiszem, hogy bármit megfektetne.
-
Werkly
őstag
Az új szériát fekteti meg elvileg.
OS *: Windows 7 SP1, Windows Vista with SP2, Windows XP with SP3
Processor: Intel Core2 Duo (or equivalent) running at 1.60GHz or greater; AMD Athlon X2 (or equivalent) running at 1.60GHz or greater
Memory: 2048MB or greater
Hard Disk Space: 8.5 GB
Video Card: *NVIDIA GeForce 7600 256MB or ATI Radeon X1650 256MB or greater
Sound: DirectX 9.0c compatible
DirectX®: 9.0c
*NVIDIA GeForce 8400, 9400, 210; ATI Radeon HD 2400, HD 3200, HD 4300 as well as integrated versions of supported chipsets are below minimum system requirements -
Kansas
addikt
Mi is annak a gépigénye? Core2Duo 1,6GHz meg GeForce 7600/Radeon X1650? Az lenne még a szép, ha nem futna el röccenésmentesen a mai csúcs vason akár SW PhysX mellett ...
A Geforce 7600-nak még CUDA magja se volt, sőt, azon még külön volt a pixel shader a vertex shadertől... szóval nem csoda, ha a játékot nem érdekli a 32-bites CsUDA... -
Werkly
őstag
Előhalásztam a régi Alice Madness játékot. Minden csutkán természetesen Physx is smooth 4090-el.
-
Werkly
őstag
Hát azért érdekes:
[link] -
Lord Myn
senior tag
Lassan most már mindenben van RT, csak van ahol tényleg nem szembetűnő (pl. Silent Hill 2, Jedi Survivor), de van ahol ég és föld (pl. Alan Wake 2, Control, Hitman 3 - utóbbinál még játékmenetbeli különbséget is okoz a hiánya), illetve az Indiana Jones meg elővetítette azt a korszakot, amikor követelmény lesz.
-
hapakj
őstag
válasz
Lord Myn #212 üzenetére
Hát még ha érdekelne is az RT, akkor is RT képes kártya, ami egyértelműen jobb mint az 1080Ti (pl VRAM mennyiség) az is több százezer. Annyira azért nem izgat.
Másrészt nem nagyon játszok játékkal amiben egyáltalán lenne RT
Kb csak a Doom Eternal volt, dehát annyira azért nem ad hozzá.
-
Lord Myn
senior tag
Pl. pont az említett Indana... Normálisan csak High preset + High PT-vel megy, különben kifut a 12GB VRAM-ból (így is van egy pálya, ami határeset: 60 fps környékén ugrál néha).
Persze, ha nem érdekel az RT, akkor tényleg elég lehet egy 1080Ti is, RT nélkül én is bármivel tudok 4K Ultra-n játszani. -
hapakj
őstag
válasz
Lord Myn #210 üzenetére
Milyen játékok amiket már nem lehet kimaxolni egyébként?
Engem az akadályoz meg az 1080 Ti leváltásában, hogy kb csak a 4070 Super Ti-t tartom minden tekintetben jobbnak nála
Kb semmi nincs amihez jobb VGA kellene ami érdekelne, s még így is sok minden van a listán. Még a 2023-as Mortal Kombat 1 is automatikus mindent maxra húzott és jól is ment
Indiana, meg a Doom Dark Ages érdekelne, de csak emiatt fél milliót kiadni nincs nagy kedvem.
-
Lord Myn
senior tag
Nekem azok is számítanak (DLSS+RT), így a Radeon szintén nem játszik (már a PhysX hiánya miatt sem, ugye...
). Egyébként (még) nincs gáz a 4070S-sel, de már 1-2 játéknál vissza kell venni a Full-fullból, azért is írtam, hogy valamikor idénre terveztem a VGA cserét, nem most rögtön, de a PhysX hiányától eltekintve sem vagyok elájulva az 5xxx-es szériától.
#208Pikari: Én meg mindennel játszom, több, mint 1000 játékot (Steam/EPIC/Ubi/EA/Rockstar, de legfőképp GOG és dobozos, hiszen ami nem indul offline az nem teljesen a tiéd!) gyűjtöttem össze az elmúlt 30 évben, így van amikor egymás után játszom a FF7 Rebirth-tel, utána meg a Lands of Lore-ral.
-
hapakj
őstag
válasz
Hellwhatever #202 üzenetére
úristen egy fórumon nem szabad témát váltani és kommentet írni
-
DigitXT
félisten
Hát a TV az megint egy másik történet, alapból 50Hz volt, villogó borzalom: amikor kijöttek a 100Hz-es TV-k, na az már kevésbé bántaná a szemet, csak hát arany ár... (Abszolút egyet tudok érteni, szintén csak egy ilyen kis gyösz maradt. Sose nézzük: egyszer még anno az FX5200-at rákötöttem, és azon írtam valamit Wordben. Nézte sógornőm nagy szemekkel, hogy mit csináltam a TV-vel?! De csak poén volt: ebben mondjuk pont jó volt az FX5200, kiváló TV-kimenete volt. A TV felbontása? Szar.
)
-
Pikari
addikt
Én nem sírom vissza ezeket az agyrákgenerátorokat, épp tavaly cseréltünk le minden CRT tv-t végleg a családban. Volt még náluk is kettő üzemben, meg a nagyszülőknél is kettő. Az utolsó CRT tv, amit lecseréltem, az egy hónapja volt, az a saját TV-m volt. Egy kicsi CRT tv van vésztartalékban eltéve, de ki fogom dobni azt is.
-
DigitXT
félisten
Valami durva elektroszmog, vagy bermudaháromszög, vagy nemtommi lehetett nálad, mert az, hogy évente hullottak a CRT-k, az súlyos.
Nekem megvan még az a 20 éves cumó, barátnőm régi családi házában (jó lesz majd elhozni, azt aláírom), ami anno tök menő (22" vagy mekkora) volt, az ég világon semmi baja nincs. Szerettem, LCD-t soha. Mármint nem szerettem. És nem is vettem otthonra... 2008-ban egy HD Ready TV, ami nagyon sokáig kiszolgált, és legalább nem kellett alá a világ összes VGA-ja. Aztán lett FullHD TV, majd most pár éve UHD TV. Most is arról írok. Igaz, fel van skálázva, de 43".
-
arn
félisten
nezd meg a 3dmarkok felbontasat, eleg jol prezentaltak, hogy mi volt a trend - amugy volt ami a csucskartyakon is rosszul futott, felbontastol fuggetlenul, igy ez nem igazan mervado. volt ami jol ment, es volt ami nem.
de ettol 99ben en mar 1024ben jatszottam, a 3dmark2000et sem veletlenul lottek be annyira. 2002+ben meg az atlag biztos, hogy nem 800x600ban nyomta, hanem 1024x768ban 32biten, vagy felette.
-
Pikari
addikt
Én úgy hallottam, hogy két fő probléma volt. Az egyik, hogy bennehagytak bizonyos régi dx8as és fixfunkciós áramköröket, mert nem mindent emuláltak rendesen shaderekből. Ez egy csomó tranzisztort elvitt, amiből a nyers teljesítmény lehetett volna növelni. A másik meg persze az, hogy a lebegőpontos műveleteket magasabb precízióval számolta, mint ami indokolt lett volna, mert csak az volt hardveresen implementálva, és ez is elvitt egy csomó teljesítményt.
Amúgy annyira nem volt szar, mint ahogy sokan emlékeznek rá, csak az emberek szeretik felnagyítani meg eltúlozni a dolgokat.
-
Ja, az Fx 5000 széria elég bünti volt.
Érdekes, hogy most is az 5000 széria sikerült megosztóra.
(Az AMD-nél meg a GCN4 és az RDNA4 arch. szól direkten csak a középkategóriának)
Szerintem ezek csirkelábbal dobnak valami számmisztikás varázsasztalon, hogy melyik szériát csesszék el.
-
Pikari
addikt
Ja, az persze, az egyéni szocprobléma volt, mert szerettem volna olyat, ami tud legalább 800x600ast, csak hát pénzbe került
Végül 2003-ban lett egy olyan 17 colos eizo monitor használtan, ami tudott 800x600at 85 hz mellett, és 1024x768at 75 hz mellett.
Nagyon szerettem azt a monitort, de megdöglött egy év után.
Aztán vettem egy másikat, ami már csak 75 hz mellett tudta a 800x600at (IBM), de az is megdöglött egy év után.
Aztán vettem egyet, ami ugyanúgy 75 hz és 800x600. Ezen az alján egy kis monokróm lcd kijelző volt, ami kiírta grafikusan a képernyő aktuális felbontását, meg hogy hány HZ. Ez nagyon menő volt. Csakhogy kb 40 kiló volt a monitor, úgy kellett ketten cipelni... De az is megdöglött egy év után.
Aztán lett helyett megint egy használt, na az úgy döglött meg, hogy elkezdett csattogni, aztán lángok csaptak ki az aljából. Szerencsére épp előtte ültem, úgyhogy ki tudtam húzni a konnektorból, hogy ne gyújtsa fel a lakást.
Na ekkor lett elegem a csodálatos fosköszörű crt monitorokból, és vettem egy 1360x768-as lcd monitort (19 col), amit kb 2010-től 2022-ig használtam. 2022-ben cseréltem le egy 23colos fujitsu ips-re (1920x1200), és most egy ideig szerintem ez a fujitsu fog maradni.
-
hapakj
őstag
hja, mi 98-ban már olyan monitort vettünk, ami tudta a 1024x768-at. Persze optimálisabb volt 800x600-ba használni, mert jobban illett az akkori Windows UI-hoz, meg ugye a 85Hz miatt.
2003-ban meg már az elég jó Samsung síkképcsöves monitorok is elég általánosak voltak 1024x768@85hz felbontással
-
Emlékeim szerint a Voodoo2 is hátráltatta a felbontás növekedését, mivel csak SLI-ben tudta az 1024x768-at, így más gyártók és a fejlesztők is sokáig megelégedtek a 800x600-as felbontással, vagy erre való optimalizálással - pl. sok játéknál a texturák felbontása nem volt elég az 1024x768-hoz.
Pikari: Nekem mákom volt, mert 800x600-ban még jól bírta a monitor, csak állítgatni kellett minden felbontás váltásnál a méretet (ahogy te is írod), meg a párna torzítást, viszont belefért és ki is töltötte a képet. -
DigitXT
félisten
De az, hogy konkrétan neked olyan volt (még 2003-ban is), ami 640x480-nál többet nem tudott, konkrétan egyéni szoc. probléma.
A linkelt statisztika sem azt jelenti, hogy ne léteztek volna (ad absurdum: ne lettek volna elterjedtek) nagyobb felbontású monitorok.
Egész konkrétan 1152x864-ben használtam a desktopomat egy 17"-os monitoron... És? Abszolút későn sikerült hardvert újítani, sose volt rá zseton, de monitor az volt értelmes. Mindig is halálom volt a kis képernyőbe görnyedés. (Erre tessék ma telefonokat nézünk agyba-főbe, cseszi is szét a szemet annak rendje és módja szerint... de ez másik sztori.)
-
hapakj
őstag
Hát nekem az általános 1024x768-ban játszunk az Geforce 6600-al jött el. Ott az újabb címeket, mint pl Oblivion kellett 800x600-ban játszani.
-
DigitXT
félisten
Nekem 2003-ig olyan monitorom volt például, ami csak 640x480at tudott.
Mondjuk ez erősen egyéni szoc probléma. Már egy 14" CRT-n is 800x600-ban toltuk sőt. Kicsit nagyobb monitoron valóban alap volt az 1024x768. Mármint desktopon: az, hogy utána a játék is ezen a "natív" felbontáson fusson, az egészen más történet. Nem ment.Teljesen általános volt, hogy desktop felbontáson csak dokumentumokat szerkesztesz, ám amint indul a játék, vált is a Multisync* monitor a beállított alacsonyabb felbontásra. Igen, a 640x480 abszolút elfogadható kompromisszum volt anno, bár sokkal jobb volt a 800x600, viszont pl. amikor átkapcsoltam az NFS:Porsche Unleashed-et 1024-be, akkor láttam, hogy ez lesz a jövő, csak épp diavetítés volt a Voodoo 2 kártyámon. Más kérdés, hogy mennyire elavult volt a 2000-es évek elején egy P1-es konfig Voodoo2-vel. Nagyon.
*: engem a 60Hz frissítéssel lehetett kikergetni a világból, már a 75Hz is megváltás volt, de igazán a 100Hz hozta el a használható (villogás-, és így fejfájásmentes) CRT világot.
-
Pikari
addikt
1999-ben játszható frameratehez 1024x768-ban a csúcs tnt2 kellett (az m64 vagy a pro verzió 64 bites, így az nem elég hozzá) (99 március), vagy a GeForce 256 (99 október), esetleg a voodoo3 (99 április).
Szóval ha a menő szót úgy érted, hogy az épp megérkező csúcskártyák képesek voltak rá 1999-ben, akkor teljesen igazad van. Én a menő szót úgy értelmeztem, hogy az átlagbéla ezzel tud gurigázni, erre viszont nem nagyon volt lehetőség akkoriban, az egységsugarú felhaszánlók monitorjai se nagyon szoktak 800x600-nál többet támogatni, szóval ennél nagyobb felbontást nem is nagyon volt értelme erőltetni abban az időben. Nekem 2003-ig olyan monitorom volt például, ami csak 640x480at tudott.
-
hapakj
őstag
válasz
Hellwhatever #169 üzenetére
És vettetek is már RTX 50xx-et? Mert akkor még nem vagytok azok között akiket érint ez a probléma.
-
Hellwhatever
aktív tag
Csak ebben a thread-ben vagyunk ezek szerint legalább ketten is, én is hajlamos vagyok régi kedvenceket elővenni új kártyával megzúgatni.
Ha nem is első helyes, de azért fontos szempont volt nálam eddig is a minél szélesebb effekt támogatás így 300+ Steam-es játék mellett.
Batmenek pl kifejezetten üresnek hatnak helyenként a PhysX-es effektek nélkül.
-
hapakj
őstag
Hát egyelőre szerintem azok is elég kevesen vannak, akik RTX 50xx-et vesznek és épp ezekkel a játékokkal akarnak retrozni PhysX bekapcsolása mellett. Ahogy néztem azok nélkül azért mennek a játékok, hisz eddig is mentek Radeonon pl.
Az meg még kisebb réteg lehet majd részemről, aki emiatt használ egy régebbi PhysX kártyát gyorsításnak és leáll majd odavissza drivert pakolgatniNah ez a szituáció kicsit vad nekem
Mondjuk szerintem sokan e helyett már beszereznek egy még támogatott low end kártyát.
-
Melyik része vad? Hogy új kártyát veszek, vagy hogy rendszeresen előveszem a kedvenc játékaimat? Én egyikben sem látok semmi extrémet - bár ha az NVIDIA szeretné, hogy ne vegyek tőlük új kártyát, éppenséggel nem vagyok meggyőzhetetlen
Nem tudom, mekkora a tábor, biztosan jóval kisebb, mint akinek el tudják adni a 6000. CoD / AC játékot is, de azt eléggé nehéz lenne megtippelni, hogy a mérete jelentős-e. -
hapakj
őstag
válasz
huskydog17 #162 üzenetére
Mint írtam a jövőben lehet gond megszűnt támogatású kártyával együtt használni az RTX 50xx-et. Azért ez nem 10 év távlatot jelent, hanem pl ha idén megszűnik a 10xx széria támogatása, már két év múlva is problémázhatnak új címek, hogy nem up-to-date a driver.
-
huskydog17
addikt
Persze, szélsőséges és rendkívül szűk réteggigény, de a lehetőség ott van. Aki például több száz FPS-el szeretné tolni aktív PhysX mellett ezeket a régi címeket, annak ott a lehetőség, hogy 5090 mellé egy dedikált PhysX gyorsítót rakjon.
Milyen régi driver? A Blackwell most jelent meg, azokat támogató driverek is. Nincs két hónapos. Ez hol régi?
Ha például a következő main driver branchnél az NV megszüntetné a Maxwell és Pascal vonalat, akkor még mindig van 2025-ös driver, ami támogatja azokat, mert az eddig megjelent Blackwell driver támogatják azokat. Tehát aki például egy GTX 1050-et akar dedikált PhysX gyorsítónak használni egy Blackwell mellett, annak van 2025-ös drivere. Egyelőre azonban értelmetlen tovább erről diskurálni, amíg támogatva van a Pascal, de ha már nem lesz még mindig ott Turing alapú GTX 1600 széria.
Ez ma még nem gond, mert rengeteg dedikált gyorsító közül lehet választani (Blackwell előtt kb. minden az). Olyan bő 10 év múlva lesz kérdés, hogy akkor mi lesz, ha esetleg addigra kihalna az összes olyan GPU, ami támogatta a 32 bites CUDA-t. -
Pikari
addikt
Eleinte nem nagyon volt olyan, ami nem indult el, mert sokaknak tnt2 m64 kártyák voltak a gépben, a játékoknak visszafele kompatibilisnek kellett lennie azokkal is. Aztán ahogy alsókategóriában is kijöttek a dx9 képes integrált kártyák (via/s3 deltachrome és újabbak, sis mirage3, intel gma 950) akkoriban olyan 2005/2006 között már elkezdtek nagy számban jönni azok a játékok is, amik nem voltak visszafele kompatibilisek az SM2 előtti kártyákkal. De igazából a 8800 sorozat érkezése volt az a pont, ahol minden unified shader előtti kártya egységesen kidobnivaló szemét lett.
-
hapakj
őstag
válasz
huskydog17 #157 üzenetére
Továbbra is vad nekem a szituáció, hogy megveszem a legújabb RTX 50xx-et, hogy egy dedikált PhysX gyorsítóval régi driverrel régi játékokat játszak
Olyan játékokat, amit egyébként valszeg a dedikált PhysX gyorsító kártya is röhögve kihajt
-
hapakj
őstag
Értem én meg vágom. De ha PS 1.3/1.4-el így megszenvedte a kártya, akkor PS 2.0-val még jobban szenvedett volna, hiszen kb a legnagyobb különbség, hogy még több shader instructiont lehet használni.
Tényleg annyi lett volna a támogatás előnye, hogy kb elindulnak a DX9-es címek, amit amúgy az FX esetén láttunk is.
-
huskydog17
addikt
"Bár azért egy vadonatúj kártyánál előnyös mindig a legfrissebb drivert használni a finomhangolások, fixek miatt. Ráadásul itt gyakran előfordul, hogy az új játékok, illetve régebbiek frissítései is megkövetelik az újabb drivereket."
Az érintett (32 bites) PhysX játékok nagyon régiek, oda nem kell a legújabb driver, az a lényeg, hogy a driver ismerje fel a Blackwell és a dedikált PhysX gyorsítót. Mivel már három Blackwell elrajtolt, így a driverek is támogatják, jövő héten jön a 4. Blackwell és jelenleg még támogatva van a Maxwell is, szóval ez a workaround egyáltalán nem problémás, kiválóan működik.
A többi dologban egyet értünk, bár RTX 2060 felesleges, bőven jó a GTX 1650/1630 is és akkor legalább nem kell oda is tápcsati.
-
hapakj
őstag
válasz
huskydog17 #153 üzenetére
akkor sincs gond, az ember felrakja a legkésőbbi támogatott drivert és kész
- hát ahogy gondolod. Bár azért egy vadonatúj kártyánál előnyös mindig a legfrissebb drivert használni a finomhangolások, fixek miatt. Ráadásul itt gyakran előfordul, hogy az új játékok, illetve régebbiek frissítései is megkövetelik az újabb drivereket. Szóval én ezt a workaroundot azért problémásabbnak tartom.Igazából továbbra is tényleg érdekelne, mekkora az a felhasználó bázis, aki 50xx-es kategóriás VGA-val akar 10-15 éves játékokat PhysX effektekkel játszani
S ha valaki ennyire elszánt akkor szerintem nem fog neki gondot okozni a jövőben esetleg beszerezni egy 2060-ast sem.
Amúgy szerintem ezekhez az effektekhez még egy 1050Ti és 1650 is overkill. Gondoljunk bele amikor ezek a játékok megjelentek a PhysXnek a grafikávall együtt kellett futnia jóval gyengébb kártyákon. Szóval egy 1030 és 1630 is simán elég.
Majd ha az NV bejelenti, hogy megszűnik, akkor elhiszem.
- nVidia dokumentumokban kezdték deprecatedként hivatkozni a Maxwell, Pascal, Volta architektúrákra. Igaz az hogy a 16xx GTX széria legacy támogatása honnan jött azt nem tudom, de ahogy mondod, valószínűleg az nem is igaz. (amúgy valszeg onnan, hogy sokan az utolsó igazi GTX szériát a Pascalnak tartják) -
huskydog17
addikt
Tehát pletyka, ahogy sejtettem. Nem keresek rá, mert pletykára nem akarok időt és energiát pocsékolni. Majd ha az NV bejelenti, hogy megszűnik, akkor elhiszem.
Ettől függetlenül ha feltételezzük, hogy valamikor idén az NV megszüntetné a Maxwell és Pascal vonalakat, akkor sincs gond, az ember felrakja a legkésőbbi támogatott drivert és kész, mehet a Blackwell mellé a GTX 1050Ti vagy használt piacon 30.000 Ft-ért már kapni GTX 1650-et, az is bőven jó, főleg hogy a Turing vonal nagyon nagy valószínűséggel még több évig támogatva lesz.Nem is arról van szó, hogy mennyivel szebb, hanem hogy GF4 mellett sok DX9-es játék egyszerűen nem indult már el, akkoriban engem nem érdekelt volna, hogy nem szebb, hanem hogy fusson, viszont egyre több és több játék tette minimummá a PS 2.0-t.
-
hapakj
őstag
válasz
huskydog17 #151 üzenetére
Csak pletyka volt, hogy megszüntetik a GTX-ek támogatását, köztük az 16xx szértiát is. Keress rá. Lehet csak a Maxwell-ek és a Pascalokat szüntetik meg. Igazából nem is szüntetik meg, csak main driver brachből átkerülnek security driver branch-re-
A Keplerek már 2021 óta csak security fixeket kaptak. 2024 szemptemberétől viszont már tényleg obsolete mind. [link]
Hát abban se vagyok biztos, hogy egy FX5600/5700-ason annyira megérte volna a DX9. Őszintén szólva annyira nincs meg hogy a PS/VS 2.0-s játékok annyival jobban néztek volna ki PS/VS 1.3-hoz képest. Igazi PS/VS 3.0-s játékokhoz meg szerintem még ezek is kevesek lettek volna.
Most szereztem be egy Quadro FX 3500-at (7800 GT) mai szemmel még az is eléggé izzad komoly DX9-es címekkel -
huskydog17
addikt
Nem tudom hol olvastál ilyet, de hogy a Turing alapú GTX 1600-as szériát is kilövik, nos mondjuk úgy, hogy rendkívül valószínűtlen. Ha figyelembe vesszük, hogy ma még a több, mint 10 éves Kepler is támogatott, akkor szinte kizárt hogy az 5 éves szériát hirtelen elkaszálják, főleg hogy az már Turing alapú.
A Kepler/Maxwell esetleg még Pascal vonal érthető lenne, de a Turing alapú GTX-eket kizárt, hogy idén megszüntetik.Ahogy a többiek is írták, bőven volt a GF 4 Ti szériában annyi erő, hogy mehetett volna a DX9, sokkal gyorsabb volt, mint egy FX 5200. Inkább FX5600/5700 szintjét hozta.
-
mmdms
addikt
Akkoriban eleg volt. Az fx5600 erte el jo esetben a titan sebesseget. Halisten minden cim elindult rajta, csak a shadermodel 3.0 ficsorok maradtak ki a megjelenitesbol. Polo nfsu2-be nem volt esocsepp a kepernyon, FEAR be a granat robbanasakor nem volt az a koralaku lokeshullam meg ilyen aprosagok.
Kb olyan szarra sikerult az fx szeria mint most az rtx 5-os. Ficsorokben elore teljesitmenybe hatra leptunk. -
hapakj
őstag
S másfélszer nagyobb teljesítmény elég lenne bármilyen DX9-es címhez?
Mind FX5200-es és 6600-asom is volt abban az időben. Utóbbi már elég jó DX9-es kártyának számított. S az igazi DX9-es címekben (pl Oblivion) már eléggé vissza kellett fogni a beállításokat. FX 5200-as kb elvitte volna Low-on a dolgokat.
-
hapakj
őstag
válasz
huskydog17 #142 üzenetére
A GTX 1060-al és 1660-al az lesz a gond, hogy elvileg idén megszűnik a main branch driver támogatása, s már csak security fix drivereket fog kapni. Ez azért probléma, mert csak egy nvidia drivert lehet telepíteni egy gépre és annak az összes kártyát támogatnia kell. Szóval minimum RTX kártya ajánlott társkártyának.
Hát a 4200 Ti valszeg teljesítményben sem lett volna elég erős a DX9-es címekhez.
-
Pikari
addikt
válasz
huskydog17 #142 üzenetére
Ja, kb pont 4 évig szoktak hibátlanul üzemelni, aztán jönnek a rejtélyes fagyások, majd a garbled screen.
-
huskydog17
addikt
válasz
Hellwhatever #143 üzenetére
Jó hát a tapasztalt PH-s fórumlakók szerintem pontosan tudják mennyire lehet készpénznek venni Abu eszmefuttatásait (kb. semennyire).
#144 gbors: Abu never changes.
-
válasz
Hellwhatever #143 üzenetére
És mint már oly sok alkalommal, az elmélet nem állta ki a gyakorlat próbáját
-
Hellwhatever
aktív tag
válasz
huskydog17 #142 üzenetére
Ezekkel én is tisztában vagyok, #12-ben linkelte a kolléga Abu hsz-ét egy másik topic-ból ahol kifejti hogy miért nem fog működni.
-
huskydog17
addikt
A 4200Ti szériának egy gondja volt: nem ismerte a DX9-et.
Nekem 2003-tól 2007-ig, 4 éven át hibátlanul üzemelt egy MSI GF 4 Ti4200, 2007-ben is csak azért váltam meg tőle, mert már nagyon kellett a DX9 támogatás.
#141 Hellwhatever: Miért ne működne? Alex is gond nélkül befogta az RTX 3060-at az RTX 5080 mellé kizárólag PhysX gyorsításhoz. Ezt az NV driverben be is lehet állítani, hogy ha két GPU van a rendszerben melyik végezze a PhysX gyorsítást. (Az általad linkelt cikk is pont ezt mutatja, ott tökéletesen látni, hogy mennyire egyszerű beállítani.) Majd fog készíteni egy külön dedikált videót erről, de a lényeg, hogy a társkártya megoldás tökéletesen működik.
Nyilván kizárólag PhysX számoláshoz még egy RTX 3060 is feleslegesen erős, bőven jó oda egy GTX 1060 vagy 1660 is. -
Hellwhatever
aktív tag
Úgy néz ki mégis megy a társkártyázás:
Since PhysX Games Are A Problem On NVIDIA RTX 50 GPUs, This User Combined RTX 5090 With RTX 3050 To Solve The Performance Issue -
hapakj
őstag
Én is egy PCI FX5200-ast vettem most, mert jelenleg még nincs AGP-s retro gépem. De valamiért csak Windows Vistával sikerült stabilan működésre bírni.
Amúgy meglepett mennyire jól megy rajta a Far Cry, pedig csak 64 bites memória buszos.
Hja és persze simán megy rajta az Aero felület, csak FullHD-ban enyhén már szaggat
-
mmdms
addikt
Az enyém már megdöglött, viszont a titanium visszakerült hozzám, egy szétolvadt smd leesett a felső oldaláról, de nem vettünk észre furcsaságot rajta, még mindig megy. Addig se kellett az oda!
#132 hapakj : én is pont sima 6600-ra léptem, gt-re nem futotta. Viszont volt a gpu-jába +50% tuning, talán még több is, csak 50 %-ig skálázták a rivatunert.
-
hapakj
őstag
Hát lehet nekem maradt ki, de én nem emlékszem hogy random alkalmazások nagyon alapoztak volna abban az időben d3d9 gyorsításra.
Nekem ez inkább a Windows Vista / 7 elején indult meg, s ugye Windows 8 már teljesen arra is épít s használ is WARP-ot ha nincs 3D hw a gépben.
-
Pikari
addikt
A d3d9-ben nem volt szoftveres renderer. Az meg nem vetett volna jó fényt senkire, ha mondjuk egy random ablakos mahjong játék, vagy random multimédiás videólejátszóprogram se képes elindulni.
Persze ez a szuper low end kártya ez egy sarkított példa, hiszen ennél sokkal erősebb kártyák is voltak még az első és második generációs videókártyák korszakából. pl tnt1, tnt2, permedia2, voodoo3, savage4 (ez utóbbi alól mondjuk a dx9 erősen bugzik), G200, a SiS és Intel különféle IGP-i. Ezek meg azért abban a korszakban elegek voltak az éppen aktuális tomb raiderekhez.
-
hapakj
őstag
nekem is FX5200-asom volt annak idején, meg közelmúltba vettem még kettőt
hát a 4200 Ti-t tényleg kár volt lecserélni, de DX 8.1 módba azért közel hozta annak a teljesítményét szerintem. Megfelelően fine tune-olva Half Life 2, meg Doom 3 teljesen jól ment rajta.
Aztán lecseréltem egy Geforce 6600-ra és mindent lehetett csutkára tekerni
-
hapakj
őstag
válasz
Komplikato #126 üzenetére
Hát utána meg az nvidia fürdött be a Geforce FX DX9-ével
Mondjuk technikailag tudta, csak minek
Fun fact, mivel a Geforce FX-hez van WDDM driver, ezért Windows Vista-n sikerült a DirectX 11-et működőképesre bírni vele
-
Pikari
addikt
válasz
Komplikato #126 üzenetére
Lényegtelen, a dx8-as titlek száma nullához közelít, eléggé népszerűtlen api volt.
-
hapakj
őstag
Mondjuk értelme nem tudom mi lehetett. A Windows XP még a UI-t még 2D-vel gyorsította, s kétségeim vannak, hogy ezek a kártyák értelmesen tudták volna támogatni a DDI 7-et is. Rendes DX7-es kártyákkal még megértem a DX9 API supportot.
Meglepően jól sikerült a kompatibilitás, gyakorlatilag gyorsabbak ezek a hardverek így, mint amit eredetileg win9x alatt dx5/dx6 alatt produkáltak.
- mondjuk ennek az is oka lehetett, hogy mivel ezek a kártyák a geometry processinget lényegében CPU-n végzik, azt lehetséges, hogy erősebbre cserélték az emberek.Miközben pl Windows 10 (akár a legújabb 22H2) ugye aktívan használja UI compositionre a 3D-t is, s Geforce 6/7 kategóriás kártyákkal is simán működik. Böngészők, WebGL is működik. Egyedül a Steam hw accelerationnel voltak gondok.
-
Komplikato
veterán
Sajnos a DX8.0 az PS1.1-es volt. Azért volt sajnos, mert az első Radeon nagy újítása lett volna az abban debütált 1.0-ás shader. De hát a konkurencia nyert abban a körben. A vicc az, hogy kvázi letagadták utólag, de az első kártyához ami hazánkba jött, még volt csomagolva egy PS1.0-ás hullámzó tengeres demo, ami csak a béta driverrel ment. Ezt sokkal később feljavítva képernyővédőnek adták a Radeon 8500-höz
-
Pikari
addikt
Amikor az XP megjelent (igaz, azt még dx8-al tette), fontos volt ez a fajta kompatibilitás, mert sokaknak ilyen őskori kártyája volt még 2002 körül, és jóval később is. Az nagyon odaverte volna az arcát a Directx9-nek, ha amiatt duplán kell dolgozni, ezért a microsoftnak nem volt más választása, minthogy minden kukaszökevénnyel kompatibilis legyen. Aztán az engine fejlesztőjének már csak annyi dolga volt, hogy például ne akarjon shadereket használni azokon a hardvereken, ahol nincsenek shaderek.
Meglepően jól sikerült a kompatibilitás, gyakorlatilag gyorsabbak ezek a hardverek így, mint amit eredetileg win9x alatt dx5/dx6 alatt produkáltak.
-
Lord Myn
senior tag
Tudom, olyan mint manapság az NPU a Ryzen AI és az Intel egy processzorain...
azért is írtam, hogy hívjuk, nem pedig azt, hogy akkor jelent meg vagy ilyesmit.
#122Predatorr: Az IJ az nálam is kemény volt, főleg a Sukhothai pályán, állandóan kifutott a 12GB VRAM-ból, mindig le kellett lőnöm az összes háttérben futó cuccot, ami egy kicsi VRAM-ot is evett, hogy viszonylag normálisan menjen. Mondjuk én pont fordítva vagyok, nekem a felbontás nem számít annyira, de menjen legalább 80-90 fps-t.
Szerk: Most nézem, hogy jött ki az IJ-hez update, kiváncsi vagyok jobb lett-e tőle...
-
Pikari
addikt
Az egyetlen bug, amit tapasztaltam rajta, hogy a textúrák max felbontása maradt 256x256, és ha ennél nagyobbat töltessz be, akkor fehér lesz az objektum, mert nem konvertálja át magának belül kissebbre, mint ahogy azt szokás, és ráadásul errort se dob vissza, hanem úgy tűnik, mintha működne, pedig nem. Blendinggel, vagy frame bufferrel kapcsolatos problémát nem tapasztaltam. Ugyanúgy kb 3000 polygont és 400x300as felbontást bír ki framenként, mielőtt elérné a teljes szaggatást, mint hogy win98 alatt.
-
arn
félisten
-
hapakj
őstag
Hát az hogy DX7-esnek mondhassák a HW-t szerintem követelmény volt a HW T&L. Az más kérdés, hogy az DX-ek régebbi DDI-ket is támogatnak. Abban nem vagyok biztos hogy a DX9 támogatja a DDI 6-ot. Úgy tudom csak DDI 7-et.
DX8 ami még támogatja a DDI 6-ot.
(hmmm úgy tűnik még a DX8 sem támogatja a DDI 6-ot) -
Lord Myn
senior tag
HW T&L-nek semmi köze a Morrowind vizéhez. Az tipikus DX 8.1-es effekt, tehát Pixel Shader 1.3
Sőt, még csak az sem, sima 1.0-1.1-es PS volt ott a víz, mivel GF3-as karin is ment.De Kansas kolléga valóban keveri a szezont a fazonnal, mivel pont a HW T&L nem volt látványos (max. sebességben), "csak" annyi volt a különbség, hogy amit eddig a CPU számolt, azt onnantól kezdve a grafikus proci számolta, ettől kezdve is hívjuk GPU-nak a VGA-k prociját.
-
hapakj
őstag
válasz
Komplikato #103 üzenetére
Akkor most az S3 lenne a világ egyik legértékesebb cége és tolná az AI gyorsítókat
-
Komplikato
veterán
Amúgy nem maga az RT amihez kevés a mai CPU/GPU teljesítmény, hanem a zajtalanítás. Ahhoz, hogy ne legyen tele zajjal az RT/PT kép, ahhoz több százszor vagy ezerszer kéne kiszámolni egy egy képkockát. Ha meg tiszta foltos és pöttyös lenne, akkor felgyújtanák a gamerek a gyártó főhadiszállását. Így marad az, hogy ki tud gyorsabb és hatékonyabb zajszűrést csinálni.
Na most a novemberi hivatalos Unreal Engine előadás sorozatban olyasmi volt, hogy ők csináltak egy nagyságrenddel gyorsabb zajszűrést és ezért most dolgoznak a realtime path tracing-en. És ez azért tud elfogadható sebességet majd, mert ennyivel jobb a zajszűrés. Itt olyasmit kell elképzelni, hogy ahol egy RTX kártya szüttyögne 12-18 FPS-el ott meglesz az áhított 60FPS vagy akár a duplája. És akkor leszünk ott kinézetben, mint amit az első RTX generációnál elvárt volna az ember fia.
És akkor ott bármennyi fényforrás, tükröződés belefér.
A dolgot kissé árnyalja, hogy ha most azonnal beépítik a funkciót, akkor is mire lesz ilyen játék, a topik már az kettővel későbbi generációs Nvidia cuccról fog szólni. -
Új hozzászólás Aktív témák
Hirdetés
ph A GeForce RTX 50-es sorozat már nem támogatja a 32 bites CUDA futtatási környezetet, és ezzel a régebbi játékokban bizonyos effekteket sem.
- BESZÁMÍTÁS! Gigabyte B760M i5 12400 16GB DDR4 512GB SSD RTX 3060Ti 8GB Zalman Z1 Seasonic 650W
- ÁRGARANCIA!Épített KomPhone Ryzen 5 4500 16/32/64GB RAM RTX 3060 12GB GAMER PC termékbeszámítással
- Samsung Galaxy A55 5G 256GB, Kártyafüggetlen, 1 Év Garanciával
- Telefon felvásárlás!! Apple Watch SE/Apple Watch SE 2 (2022)
- BESZÁMÍTÁS! Gigabyte B650 R7 7700X 32GB DDR5 1TB SSD RX 6800XT 16GB Zalman Z1 Fractal Design 760W
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest