Hirdetés

Új hozzászólás Aktív témák

  • Dr. Akula

    nagyúr

    válasz aginor #300 üzenetére

    "A 2k (2560*14440), az közel sem fullhd."

    Viszont nem is 2K. Az az 1920x1080.

    "senki nem mondta, hogy a 4070 igazi 4K kártya lenn"

    Viszont olcsóbban kapsz olyat is. Na itt jön a kérdés, hogy akkor ez miért is érné meg?

    UE5 játéknak ajánlott VGA 1080Ti? Milyen felbontásra ajánlanak ilyet, 320x200? RT-t hogy fogja emulálni?

  • Kansas

    addikt

    válasz Dr. Akula #301 üzenetére

    UE5 tud szoftveres RT-t, nem kell semmit emulálni. hogy milyen sebességgel, azt UE5-ös játékokban lehet lemérni.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Dr. Akula

    nagyúr

    válasz Kansas #302 üzenetére

    Azt azért lehet sejteni milyen eredménnyel, ha még anélkül se bír el nemhogy egy UE5 címet, de még egy 10 éves játékot se 4K-ban.

  • aginor

    addikt

    válasz Dr. Akula #301 üzenetére

    "Viszont nem is 2K. Az az 1920x1080" - Jó, ha már ennyire belemegyünk, akkor hivatalosan a 2k 2048 x 1080 a DCI által, de a köznyelvben ezt a kifejezést használják a 2560*1440-re (vagy 1440p), aminek hivatalosan QHD a neve. Amit te írtál, az a Full HD és jelentősen kevesebb képpontból áll, mint amire én gondoltam és én még nem is láttam soha 2K-nak meghivatkozva, még szlengben sem. Valóban szerencsésebb lett volna, ha 1440p-t írok eredetileg, de győzött a lustaság és általában nem szokott ebből gond lenni. Bocsi, ha ez megzavart. :U :B

    "Viszont olcsóbban kapsz olyat is." - mutatsz egyet? És ne az legyen az egyetlen követelmény, hogy van rajta sok ram. Legyen hozzá elég teljesítménye is, és legyen RT-ben is erősebb.

    "UE5 játéknak ajánlott VGA 1080Ti? Milyen felbontásra ajánlanak ilyet, 320x200? RT-t hogy fogja emulálni?" - ezt ne tőlem kérdezd meg, nem én találtam ki, én csak leírtam, amit a hivatalos adatlapon láttam. :B Ugyanakkor az biztos, hogy ez nem 4k-ra értendő. Tippre 1080p-re inkább igaz lehet.

    Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/

  • Dilikutya

    félisten

    válasz Dr. Akula #299 üzenetére

    Tegyük hozzá, az a HD textúracsomag a Far Cry 6-hoz egy extra, nem az alap játék (és annyira nem is nagy extra). Anélkül a 8 GB bőven elég lehet 1920x1080-ban, de 4 GB-al is be lehet úgy állítani, hogy ránézésre kevés kompromisszummal is jól fut. Mondjuk 4 GB mellett néha újra kellett indítani, úgy beszakad az fps hosszabb játék után, valami Vram kezelési bugja klehet még mindig.

    Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)

  • PuMbA

    titán

    válasz hahakocka #287 üzenetére

    "2 évnyi folyamat Cyberpunk patchelés után ami elég botrány szerintem egy ekkora költégvetéssel és 10 évnyi fejlesztési idővel , azért a 300-700e ft közti videókártyáknál 40-50fps eket hozni 4K ba (RT nélkül) nem nagy szám szerintem"

    Mondj egy olyan játékot, amiben ilyen nagy és komplex a város. Nem tudom, hogy mit vársz egy olyan játéktól, ami jelenleg egyedülálló eset, tehát nincs párja és nem tudod semmihez se hasonlítani. Teljesen más síkon gondolkodunk, úgyhogy szerintem hagyjuk a további elmélkedést :)

    [ Szerkesztve ]

  • Dr. Akula

    nagyúr

    válasz Dilikutya #305 üzenetére

    Lehet kifogásokat keresni, de akkor ez az örök kifogások kártyája. :) Mint korábban mondtam, senki nem akar lebeszélni róla, ha neked ez tetszik, vedd ezt, csak azt mondom hogy technológiailag, pénzügyileg nehezen indokolható választás. Aki a jobbat akarja, az nem ezt választja, akinek kifejezetten ez tetszik valamiért, az meg majd igen.

    #304aginor: A lényeg hogy az 1080Ti-t úgy hoztad fel, hogy ez ajánlott a Stalker 2-höz, és ráadásul nem is minimálgrafikára. Na ez az amit kétlek.

    "mutatsz egyet? És ne az legyen az egyetlen követelmény, hogy van rajta sok ram. Legyen hozzá elég teljesítménye is, és legyen RT-ben is erősebb."

    Már ki tudja hány hsz-en keresztül mutattam. :)

  • PuMbA

    titán

    válasz Dr. Akula #308 üzenetére

    A 3090 hátránya, hogy egy féltégla, hangos és sokat fogyaszt, azaz nagyobb / drágább ház és tápegység is szükséges hozzá. Nem mindenki akarja bevállalni ezt, ezeknek az embereknek a 4070 jobb vétel, amit UV-val lehoznak 130W körüli maximális fogyasztásra 5% teljesítmény esés mellett.

    Nekem például 450W-os tápom van, így alapból kizárja nálam az ilyen energiapazarló, kazán 3090-et egyből, de ez nem is baj, azért döntöttem egy 80+ Gold 450W-os táp mellett, mert a környezet számomra fontosabb, mint az én esetleges szórakozásom és eldöntöttem, hogy sose fogok e fogyasztás fölé menni.

    [ Szerkesztve ]

  • adr0001

    tag

    válasz Dr. Akula #293 üzenetére

    Lehet alapja... Nekem itthon van RDNA2 és Ampere is. Ami a fizikai megjelenítést illeti, az Ampere képe olyan kb. mintha egy állandò sharpening filter lenne rajta az AMD-hez viszonyítva. Ugyanazon a kijelzôn szembeötlôen rosszabb az nV képe, sajnos. Az FSR-nel komolyabb bajom nincs RDNA-n, nV-n viszont egész egyszerûen sz*r amit végeredményben produkál.

    "If you think [***]* was a Grade A asshole liar, wait 'til you get gaslit by a mainframe"

  • hahakocka

    senior tag

    válasz b. #297 üzenetére

    Èv vègi hír S bejelentès volt az Epictől S az Amd től az RDNA 3 show-oN ez egy hír volt egy együttműködèsről S ezèrt vagyok bèrenc? Elmentek otthonról.... A Geforce show-oN meg kèpzekd DLSS3 gameket jelentették be most Nv bèrenc vagyok ?Atyàm.

    [ Szerkesztve ]

  • aginor

    addikt

    válasz Dr. Akula #308 üzenetére

    "A lényeg hogy az 1080Ti-t úgy hoztad fel, hogy ez ajánlott a Stalker 2-höz, és ráadásul nem is minimálgrafikára. Na ez az amit kétlek." - újra leírom, mert látom, hogy nem ment át: "nem én találtam ki, én csak leírtam, amit a hivatalos adatlapon láttam.". Belinkelem, mert úgylátom, hogy lusta vagy magad is megnézni: [link] de tessék, itt a hivatalos oldal is.
    Ahogy mintha azt is írtam volna, hogy én sem hiszek benne, max FHD (1920*1080) felbontásban, de efölött elegánsan átsiklottál.. :C

    "Már ki tudja hány hsz-en keresztül mutattam. " - Lehet, hogy átsiklottam valamin, de nekem csak a 3090 rémlik, ami semmlyik univerzumban sem olcsóbb, mint a sima 4070 (használt 270k vs új 250). Cserébe valóban gyorsabb és kétszer annyi ram is van benne, de kétszer annyit fogyaszt és használt is (sanszosan bányamunkás). Ezek alapján mindenki eldöntheti, hogy neki mi a fontosabb, de a ram tekintetében egyértelmű a 3090 időtállóbbsága, ezt nem vitatom.

    hahakocka: fejből megvan, hogy hol láttad? Rá kukkantanék.

    [ Szerkesztve ]

    Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/

  • hahakocka

    senior tag

    válasz PuMbA #307 üzenetére

    2015 Ben a Witcher 3 egy 3000 fős èlő lèlegző főváros mellè rakott kissebb városokat ès egy vâltozatos egyedi S szèp rèszletes 50 km2 és hatalmas területet is ... Ez se kis dolog. Mellè külön Skelliget.

    Stalker 2 gèpigènye mèg vàltozhat hisz akkor mèg UE4 engine volt utàna vàltoztattak UE5 re S az csak tuti high FHD 60 FPS.

    [ Szerkesztve ]

  • Dilikutya

    félisten

    válasz adr0001 #310 üzenetére

    Ez még mindig így van? Már 20 éve is az volt, hogy akár gyorsabb épp, akár nem a Geforce, de a képminősége a Radeonoknak jobb.

    Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)

  • PuMbA

    titán

    válasz Dilikutya #314 üzenetére

    5 évnyi AMD után váltottam NVIDIA-ra 1-1,5 éve. Csontra ugyanolyan a képminőség :) Ha nem, akkor beállítás gond van, mert a két kártya sokszor nem ugyanazokkal az alapértelmezett beállítással dolgozik.

    [ Szerkesztve ]

  • Menthirist

    veterán

    válasz rumkola #272 üzenetére

    az nvidia frame generation kitalál neked egy frame-et két frame között, amit nem a mozgásod hozott létre. Ha 30 fps-ed lenne, ami 33.3 msec-enként egy kép, te ugyanúgy 33.3 msec-enként tudsz beavatkozni a játékba, függetlenül attól hogy épp mondjuk 16 msec-enként látsz egy képkockát. Tehát a dlss 3 már ebből az elvéből adódóan is leginkább akkor jó, ha eleve sok fps-ed van, azt lehet kitolni többre. 100-ból lesz 144-ed, és ott annyira nem is veszed észre, hisz 10 msec-enként beavatkozhatsz a frame generation-be, de egy 40 fps-nél zavaró lesz a lag, hisz akárhány képkockát is látsz a 40 helyett, irányítani ebben a 40-ben tudod.

    Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)

  • devast

    addikt

    válasz Dilikutya #314 üzenetére

    Amire te gondolsz, az kb krisztus előtt volt, mikor még analóg vga kimenetet használt mindenki, és számított, hogy a ramdac milyen minőségű analóg jelet képes produkálni. Ott akkor, abban, az ati jobb volt mint az nv. De már több mint 10 éve hdmi meg displayport megy digitális jellel...

  • gbors

    nagyúr

    válasz aginor #292 üzenetére

    Igen, a 2070-nél mindenképpen volt egy kísérlet erre, mert ott a 106-os GPU-ra épült a kártya az addigi vágott 104-es helyett. Viszont a 3070 megint 104-es volt, hasonló különbséggel a teljesítményben. Kicsit kusza a dolog.
    Ami viszont szerintem fontosabb - ha el is fogadjuk, hogy a 2070-es egy átpozícionálási manőver első lépése volt, akkor sem lehet azt mondani szerintem, hogy a 4070 ennek a folytatása - ott akkora a gap, hogy akkor az egy újabb átpozícionálás. Ha a 2070 elindult a felsőkategóriából a közép és a felső határa felé, akkor a 4070 az teljesen középkategória lett. Hmmm, elég szarul hangzik. Tegyük mellé a következőt:
    2060 -> 4070: +70% ár, 2.5x teljesítmény
    2070 -> 4070 Ti: +60% ár, 2.3x teljesítmény
    2080 -> 4080: +70% ár, 2.5x teljesítmény

    Zárható? :) (bár inkább :O )

    Spoken like a true emperor / Spoken like a true conqueror / Spoken like a true... terrorist

  • keIdor

    titán

    válasz gbors #318 üzenetére

    Illetve megjelent egy új variáns is, a 103-as.
    Ami szerintem az eddigi 104 volt, tehát ebben is lehet egy átpozicionálás.
    102-est lehet csak a xx90-es VGA-ra akarják.
    Notebooknál már GA103 is volt azt hiszem előző generációban.

    ¡GLORIA A LAS PLAGAS!

  • huskydog17

    addikt

    LOGOUT blog

    válasz hahakocka #287 üzenetére

    A Cyberpunk jelen korunk legfejlettebb játéka technikai szempontból, az képviseli a technológia csúcsát, ami mindig is sebességbe került, a csúcstechnológia mindig masszívan feláras volt, de van egy olyan jó dolog benne, hogy nem kötelező használni. Nincs még egy olyan AAA cím a piacon, amibe path tracinget implementáltak volna, ez egy teljesen új szint a real time rendering korszakában, úgy is mondhatnánk, hogy a Cyberpunk napjaink Crysis-a, annyi különbséggel, hogy a Cyberpunk nem csak 1 CPU magot képes kihasználni. :D
    A több, mint 20 millió eladott példányból nyilván sokan szeretnék kipróbálni a vadonatúj technológiát, sokan szeretnék látni, hogy mi jelenleg a csúcs real time rendering-ben. Ehhez brutális számítási kapacitás kell, de amint mondtam, nem muszáj használni, ez egyfajta preview a jövőre nézve. Ugyan valóban nagyon számításigényes, de szerencsére igen jól skálázható, még egy RTX 3050 is képes játszható sebességet produkálni, nyilván kompromisszumokkal. Ha pedig már a kompromisszum szóba került, a legjobb képminőség és a legjobb sebesség együtt mindig is drága volt, és mivel a csúcstermékeket nem mindenki engedheti meg magának, a legtöbb játékos számára az a kérdés, hogy mekkora kompromisszumot hajlandó bevállalni. E téren az NV jobban, míg az AMD rosszabbul áll, hiszen RT alatt az RDNA3 versenyképtelen az Ada-val szemben, míg a felskálázási eljárások közül az FSR szintén versenyképtelen a DLSS-el szemben. Itt mindenkinek azt kell eldöntenie, hogy mekkora minőségromlást és sebességvesztést képes elviselni úgy, hogy az nem rontsa a játékélményt.

    Nézzük meg a sebességet, itt is volt egy érdekes kijelentésed:

    "azért a 300-700e ft közti videókártyáknál 40-50fps eket hozni 4K ba (RT nélkül) nem nagy szám szerintem"

    Tehát itt egyértelműen az általad linkelt HUB teszt RT nélküli Cyberpunk eredményekre célzol. Ez több szempontból is érdekes. Egyrészt ennél a játéknál egy középkategóriás VGA-tól ez a tempó nem rossz, másrészt a legtöbb felhasználónak ez már bőven játszható sebesség, harmadrészt pedig ha esetleg kevés ez a tempó ott a három felskálázási eljárás, amivel masszív tempót lehet nyerni. A tesztben ugyan valamiért kimaradt (miért nem lepődöm meg ezen), de egyébként a szintén 600-650 dolláros RX 6800XT is 30-40 FPS-t képes kisajtolni. Az egykor 1000 dolláros 6900XT sem gyorsabb semmivel, mint az új RTX4070.
    Na mi történik akkor ha a játékosok ki szeretnék próbálni az aktuális csúcstechnológiát?
    Mivel a path tracing teljesen szabványos kódra épül, így minden RT-t támogató VGA-n működik (jelenleg Intel Arc-nál valami drivers gubanc van). Egy Radeon RX 6800 XT is képes futtatni az Overdrive-ot, az igaz, hogy kb egy RTX 3050-es tempóját hozza, de működik (lásd fenti link). Az AMD aktuális csúcs terméke, a Radeon RX 7900XTX nagyjából az RTX 2080Ti tempóját hozta, de az RTX 3070-et nem képes beérni.

    "A DLSS meg az FSR is mossa a képet és pixel frame hibákat ad néha hozzá a frame gen."

    Ez viszont nettó bullshit, érdemes lenne megtekinteni a DF videóit ebben a témában. A valóság az, hogy képminőség szempontból a DLSS messze a legjobb a három eljárás közül, az FSR jelenleg versenyképtelen. Több játék esetében a DLSS még a natív felbontásnál is szebb képminőséget képes adni, ezt még az általad istenített HUB is leközölte, ami tőlük igencsak váratlan és szokatlan lépés volt (lehet hogy túl sok Patrenok előfizetőjük megunta a sok NV hater tartalmat vagy megszállta őket a szentlélek vagy fene tudja). Tehát aki felskálázási eljárásra kényszerül (mert mondjuk kevés a natív sebesség), az megint csak a DLSS-el jár a legjobban, vagyis az FSR ismét egy erős kompromisszum képminőség tekintetében. Van akiket a rosszabb képminőség zavar, míg másokat nem. Ha RTX kártyád van, mindhárom eljárást tudod használni, de ha AMD vagy Intel kártyád van, akkor a legjobb minőségű és legjobban elterjedt eljárástól elvágod magad, még csak lehetőséged sincs használni, kipróbálni, tehát megint csak az NV kártyát vásárlók járnak a legjobban. Ezen tények ismeretében érdemes mindenkinek saját magának mérlegelnie, hogy milyen kompromisszumokra hajlandó, mivel különbözőek vagyunk különböző igényekkel.

    # 315 PuMbA : Én 11 év után váltottam. :)

    [ Szerkesztve ]

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • adr0001

    tag

    válasz huskydog17 #320 üzenetére

    CPunk-PT-nél, Portal RTX-nél az látszik, hogy bizonyos szabványos kòd esetén sokkal kifizetôdôbb ha az RT magok különállò részegységet képeznek, szabad bejárással a VRAM-ba.

    Itt sokan egy nV exkluzív optimalizálást hype-olnak, ami vegülis engem nem zavar, de egyvalami biztos, hogy a hype-men-eknek fogalmuk sincs arròl mi történik a motorháztetô alatt. LOL

    "If you think [***]* was a Grade A asshole liar, wait 'til you get gaslit by a mainframe"

  • Dr. Akula

    nagyúr

    válasz aginor #312 üzenetére

    Nyilván sejtettem elsőre is hogy nem te tesztelted le egy meg se jelent játék hardverigényét, de te voltál az, aki elfogadta azt valósnak. Én még 1080p-ben se tartom reálisnak, hogy egy Stalker2 látványt képes lenne folyamatos képpel (>30 fps) kiadni magából. Nagyon mission impossible, még így látatlanba is.

    Látom megjelentek az aprón a féláfás (NAV tud róla?) ajánlatok, persze ez is ér, hiszen azt vettük alapul hogy mi mennyiért tudunk hozzájutni. A cikkben még 270-330 ársáv van megadva.

    "sanszosan bányamunkás"

    Amiről még mindig nem derült ki, hogy ugyan miért lenne az rossz? Mert vigyáztak rá, és nem feszelték meg tuningolták szarrá, mint Vér Pistike a 3DMarkhoz? Még az is lehet hogy légkondis helyiségben működött, és nem a tetőtérben izzadt. A bányászathoz ugyanis igencsak be volt lőve hogy mekkora áramszámlával éri meg azt művelni, +5% teljesítmény nem ért meg +50% áramszámlát. Pistikének viszont egész biztos.

    #310adr0001: Közben már mondta más, hogy nem különbözik a kép, csak be kell állítani. Viszont ha már AMD, én valahol a 4870x2 környékén untam meg, hogy hiába veszek egyre újabb generációt, az még egyre rosszabbul is képes csak futtatni a GTA4-et. A végén már nem is engedte 800x600 minimálnál feljebb húzni, csak -norestrictions paraméterrel hekkelve. Ez milyen már... Közben meg az nvidiásoknak semmi gondja nem volt, hasított a játék mint a szél. Úgyhogy váltottam (vissza). Persze jó hogy még léteznek, nem hagyják (annyira) elszállni az Nvidia árait, de csak ennyi a jelentőségük.

  • huskydog17

    addikt

    LOGOUT blog

    válasz hahakocka #311 üzenetére

    "Èv vègi hír S bejelentès volt az Epictől S az Amd től az RDNA 3 show-oN ez egy hír volt egy együttműködèsről"

    Nincs semmilyen partnerprogram szerződés, amiről te beszélsz, ott kizárólag annyit történt, hogy az AMD bejelentette, hogy az Unreal Engine 5-be majd egyszer valamikor beépítésre kerül az FSR 3, ha az elkészül. Mivel az FSR 3 is nyílt forráskódú lesz, így az Epic saját maga is bármikor be tudja építeni a motorjába. Ebből te hogyan következtetsz bármiféle szerződésre vagy együtt működésre? Na mindegy is, nézzünk még egy-két érdekes tényt:

    2022 szeptember 20.: NVIDIA bejelenti a DLSS 3 csomagot, melynek része az új Frame Generation
    2022 november 3.: AMD bejelenti az FSR 3-at
    2023 március 24.: "AMD says that FSR 3.0 is in an early stage of development"

    Tehát 3,5 hónappal a bejelentés után még mindig a fejlesztés elején tartanak. Ebből kiindulva én rendkívül erősen kétlem, hogy a közeljövőben ebből lesz bármi kézzel fogható dolog, még a legoptimistább énem is azt sugallja, hogy legkorábban talán ősszel lesz belőle valamit, de én azon se lepődnék meg, ha decemberben készülne el valamilyen formában. Mindegy is, mert már most elkéstek vele, mire elkészül addigra az NV FG már sok játékban benne lesz és az FSR 2 "sikereit" látva rendkívül valószínűtlen, hogy jobb minőséget fog adni, mint az NV FG.
    Miért ilyen lassan halad a fejlesztése? Nyilván egyértelmű bizonyítékom nekem sincs, de ha figyelem veszünk 1-2 megtörtént eseményt, akkor fel lehet állítani egy logikus teóriát:
    2014-ben az AMD bejelenti a Fluid Motion Video funkciót, amit 5 évvel később, 2019-ben kidobtak a kukába, minden fejlesztést leállítottak.
    Nagy valószínűséggel az AMD a legkisebb mértékben sem számított arra, hogy az NV egy olyan technológiával áll elő, amit ők már kukáztak. Mivel az NV a piacvezető, így reagálni kellett, ezért gyors előhalászták a kukából a Fluid Motion Video-t, elkezdték átírni, hogy játékokban is működjön és így született meg a Fluid Motion Frames. Valószínűleg az átírás több időt vsz igénybe, mint amire számítottak, így szűk 4 hónappal a bejelentés után sem tud az AMD megjelenési időpontot mondani, még csak negyedévet sem.

    Nem tudom, hogy számodra milyen szempontból fontos az AMD fenti bejelentése, de ehhez szorosan kapcsolódik az a tény, hogy a DLSS 3 is érkezik az Unreal Engine 5.2-be, ezt valamiért elfelejtetted megemlíteni, pedig ugyanolyan hírértéke van, mint az FSR 3-nak, annyi különbséggel, hogy a DLSS 3 már benne van több játékban és működik a gyakorlatban, a piacon van, lehet használni, az FSR 3 pedig jó AMD termékhez hűen jelen pillanatban még csak egy üres ígéret.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • PuMbA

    titán

    válasz huskydog17 #323 üzenetére

    Igen. Akármennyire szimpatikus cég nekem az AMD, több okos megoldásuk miatt, de látni kell a valóságot, hogy ők inkább a jövőben és az ígéretekben utaznak és számomra ez az, ami szimpátiát visszaveti. (Az NVIDIA-nál például a kevés VRAM, ami számomra a szimpátiát csökkenti.) Az NVIDIA mindig jön és letesz az asztalra egy működő dolgot. Lehet, hogy az nem tökéletes, de rajtuk sokkal jobban érződik a tenni akarás és a csinálás. Az AMD marketingje főként a ködös jövőre utal, ahelyett, hogy a most-ról beszélnének. Ez egy kegyetlen zavaró elem nekem a cégben. Az NVIDIA az időbeli előnyét, a most-ot kegyetlenül kihasználja.

    [ Szerkesztve ]

  • PuMbA

    titán

    válasz PuMbA #324 üzenetére

    Mintha az AMD a tökéleteset akarná mindig, ami természetesen nem sikerülhet elsőre és hónapokat / éveket csúsznak, míg dédelgetik a projektet, keresve a legoptimálisabb megoldást Az NVIDIA megcsinálja az elég jót / használható állapotot és kiadja. Ez azért jó neki, mert közben erősen szedi be a lóvét, miközben fejleszti tovább a technológiát. Ha a piac még sem arra fordulna, akkor meg úgyis beadja a derekát, lásd Freesync.

    [ Szerkesztve ]

  • aginor

    addikt

    válasz Dr. Akula #322 üzenetére

    Jobb híjján el kell fogadni az embernek, de azt írtam is, hogy szerintem elég optimista, tippre 1080p 30fps-re lehet elég, márha..
    Mindegy, mert a kiindulási alap az volt, hogy egyelőre még semmelyik készülő UE5 játéknál sem adtak meg olyan hivatalos infót, ami alátámasztaná a 16GB ram szükségességét 1440p-ben. Ezt te sem tudtad cáfolni, így a "majd egyszer sok ram kell az UE5 játékoknak" kijelentés egyelőre nem megalapozott.
    Ne felejtsd el, hogy a piac mekkora részét birtokolja az AMD, és ebből mennyi a 16+ GB-al szerelt kártya? Na ugye. Emiatt feltételezem -de ez is csak annyira megalapozott kijelentés mint a tiétek- hogy lesz itt valami értékelhető optimalizáció.
    A CP2077 új RT-jét nézted? Ott mi a helyzet a ramot tekintve?

    "sanszosan bányamunkás" Amiről még mindig nem derült ki, hogy ugyan miért lenne az rossz? - nem mondtam, hogy az, de nem véletlenül találták ki az üzemóra kifejezést. Ettől függetlenül látom előnyét egy jól kontrollált bányaközegnek is. A lényeg, hogy nem tudom, hogy baj-e, de mivel sokan ódzkodnak tőle, így mindenképpen megemlítendő, viszont a rövidebb garanciaidő egyértelműen számszerűsíthető hátrány, egy 0perces kártyához képest.

    4070 alzán 250k-tól van, 263-tól három ventis is. Ez kezdetnek nem rossz ár szerintem, pláne ha az egész csomagot nézzük. 270-ért az aprón vagy gar nélküli, vagy a kínálat aljáról származó 3090-eket láttam csak (kivétel az egy darab garos Inni, mert ez lehet, hogy tisztességes), viszont egy ilyen fogysztású kártyánál nem árthat, ha a normálisabb hűtösök közül választ az ember, márha a hang is számít. Ettől függetlenül, most elég jó vételnek számíthatnak.

    Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/

  • PuMbA

    titán

    válasz aginor #326 üzenetére

    "A CP2077 új RT-jét nézted? Ott mi a helyzet a ramot tekintve?"

    Ugyanannyi VRAM-ot eszik a Path Tracing. Én is nagyot csodálkoztam ezen :) Előfordulhat, hogy memória kímélőbb lesz, mint ami az UE5 RT megoldása. Viszont ugye az UE5-é meg gyorsabb cserébe.

    [ Szerkesztve ]

  • Dr. Akula

    nagyúr

    válasz aginor #326 üzenetére

    Nem vagyok egy nagy bányász, sőt kicsi se, de annyi még nekem is szembejött, hogy teljesítmény / fogyasztás nagyon számított. Ergo ott volt a legkevésbé tuning, így szanaszét hajtott kártyát nem ott fogsz találni. Hogy sokat ment? Az biztos. De hát autónál se mindegy hogy az a 200k km autópályából jött össze, vagy városban.

    CP-vel még nem játszottam, így se előtte, se utána tapasztalatot nem tudok mondani.

  • b.

    félisten

    válasz hahakocka #311 üzenetére

    Nvidiával évek óta van együttműködési partneri viszony, ennek semmi köze a Vramhoz amit belekevertél.
    Ennyi erővel írhatnám hogy az Nvida együttműködés miatt biztos elég lesz a 12 GB vram de nem írom mert értelmetlen.( Amúgy Unreal 5 a z RTX kártyák hardveres RT részegységeket képes kihasználni már a kezdetek óta) Az UE5 enginet használó játékfejlesztő stúdión múlik elég lesz e a Vram,nem az Epic-en.
    Epic nem köteleződik el egyetlen hardvergyártó fele sem, ez az üzletpolitikájuk.
    AMD és Nvidiával és Intellel beépíthető eljárásokkal dolgoznak együtt , nem szerződést kötöttek semelyik céggel.
    Volt Tömérdek Nvidiás Showcase az Unreal fejlesztőkkel és az UE5.1-5.2 valamint a Cuda alapú professzionális felhasználásról. Nanite is RTX kártyákon volt demózva most 1 hónapja.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Kansas

    addikt

    válasz Dr. Akula #328 üzenetére

    Aki lopta az áramot az nem teljesítmény/fogyasztásra optimalizált, hanem csak teljesítményre, és világszerte azért nem kevés ilyen volt.
    Az meg a bányászok szalmabábja, hogy az átlag gamer OC-zva használja a kártyáit. Nem, az átlag gamer megveszi, beteszi a gépbe aztán használja. UV, OC az a gamerek közül relative kevesek játéka, a legtöbben effektíve a játékszoftverekkel szeretnek játszani, nem a driverekkel meg VBIOS-szal. Az más kérdés, hogy ezek a kevesek a PH fórum jellegű helyeken masszívan felül vannak reprezentálva, de ezzel együtt se gondolom, hogy akár itt a többséget alkotnák.

    Végső soron azt kell mondjam erősen kétlem, hogy gamer kártyák közül több szénné húzott bontószökevény lenne, mint a bányászok közt, mindamellett hogy az általad felvázolt két kategória kétségtelenül létezik, csak aligha ők vannak többségben. Külónósen a több tízezer kártyát használó bányászfarmok világában hangzik életszerűtlennek a kártyák egyénileg sweet spotra történő finomhangolása. Ugyanis az erre képes és hajlandó emberek ideje se ingyen van, azt is bele illik kalkulálni a költségszámításba.

    De ezt mintha már többször megtárgyalta volna több helyen a társaság. Nincs sokkal több oka az egyszeri vásárlónak arra hogy a bányásznak higgyen, mint hogy a gamernek, a termék állapotának és kímélő felhasználásának tekintetében.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • devast

    addikt

    válasz huskydog17 #320 üzenetére

    A Cyberpunk jelen korunk legfejlettebb játéka technikai szempontból

    Ez szimplán nem igaz sztem. Látványvilágban lehet, sok szempontból nagyon durva. De technikailag pont, hogy nem. Ugyanis egy végletekig kimaxolt régi redengine az alapja, amire a lehető legtöbb új csilli-villi feature-t ráaggatták. Egy fortnite jelenleg technikailag fejlettebb, de ez a látványvilágban egyáltalán nem látszik.

  • Abu85

    HÁZIGAZDA

    válasz devast #331 üzenetére

    Az a baj, hogy nem definiáljuk, hogy mit tekintünk fejlettnek technikai szempontból. Mert lehet több dolgot is.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • PuMbA

    titán

    válasz devast #331 üzenetére

    Én sem úgy mondanám, hogy legfejlettebb, hanem hogy jelenleg a legaktívabb, legérdekesebb játék technológiai szempontból, amibe a belerakják a lehető legtöbb dolgot még a megjelenése után ennyi idővel is. Például XeSS-t is megkapta nem rég. Illetve ahogy írtam, maga a város olyan, hogy megközelítő példa sincs egy másik játékban. Maga a város adja azt a látványt, ami így kitűnő a többi játékhoz képest.

    [ Szerkesztve ]

  • hahakocka

    senior tag

    válasz huskydog17 #320 üzenetére

    Nekem se a Cyberbunk mint game nem oly erős hogy megérjen ennyit másrészt se látványilag benne az amit az RT vagy a DLSS FSR akármi ad hozzá, vga gyártótól függetlenül. Vagy az FPS sebesség csökken általa de egyelőre nem kapunk annyi többletet vagy a képminőség romlik FSR el is DLSS el is. Nem ezért fizetek . Ugyanez van sok gamenél. Pont ma rakott ki egy újabb tesztet a HU és ott is látszott hogy nagyon sok game esetén az RT, 440p-4K alatt nagyon sokat ront az FPS számon. Kollegám most tolja az új full AMD s gépén és neki viszonylagosan tetszik a game, de ő is mondja, hogy még 3 év után is mindig bugos meg kidobta egyszer. Emellett amit ígértek annó annak fele ha megvalósult a játékvilág mérete tekintetében az RPG elemek tekintetében stb. Az AI ugyan javult de még mindig nem túl okos.
    https://www.youtube.com/watch?v=rtt60ONpm44

    A Path tracingen láttam olyan videótesztet hogy 10-20-30 fps eket dobott hát nem dobtam tőle hátast :D Még ha hiperszuper szép látványt is adna 10-20 fps ek nem hoznak lázba.

    4070 el meg az a bajom amit a csatolt 2 képen látni. Remélhetőleg Intel és AMD ezt elkerüli de tartok tőle már ők se fogják ha siker lesz a 4070 metódusa.

    2021 ben is már early accessben partnerek voltak s abban is látszik hogy eddig UE4 ben nem remekelt az AMD most UE 5.1-ben picivel jobb volt mint az NV Fortnite tesztekben
    https://www.reddit.com/r/Amd/comments/nlkkbu/amd_partners_with_epic_games_in_unreal_engine_5/

    [ Szerkesztve ]

  • gbors

    nagyúr

    válasz Dr. Akula #328 üzenetére

    Ergo ott volt a legkevésbé tuning, így szanaszét hajtott kártyát nem ott fogsz találni.

    Sokszor leírtam már, a fenti csak a GPU-ra igaz, a VRAM-ot érdemes szanaszét hajtani, csinálták is, és könnyebben meg is döglik, mint a GPU. Ettől még a bányászkártya nem ekvivalens a szarral, de körültekintőnek kell lenni, nem árt, ha van rá legalább pár hónap bolti garancia, és a VRAM húzásától érdemes eltekinteni.

    #320 huskydog17:
    úgy is mondhatnánk, hogy a Cyberpunk napjaink Crysis-a, annyi különbséggel, hogy a Cyberpunk nem csak 1 CPU magot képes kihasználni. :D

    Crysis is hármat tudott elvileg, csak kissé fakezűen csinálta :)

    #319 keIdor: na ja, még a chipet is átnevezték. Jó nagy hasbaakasztás...

    [ Szerkesztve ]

    Spoken like a true emperor / Spoken like a true conqueror / Spoken like a true... terrorist

  • hahakocka

    senior tag

    Kérdés igaz e akkor az vagy sem hogy az RT amúgy eszi a vramot elég rendesen ? Mi a súlyarány a magasabb felbontások és az RT között vram zabálás tekintetében?
    Amúgy ahogy kollegám is mondta jó hasonlat a Cyberpunk a Crysishoz mert még ma is hasonlóan optimalizálatlannak tartják azt is. Bár javult a helyzet, ez tény a 3 évvel ezelőtti starthoz, de az is csak azért mert 10 millióan előrerendelték a hypevonat miatt. Amúgy nem hinném hogy 3 évig foglalkoztak volna vele ennyi új spéci effekt meg patch mellett.

    [ Szerkesztve ]

  • PuMbA

    titán

    válasz hahakocka #336 üzenetére

    " de az is csak azért mert 10 millióan előrerendelték a hypevonat miatt."

    Akinek nem tetszett a játék, annak visszaadták a pénzét ha jól tudom, a megjelenéskori kiforratlansági bukta miatt :) Konzolokon biztos. Mindenesetre a mai 20 millió+ eladás azt bizonyítja, hogy sikeres lett és szeretik sokan.

    [ Szerkesztve ]

  • válasz Seraph 16 #294 üzenetére

    Megtaláltam a vidót, amiben másnak tűnt a két kárty mintavidója, viszont lehet, hogy csak a játékban random más az időjárás :DDD [YT]

    Szerk.: Beltéri vidóban is másnak látom [YT2]

    [ Szerkesztve ]

    "Csak a napórák fogaskerekei jártak rossz irányba"

  • b.

    félisten

    válasz devast #331 üzenetére

    Ez szimplán igaz. Mi alapján írod ezt le? csupán kor alapján? meggyőződés? mert amúgy de a legösszetettebb játék jelenleg technikailag.[link]
    Amúgy meg a legjobb játék volt számomra az utóbbi 2 évben.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Dr. Akula

    nagyúr

    válasz Kansas #330 üzenetére

    Azok azért olyan helyeken voltak, ahonnan lehetett is lopni. Kína, Kazahsztán, stb. Nálunk azért magyarokon edződött a szolgáltató, Lagzi Lajcsi is lebukott, igaz nem bitcoinnal. :)

    "Nem, az átlag gamer megveszi, beteszi a gépbe aztán használja."

    Ahogy az átlag bányász is csak használja, mert nem lophatja az áramot. Szóval pont ugyanolyan jó példa, sztereotípia a sztereotípia ellen. Nem kedvelem a bányászokat, de itt most speciel igazságtalanul kapják az ívet.

    "Végső soron azt kell mondjam erősen kétlem, hogy gamer kártyák közül több szénné húzott bontószökevény lenne, mint a bányászok közt"

    Viszont ilyet nem is állítottam. A kiindulási alap ugye az volt hogy "fúj bányászkártya", ez ilyen mindig újra felbukkanó "érv", hogy nem szabad megvenni, mert.. mert bányász, és akkor biztos lángvágóval volt melegítve, meg kalapáccsal verték szét, vagy ki tudja mi történhetett vele. Hát semmi, az történt. Ült a bányában és dolgozott. Mivel itt Magyarországon nemigen tudsz áramot lopni, így leginkább itt volt arra figyelve, hogy csak annyit fogyasszon amennyit muszáj, szóval pont hogy nem félni kéne tőle, hanem örülni neki.

    #335gbors: Lehet hogy volt ilyen is, de mivel nagy tételben, több kártyával kockáztatott a bányász, vajon mennyire volt hajlandó bevállalni hogy ma 10%-kal több coint termel, holnaptól meg 100%-kal kevesebbet? Meg ugye ezek elektronikai eszközök, rendesen letesztelhetők, nem olyan mint az autó, ahol majd fél év múlva jön elő a rejtett hiba (a kettőstömegű pl. szakaszosan kezdi a műsort, aki időben felismeri, azelőtt ki tud szállni belőle hogy feltűnne). Ha széthajtották a VRAM-ot, az szét van hajtva, rányomsz egy durva tesztprogramot, aztán kihozza hogy baj van, és nem veszed meg.

    [ Szerkesztve ]

  • Kansas

    addikt

    válasz Dr. Akula #340 üzenetére

    Azt nem kalkulálod bele, hogy hazánkban is elérhetőek olyan VGA-k amik külföldi bányászfarmokból szabadultak fel. Ha nem is feltétlenül Hardveraprón(bár gyanítom ott is), akkor, hát Ebayen meg Aliexpresszen.
    Lehet hogy te itt most konkrétan nem ezt állítottad, de sokan mások igenis fújják a mantrát, hogy a bányászkártya "biztonságosabb" mint a gamer, és ugyanazokat az érveket citálják, mint te itt.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Dr. Akula

    nagyúr

    válasz Kansas #341 üzenetére

    Igen, ilyen is lehet, de mennyi esély van rá? Útközben hamarabb találnak rá vevőt a kínaiak, valószínűleg eladják ott helyben a faluban, ahol 1 falu amúgy is olyan 10 milla lakos, és már megszokták hogy mindig át vannak verve. :)

    Én mindig is a bányászat ellen voltam, mert játszom, nem rulettezek, és eddig csak szoptam miattuk, és örülök hogy vége. De ez most egy kedvező mellékhatása a bedőlésnek, amit szerintem érdemes kihasználni.

  • Kansas

    addikt

    válasz Dr. Akula #342 üzenetére

    "Igen, ilyen is lehet, de mennyi esély van rá?"
    Arra mennyi esély van, hogy egy multicég szinte teljes globális IT architekt csapata Aliexpresszről szereli fel magát csúcskategóriás hardverrel rendelkező, de full noname(akkor még) okostelefonokkal(Chuwi, Doogee, stb)? No, pont annyi, talán egy kicsit több. Aztán az is megtörtént...

    "Én mindig is a bányászat ellen voltam, mert játszom, nem rulettezek, és eddig csak szoptam miattuk, és örülök hogy vége. De ez most egy kedvező mellékhatása a bedőlésnek, amit szerintem érdemes kihasználni."
    Ebben teljesen egyetértünk. Nekem is a bányászok pénzéből lett a mostani VGA-m, 15e-t fizettem rá az 5700XT-m eladási árára két éve, és volt más aki ennél még jobban járt.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Dr. Akula

    nagyúr

    válasz Kansas #343 üzenetére

    Céges beszerzésnél lehet gagyit rendelni, de 1 biztos: csakis újat fognak venni, tehát használt VGA kizárva. Ilyen úton kínai bányászkártya se jöhet ide. Reálisabb hogy aprós használtnepperek hozzák be. Kérdés hogy egyáltalán eljut-e idáig, vagy hamarabb eladják ott helyben, nem tökölnek postázgatással. Úgy vélem reálisabb hogy 1-1 darabok esetleg lehetnek ilyenek, de inkább csak kivételek, mintsem átlagos trend. Túl messze és túl kicsik vagyunk mi ehhez. Meg aztán ott áll a bányász a Föld túloldalán egy hangárnyi VGA-val (mert ahol lopták az áramot, ott igazán ipari mennyiségben bányásztak, nem a polgi munkahelyi gépe maradt esténként bekapcsolva), szóval ott áll Cseng úgy 15000 kártyával, vajon fog-e egyesével a világ másik oldalára postázgatni? :)

  • Kansas

    addikt

    válasz Dr. Akula #344 üzenetére

    Privát beszerzés volt... :D

    "vajon fog-e egyesével a világ másik oldalára postázgatni"
    1-1 konténerrel... :D

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • huskydog17

    addikt

    LOGOUT blog

    válasz devast #331 üzenetére

    Nincs még egy modern játék, ami Path Tracing-et használ, ennél modernebb technika nincs manapság, ezen felül a játék mindhárom felskálázási technikát támogatja.
    Számomra vicces, hogy pont a Fortnite-ot hozod fel, ahol a modern technika semmit ér a rajzfilm stílus miatt és a Shader Compilation akadásokat sem mondanám jónak. Az Epic saját RT megoldása meg sem tud közelíteni egy teljes path tracinget minőségben. Érdemes megtekinteni a DF ide vonatkozó videóját, eléggé kiábrándító az eredmény. Ez kb. olyan, mint a Minecraft RTX. OK, hogy a megvilágítás sugárkövetés miatt elvileg szebb, de mivel az egész játék úgy néz ki, mint a hányás, így nem ér az egész semmit, mert az összképen nem változtat.
    Felesleges ezen vitatkoznunk, mert te nyilvánvalóan teljesen máshogy értelmezed a technikai fejlett kifejezést. Számomra például az UE 5.x egy technikai katasztrófa marad addig, amíg nem oldják meg végleg normálisan a PSO akadásokat, ezt még az 5.1-el sem sikerült megoldaniuk, talán az 5.2-re használható lesz az a motor.

    #334 hahakocka :

    "A Path tracingen láttam olyan videótesztet hogy 10-20-30 fps eket dobott hát nem dobtam tőle hátast :D Még ha hiperszuper szép látványt is adna 10-20 fps ek nem hoznak lázba."

    Sokkal nagyobb sebességet is el lehet érni vele. Továbbra sem kötelező használni.

    "4070 el meg az a bajom amit a csatolt 2 képen látni. Remélhetőleg Intel és AMD ezt elkerüli de tartok tőle már ők se fogják ha siker lesz a 4070 metódusa."

    Az árazást az AMD-nek köszönheted, akik versenyképes technológia hiányában inkább beálltak kartellezni az NV-val. Az NV csak kihasználja, hogy nincs konkurencia és hogy piacvezetők.
    Majd szólj, ha az AMD ugyanezt a tempót fele ennyi pénzért adja és nem magasabb fogyasztással! Jelenleg azonban ott tartunk, hogy az AMD-nek semmije nincs a 4070 ellen.

    Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ

  • Gibo

    senior tag

    Ezt csak úgy itthagyom....Aki a fogyasztás miatt ódzkodna a 6950-től, az XFX két csatis :D

    Nokia 6101 -> Samsung J700 -> Samsung C5212 -> Samsung S8500 (Wave) -> Samsung S4 Mini -> Honor 7 -> ZUK Edge -> Vivo IQOO Pro

  • Sundesz

    őstag

    válasz Gibo #347 üzenetére

    Nem rossz ár, nálunk kb. ennyi a sima 6800. :)

    Az AMD-nek nem marad más, mint árban alámenni az Nvidiának, csak ezt nehezen akarták megérteni. De a 7900 XT is szépen lement 900 USD-ről kb. 750USD-re. Most 250 ezer alatt kb. minden kártyájuk jobb vétel a konkurenciánál.

    Hörcsög Powa'

  • b.

    félisten

    válasz Sundesz #348 üzenetére

    Csak ezen Amd nem sokat keres, persze ez minket nem kell hogy érdekeljen , csak hát nehéz úgy kompetensnek maradni a jövőre nézve egy cégnek ha a nyeresége egy részét most feláldozza.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • PuMbA

    titán

    válasz Sundesz #348 üzenetére

    "Az AMD-nek nem marad más, mint árban alámenni az Nvidiának, csak ezt nehezen akarták megérteni."

    Amikor már forrósodik a helyzet, akkor ezt kell csinálni. Innen látszik, hogy az NVIDIA, mint cég jobban áll, mert semmiféle nagy ár vágást nem csinál. A felhasználóknak viszont most nagyon jó az AMD az ára miatt. Én azért szívesen látnám azt a helyzetet is, amikor az AMD-nek nem kéne ezt megtennie, de mondjuk az NVIDIA csapná le az árakat keményen :)

    [ Szerkesztve ]

Új hozzászólás Aktív témák