Hirdetés
- Prezentálta sokadik AI útitervét az Intel
- Bírsággal karöltve kötelezi az Intelt a garancia betartására India
- Szabadalmi vita után bukta a német piacot az ASUS és az Acer
- Elképesztő sebességre képesek a Micron közelgő, PCI Express 6.0-os SSD-i
- Még ezüst is van a Pulsar és Vaxee közös egerének receptjében
- Prezentálta sokadik AI útitervét az Intel
- A Sony szerint a PlayStation 5 konzolokat még nem érinti a memóriahiány
- Fejhallgató erősítő és DAC topik
- Pendrive irás-olvasás sebesség
- Stabilan induló BIOS-t kaptak a nem induló Socket AM5-ös ASRock alaplapok
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- Apple MacBook
- Azonnali alaplapos kérdések órája
- VR topik
- Gaming notebook topik
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
S_x96x_S
addikt
válasz
Busterftw
#52913
üzenetére
> Ha a OpenAI szarja rosszul megy Nvidian, oldjak meg.
a latency probléma valós - és az OpenAI megoldotta Cerebras -al [1] :
( Vagyis Jensen racionálisan döntött a Groq licenszelésével;
Ezen kivül - remélem. hogy az új technológiát a jövőbeli consumer GPU-ban is elérhetővé teszik, vagyis a játékok is profitálnak majd ebből )----
[1] "Today, we’re releasing a research preview of GPT‑5.3-Codex-Spark, a smaller version of GPT‑5.3-Codex, and our first model designed for real-time coding. Codex-Spark marks the first milestone in our partnership with Cerebras, which we announced in January. Codex-Spark is optimized to feel near-instant when served on ultra-low latency hardware—delivering more than 1000 tokens per second while remaining highly capable for real-world coding tasks."
https://openai.com/index/introducing-gpt-5-3-codex-spark/ -
lenox
veterán
válasz
Busterftw
#52947
üzenetére
Tudom, az emberek tobbsegenek jo a latasa es objektivan meg tudja mondani, hogy melyik kep elesebb peldaul a 4 kozul vagy hogy melyik kevesbe mosott arc.
Egyreszt azt tudja megmondani, hogy melyiket _erzekeli_ elesebbnek, es ez ebbol kifolyolag szubjektiv, masreszt az elesseg erzekelese tobb dologbol tevodik ossze, pl. az elek kontrasztjabol, de amugy a tollovesek, tulelesitesek is elesebb erzetet eredmenyeznek, csak ebbol pont nem az kovektezik, hogy maga az alap algoritmus jobb-e, hanem pl. hogy milyen a postprocess. -
PuMbA
titán
válasz
Busterftw
#52947
üzenetére
"A tesztek osszessegeben a DLSS-t hozzak ki jobbnak a meresek alapjan"
De még egy mérést se raktál be
, így továbbra nem látom alátámasztva a mondandódat. Ha te statisztikákat meg felméréseket követelsz tőlem, akkor én is megkövetelhetem ezeket tőled. Pontos számokat szeretnék látni.#52951Busterftw: Nekem mérés kell, nem teszt adatok nélkül

-
lenox
veterán
válasz
Busterftw
#52944
üzenetére
Abban tevedsz, hogy attol, hogy van kepi eredmeny, annak ertekelese, ilyen modon, hogy te ranezel, es latod, hogy melyik jobb, az nemcsak, hogy szubjektiv, hanem egyebkent teves eredmenyt is hozhat, mert pl. a magas frekvencias kontraszt elterese miatt is ugy erzekelheti az agyad, hogy az egyik jobb, pedig azt mindegyiknel lehetne valtoztatni, de attol meg mas jellemzoje kolonbozo maradna (tehat nem azt ertekeled feltetlenul, amit gondolsz), vagy a masik fontos dolog, hogy amugy a temporalis hibakat a latas komolyan veszi, ez meg allo kepbol nem latszik. De amugy vannak objektiv modszerek (SSIM pl), csak a ranezes nem az, meg ha a Muter 40 eve magas szintu szamitogepes grafikaval foglalkozott is (amit amugy nem hinnek).
-
PuMbA
titán
válasz
Busterftw
#52944
üzenetére
"Hoztam konkret peldat. Ha nem latod melyik a jobb, mar mondtam mi a javaslat."
Nem tudom, hogy észrevetted-e már, de nem csak te egyedül létezel a világon. Ha megkérdezel egy másik embert, akkor mást fog mondani, mint te ebben az állításodban arra hogy melyik jobb.
Lásd DLSS 4.5 témában, sokaknak teljesen más a megítélése, mint neked, mert szerinted kegyetlen király, de valakinek jobban bejön a 4.0, mert jobbnak látja. Most is elkönyveled, hogy amit te látsz azt pont úgy látja más is. Hát nem
Miért vagy ennyire vak a körülötted lévő világra? Nem értem. -
PuMbA
titán
válasz
Busterftw
#52941
üzenetére
Igen, objektív különbségek vannak, hiszen az egyes pixelek színe más, de ezt a különbséget továbbra sem tudod objektív mérőszámba mérni / kifejezni az emberi érzékelés szempontjából, csak szubjektíven véleményezni, hiszen továbbra sem adtál meg nekem egy mérőszámot, hogy milyen relációban áll a 4 kép. A jobb felső kép 2-vel vagy 3-mal jobb a jobb alsónál? Még mértékegységünk sincs rá.
-
PuMbA
titán
válasz
Busterftw
#52934
üzenetére
"az adatok es az eredmenyek viszont szaraz tenyek."
Hol vannak ezek az adatok és eredmények? Én még nem láttam objektív mérőszámot se denoiser, se felskálázás minőség mérésére senkitől, se DigitalFoundry, se Hardware Unboxed nem társít semmiféle számadatot hozzájuk
De mutass egyet akkor. -
PuMbA
titán
válasz
Busterftw
#52932
üzenetére
Attól, hogy le van írva a metodika még mindig szubjektív, hiszen az emberekben nincs egy felskálázást / denoisert objektíven megítélő pontos mérőeszköz / mérőszám generátor
A látásunkra támaszkodhatunk főleg, amiben nagy szerepe van az agyunknak, amiben meg már ott a szubjektivitás. -
S_x96x_S
addikt
válasz
Busterftw
#52913
üzenetére
Ha a OpenAI szarja rosszul megy Nvidian, oldjak meg.
ez az nvidiának is fáj, mivel nem tudott segíteni a megoldásban.
( mert valószínüleg ráállította Jensen a legjobb embereit, hogy segítsenek az optimalizációban )vagyis a probléma valós
és érzékelhető mindkét cég számára.A probléma sürgössége miatt gyors megoldás kellett:
- openai : a cerebras partnerség.
- nvidia: groq technológia integrálása ( ami közép és hosszú távú megoldás ) -
S_x96x_S
addikt
válasz
Busterftw
#52911
üzenetére
> teljesen egymasnak ellentmondo dolgokat irnak
A hivatalos cukormázas diplomatikus "udvariasság" amit kifelé kommunikál mindkét cég - teljesen megfér a két cég közötti mély stratégiai érdekkonfliktusokkal.
Amúgy az OpenAI egyértelműen kiemelte
a sebesség előnyt a Cerebras partnerségnél.
(kimondatlanul utalva a jelenlegi nvidia hw -re )January 14, 2026
OpenAI partners with Cerebras
OpenAI is partnering with Cerebras to add 750MW of ultra low-latency AI compute to our platform.
https://openai.com/index/cerebras-partnership/"Integrating Cerebras into our mix of compute solutions is all about making our AI respond much faster. When you ask a hard question, generate code, create an image, or run an AI agent, there is a loop happening behind the scenes: you send a request, the model thinks, and it sends something back. When AI responds in real time, users do more with it, stay longer, and run higher-value workloads.
We will integrate this low-latency capacity into our inference stack in phases, expanding across workloads.
" -
-
VoltanIgor
aktív tag
válasz
Busterftw
#52859
üzenetére
Pontosan
Könyörgöm, ne induljunk el ezen az úton MEGINT, mert ez mindig oda vezet, hogy "Jaaj, már 64 gb VRAM is kevés full hd-ra".
Nem igaz, marhaság. Az, hogy van néhány vacakul összerakott játék, ahol ESETLEG 4k-ban kifut a RAM-ból, az nem jelent semmit.
Arra mondjuk kíváncsi leszek, hogy ha sokáig marad a RAM mizéria (remélem nem), akkor vajon a fejlesztők alkalmazkodnak-e, és visszavesznek-e kicsit a gépigényekből...
-
S_x96x_S
addikt
válasz
Busterftw
#52817
üzenetére
ha lenne ilyenje, az nvidiának ( gyors és olcsó inference )
akkor nem kellene a Groq.
és nem tartana a TPU-tól se.Bank America: "... a megállapodás azért fontos, mert az Nvidia ezzel implicit módon elismeri, hogy miközben a GPU-k továbbra is dominánsak az AI-tanításban, a piac gyorsan az inferencia felé tolódik, ahol a Groq LPU-hoz hasonló, ASIC-szerű célhardverei komoly előnyt jelenthetnek; ezek az LPU-k kiszámíthatóan és rendkívül gyorsan generálnak tokeneket, így kiegészíthetik az Nvidia általános célú, nagy HBM-memóriára és széles skálázhatóságra épülő GPU-platformját, amely továbbra is erős marad tanításban és sokféle modell, ügyfél és felhasználási eset kiszolgálásában. "
-
S_x96x_S
addikt
válasz
Busterftw
#52769
üzenetére
Nem ertem ez hogy jon ide. ... es StrixHalot ... nem hasznal jatekra,
--> pedig már legalább 3 db Strix Halo gaming handheld is létezik.
( bár nagyrészt jövőre jönnek )de amúgy ha másképp értetted,
akkor jelzem, hogy az RTX 5090 -t SE kifejezetten játékra veszik.
És a rövid úpgrade ciklust úgy kell érteni, hogy
a consumer nvidia GPU-k többsége ( ~80% -a ) 8-12GB VRAM-os -
S_x96x_S
addikt
válasz
Busterftw
#52763
üzenetére
> Amig a tobbsegnel Nvidia vga van, nem fognak kifogyni a VRAMbol.
Ahogy Jensen mondaná:
"More VRAM you buy - More you save"
és az NVIDIA-nak a rövid upgrade-ciklus = végtelen cashflow!Hogyha 2026–27-ben megérkeznek az új konzolokra
(PS5 Pro / Xbox Next) optimalizált
next-gen gamek >=16 GB-os VRAM igénnyel ;
akkor Jensen megint csak mosolyog,
és elkezdi forgalmazni az új nagyobb VRAM-os GPU-kat.Jelenleg a konzolgyártók döntik el a minimumot
és az NVIDIA pedig boldogan eladja a "megfelelőt".
win-win.
és még a GDP is növekszik ;
habár a mi pénztárcánknak nem tesz jót.De milyen erdekes hogy ez jegyzed meg, amikor epp csak az Nvidia kinal consumer vonalon 32GB-at, senki mas....
consumer vonalon ott
- az Apple M chip - a nagy egyesített memóriával
- valamint az AMD-től a StrixHalo ( 32,64,128GB ) -al.
- és jönnek a next-gen konzolok.A "dgx spark" -os GB10 -es még nem jelent meg
consumer vonalon, de talán jövőre olyan is lesz. -
válasz
Busterftw
#52764
üzenetére
Ez nem olcsójánoskodás, ha a GDDR6 sávszélességge elég a kártyához, akkor minek tegyenek rá 7-et? Az RTX (vagy legalábbis "RTX") 5050-en is GDDR6 van.
Az NVIDIA-nak azért kellett a GDDR7 szinte az egész vonalon, hogy alacsonyan tudják tartani a memóriabusz szélességét. Gondolom, ez most így érte meg, de ha tartósan magasan maradnak a memóriaárak, akkor ez változhat. -
S_x96x_S
addikt
válasz
Busterftw
#52721
üzenetére
> TSMC 3nm
> large share of this capacity is expected to be allocated to NVIDIA 'exclusively'."
az amd- 2026-ban a TSMC 2nm -rel tervez gyártatni,
ami kockázatosabb;
mig az nvidia eddig sokkal konzervativabb/kockázatkerülőbb volt,
de ez a jövőben ( >= 2027 ) változhat
( pl. a rubin ultra / feynman esetén )"NVIDIA is claimed to be TSMC's first A16 node customer, and this move marks a unique shift in the firm's approach, since it had tended to rely on older processes from the Taiwan giant."
( wccftech, 2025-sep-15 ) -
-
-
X2N
őstag
válasz
Busterftw
#52497
üzenetére
Hogyne lehetne, oda kerül a legtöbb hulladék, az olcsó és hangos bloweres kártyák 2 év garival, ennyit kell kibírjon.
Te tudod rosszul,(meg se lepődöm már a tegnapi hazudozásod után) mert ahol nem lehet szórakozni ott ólmos forrasztás van és 10–20+ évre vannak tervezve ezek a dolgok, 24/7 üzemre, extrém hőmérsékleti és páratartalom-tartományokra.
-
X2N
őstag
válasz
Busterftw
#52490
üzenetére
Na és mennyit fogyaszt 4k felbontáson?

Eddig úgy tudtam hogy a PNY a legalja gyártó a ZOTAC/PALIT/Gainward mellett nvidiánál.
Az hogy ők csinálják a Quadrokat nem jelent semmit az égvilágon, amikor az olcsó tantál kondik vannak a GPU túloldalán a normális kerámia kondik helyett, meg a költséghatékony uPI Semiconductor VRM az MPS helyett. -
PuMbA
titán
válasz
Busterftw
#52441
üzenetére
Best SSD for Gaming 2025: PCIe 5.0 vs 4.0 vs 3.0 vs SATA vs HDD
PCI-E 5.0 jóslat bejött már?
Még mindig ugyanolyan gyors a 3.0 játékok alatt.... -
S_x96x_S
addikt
válasz
Busterftw
#52415
üzenetére
> Megint elfelejtetted a kb 2 eve tarto diszkurzust,
> ahol mar 2 eve megnezzuk az UE5-os jatekokat
> es egyaltalan nem az latszik, hogy az AMD tobb vrammal jobban teljesitene.
Miért nem azért,
- mert "az NVIDIAAMDtobb vrammal jobban teljesitene." ?"Dragon Age: The Veilguard" - 2560 x 1440:
- RTX 5060 Ti 16 GB on PCIe 5.0: 57.0 FPS
- RTX 5060 Ti 16 GB on PCIe 5.0: 56.9 FPS
- RTX 5060 Ti 8 GB on PCIe 5.0: 34.0 FPS
- RTX 5060 Ti 8 GB on PCIe 4.0: 4.8 FPS
általánosságban:- Lehet nyivákolni ~ mások vélt nyivákolásáról ; de ez nem tesz hozzá a vitához.
- A trend az, hogy a játékok és az alkalmazások átlagos VRAM igénye
folyamatosan nő ; és ezután is folyamatosan nőni fog.
Valamint a Moore-törvényt a GPU/AI VRAM kapacitás növekedésre is lehet adaptálni.- A "640KB/8GB VRAM/*/ mindenre elég" típusú technikai vitákkal óvatosan;
Vagyis ha valaki vitázni akar, akkor ne technikai érvekkel érveljen ( pl. UE5..)
mert az zsákutca ...
hanem azzal, hogy az egész mögött közgazdasági racionalitás van.
Vagyis az nvidiának az az érdeke,
hogy a prémium árazúsú AI vonalat a gaming-től szétválassza!
Ezért anyagilag se érdekelt a gaming VRAM növelés gyors megvalósításában.
Vagyis a gaming-re optimalizált hardware költséghatékonysága
másodlagos lett az AI miatt.Ami mindenre gyógyír :
- az az erőteljesebb verseny, ami most kezd kialakulni.
( és a monopolisztikus piac a CPU-nál se jó )Biztos lesznek még olyan érvelések,
hogy az elmúlt 2-3 év alapján --> nem várható semmi új a következő 2-3 évben,
( és mivel az előző két évben nem nagyon volt verseny a konzumer GPU vonalon,
most se lesz ... )de a verseny mindenkinek jó ( kivéve az nvidia részvényeseknek )
-
hahakocka
őstag
válasz
Busterftw
#52409
üzenetére
"A 5070 is csak azt bizonyítja, hogy nem minden a vram, a GPU erő fontosabb."
Az hogy sokan megvették nem jelenti technikailag még ezt. Avatart is sokan nézték mégis egy rossz film amit idén 3.ára copyznak le most már önmagáról is meg Pocahontas s egyéb filmekről. Attól hogy valamit sokan vesznek néznek nem biztos hogy szuper.
A 9070 erősebb gpu-ban is az 50 game-es pl Techtester teszten látszik hogy azért nagy difik is vannak, (20-30% egyes gameknél, de átlag 15% nem sima matematikai átlag hanem a legtöbbször kb előforduló s középérték) itt inkább márkahűséget és marketing szagot érzek meg akinek nagyon kell az RT-DLSS bár ott is kb 10% a difi. S azóta volt egy nagyot ugró új AMD Driver boost.
A több vram pedig időtálóbb ezt most sortban bizonyítja sok-sok UE5 ös vagy kötelező RT-s game kb
FHD n döglenek a 8gb os kártyák sokszor. Meg az RT től. A 12GB is már necces hosszútávra 2-3 évre. Lowon-mediumon persze lehet tolni aki akarja. Főleg a szarul optimalizált játékoknál ami eszi a vramot. De az esetleges stateringet akkor is megkapja kb mindenki pl UE 5 engine esetén általában.
Ja de ez OFF topik viszont tényleg. Bár akkor nem tudom miért van róla most szó mindenkitől.
Superekről inkább kéne sok sok új valid infó. Meg megjelenési dátum. -
T.Peter
őstag
válasz
Busterftw
#52394
üzenetére
Meg mindig semmi koze a display resolution-nek vagy render resolution-nek a texture resolution-hoz.
Ismetelni tudom magam, nem azt irtam, hogy nem jobb, hanem hogy nem mindenben jobb.
Addig szamit, amig a kevesebb vram miatt nem fut bele egy olyan esetbe amikor a min fps beszakad. Tudom, nem ez az atlag, de attol meg tenyezo, plusz ahogy irtam, ha nem fukarkodnanak a vram-mal, el lehetne indulni a jatekokkal masszivabb iranyba is.
Nem tudom, hogy ez hogy jon ide, az volt a problemad, hogy nem latsz kulonbseget high es ultra kozott. Azt ertem, hogy szerinted ez a megoldas, hogy akkor majd mindenki leveszi a textura felbontast es ennyi, de ha raknanak ra eleg memoriat, amit megtehetnenek, akkor nem kene a texturakat bantani, alapbol johetnenek a jatekok 8k texturaval, stb.
-
T.Peter
őstag
válasz
Busterftw
#52384
üzenetére
Van 5060ti 16gb-tal, de van 5070 12gb-tal, aminek jobbnak kene lennie minden szempontbol, megsem az, pedig dragabb. Az elsodleges problema azokkal a kartyakkal, amiket a vram mennyiseg fog vissza, hogy bizonyos szempontbol visszafogja a fejlodest. Ezt irhatom altalanosan is, mert a series s is ezt csinalja, de amig ezek a piacon vannak, addig venni fogjak, foleg ha van eleg arkulonbseg koztuk. Ha pedig a piaci eloszlas nem mozdul el 16gb fele, akkor nem varhato el, hogy olyan jatek keszuljon ami ki is akarna hasznalni a tobb vramot. A konzolok ezen majd fognak valtoztatni, de lathato, hogy stagnalas van.
Nem is fogsz latni extreme beallitason akkora kulonbseget, mert mar ott tartunk, hogy egy pici ugrashoz is sokkal tobb erofeszites kell es csak olyan reszek valtoznak amiket nehezebb eszrevenni. Pc-n lehetne amugy sokmindent kulon csoportositani, de latszik, hogy ezt a plusz munkat nem akarjak beletenni, pedig lenne ra kereslet. High res texture pack is ritka es amugy is alapnak kene lennie.
Azert lett a gpu a bottleneck, mert memoria szinten stagnalunk. A konzolok is.
-
T.Peter
őstag
válasz
Busterftw
#52378
üzenetére
Megis kinalnak 8gb-os modelt a kozepkategoriaban, nem is annyival olcsobban.
Nem, nem tervezik. Az, hogy pc-n tudsz feljebb menni, nem azt jelenti, hogy az a target. Itt a fo szempont, hogy series s-en is elfusson, szoval ott van 8,5gb-od mindenre, oszd be. Switch 2 is bejott mar a kepbe, nem sokkal tobb rammal. Pc-re pedig nem fognak tobbet belerakni. Legtobbszor meg az sincs megoldva, hogy legalabb a texturak legyenek nagyobb felbontasuak pc-n a konzolokhoz kepest. A vilag nagysaga, reszletessege, stb pedig meg sincs emlitve, de ez jelenleg a series s bune.
En semmi ilyet nem irtam, az 5050-nel felhozni a 8gb-ot teljesen abszurd, oda teljesen ok. Viszont 5060-nal, ahol lathato, hogy a gpu 16gb mellett futja ki magat a tesztekben, foleg olyan aron, nem oke.
A tobbi oldal sem jobb, szoval egyik gyartot sem kene vedeni, hogy keptelenek haladni a korral, segiteni a fejlodest ebbol a szempontbol is. Amikor csak azert kell butitanod a jatekot mert a vram nem eleg, de amugy a gpu meg megbirkozna vele, akkor ott szerintem nagyon nem oke az egyensuly. -
T.Peter
őstag
válasz
Busterftw
#52373
üzenetére
"Akinek olyan, normalis igenyei vannak, hogy kell a vram, az Nvidia kinal 32GB-ot jelenleg."
Ezt a reszt atgondolhatnad. A tobb vram-nak meg kene jelennie az alsobb osztalyokban is, hogy vegre lehessen 8gb fole tervezni a jatekokat. Ezt a 32gb-os 5090 nem fogja megoldani. A kozepkategoriaban el kene felejteni a 8gb ramot, pl a 9060-on, 5060-on (foleg ugy, hogy arban alig van kulonbseg a 8-as es 16-os verziok kozott). Az 5050-en a 8gb teljesen rendben van amugy. -
S_x96x_S
addikt
válasz
Busterftw
#52366
üzenetére
Epp ezt mondom, hogy barmilyen teszt vagy jatek nelkul megy a rugozas a nagy semmin.
Szokasos modon.

A kérdések mögött a 8GB -os kártyák jövője áll.
Vagyis: Szabad-e manapság egy ilyenbe beruházni ?vagyis aki jól akar dönteni az RTX 5050 vétele, ( vagy másoknak ajánlása ) előtt,
annak azt is végig kell gondolni, hogy mi várható a következő 2-3 év játék trendjeinél.----
amúgy érdekesség,
hogy most már az optimális "e-Sport HW konfig" - definiálása se olyan egyértelmű,
mert egyre inkább bele kell érteni a köznyelvben is a Sakk-ot.
( ami amúgy szintén "játék" )
lásd : "2025 Esports World Cup – Chess"
és majdnem a
"GeoGuessr is a browser-based geography game in which players must deduce locations from Google Street View imagery" is bekerült a versenyprogramba
Amúgy a világbajnokságok szereplő
e-sportos PC-s játékok listája [ Apex Legends .... Valorant ]
itt látható:
https://en.wikipedia.org/wiki/2025_Esports_World_Cup -
szarnyasdino
tag
-
S_x96x_S
addikt
válasz
Busterftw
#52326
üzenetére
> Miért találod furcsának, hogy a Linux - Others "csak" +0.05%-el változott?
inkább érdekesség - amire biztos van magyarázat.;
( Itt irtam #52318 )vagyis:
Linux RDNA4 ( +0.42 ) vs. Linux-Others [ incl . RTX 50xx ] ( +0.05% )
- "Linux - Others" (tartalmazza az összes RTX 50xx-et) +0.05%
- "Linux - AMD Radeon RX 9070/9070 XT/9070 GRE" +0.21%
- "Linux - AMD Radeon RX 9060 XT" +0.21% -
S_x96x_S
addikt
válasz
Busterftw
#52324
üzenetére
Akkor lassan kezd kialakulni a konszenzus:
- a Linux "Others" +0.05% -el változott 1 hónap alatt,
- a Linux Others-ben az összes Blackwell is benne van,
- nem tökéletes a Steam HW felismerése.
persze ez csak egy túl-egyszerűsítés részemről, és van sokkal jobb magyarázat, hogy
a Linux - Other a Blackwell -el - miért csak +0.05% -el változott 1 hónap alatt,----
Amúgy a https://store.steampowered.com/hwsurvey/directx/ -ben
( ami nem sokra használható , mivel csak az adatok ~ 1/3 -át részletezi )
látszik még a
- "NVIDIA GeForce RTX 5090 D"
- "NVIDIA GeForce RTX 5080 Laptop GPU"
- "NVIDIA GeForce RTX 5090 Laptop GPU"
és az "RX 9070" -esek is. -
-
cucka
addikt
válasz
Busterftw
#51255
üzenetére
Szerintem az összes mostanában kiadott játék támogatja, a régebbieknél meg ugye gyengébb videókártyán is futnak natívban, ott nincs rá szükség.
#51256BerserkGuts
Az dlss nem homályosít, a homályos renderelés a modern játék engine-ek meg a TAA mellékhatásai. És persze stilisztikai döntések eredménye, egy depth of field azért van a játékban, mert a fejlesztők azt akarták. (És általában ki tudod kapcsolni ha zavar)Az én tapasztalatom, hogy az új dlss semmilyen homályosítást, vagy egyéb zavaró képhibát nem okoz. Lehet, hogy régen az első verziónál voltak ilyen gondok, de most a dlss4 lényegében kompromisszum-mentes, hülyeség nem bekapcsolni.
(Elvileg az új FSR is jó lett, ellentétben a korábbi verziókkal, de ez nvidia topik, meg nem is próbáltam)
Nyilván csodák nincsenek, itt dlss quality-ról van szó. Ha performance-ra kapcsolod, akkor a brutál fps-növekedésért cserébe már kompromissszumot kell kötni. -
-
yarsley
aktív tag
válasz
Busterftw
#51235
üzenetére
Én is szkeptikus vagyok, meg volt olyan hír korábban hogy hanyagolják a Superek kiadását, mert kb évente akarják az új sorozatot piacra dobni inkább, DE az 5070-ben van még lehetőség, illetve a GB205 node-ban, mert a 70-es az a vágott változat (GB205-300 wiki szerint)
-
S_x96x_S
addikt
válasz
Busterftw
#51159
üzenetére
Jövőállóság hiányát a statisztikából nehezen olvasod ki,
de ha már megjelenik a statisztikákban is, akkor az már késő.Persze értem én, hogy adatvezérelt szeretnél lenni,
de a GPU technológia menedzsment sokkal több mint pusztán a statisztikák értelmezése.Már az RTX 4060 Ti 8GB is sok kritikát kapott
és az új generációnál se látszik nagy változás,
remélem a következő generáció jobb lesz.Viszont ha az RTX60x0 - nagyot ugrik VRAM terén,
akkor az RTX 50 - nem lesz egy jó évjárat. -
DudeHUN
őstag
válasz
Busterftw
#51159
üzenetére
Alsó-középkategóriáig 8GB-os kártya kapható -> az emberek azt veszik, mert az fizethető meg -> a statisztika szerint erre van igénye az embereknek -> így az alsó-középkatig 8GB-os kártya kapható -> az emberek azt veszik, mert az fizethető meg -> statisztika szerint...
-
T.Peter
őstag
válasz
Busterftw
#51152
üzenetére
A konzolok ram mennyisege ugyanugy visszafogja a fejlodest. A kcd2 is lehetett volna tobb ha nem 8.5gb kihasznalhato ram lenne az xss-ben, de van eleg sajat peldam ami miatt a 8gb szerintem egyaltalan nem oke 2025-ben, foleg ilyen arakon.
Mi van azokkal, akik 1080p-ben jatszanak es csak a texturakat szeretnek magasabb szintre allitani hogy ne mosott texturakat nezzenek? Nincs opciojuk a te logikad szerint, mert tobb ram magasabb felbontashoz kell csak.
8gb-ot nem kene ezen a szinten arulni, foleg nem ennyiert. £200 es alatta ok.
Nem kene tovabb tapsolni ahhoz, hogy meg mindig ilyen arakon adnak 8gb-ot es alatamasztod ezt azzal, hogy a jatekok nem igenyelnek tobbet, mikozben igenyelnenek, mert olyan megoldasok/meretek elott nyitna meg az utat amik jelenleg nincsenek. Teljesen mindegy melyik gyartorol van szo. Nem kell statisztikaval azt sem alatamasztani, hogy meg mindig veszik a 8gb-os modelleket, mert mindig lesznek ilyenek, foleg ha nincs mas adott aron. Mondjuk ebben az esetben az £50 kulonbseget kb mindenkinek inkabb ki kene kuzdenie magabol. -
válasz
Busterftw
#51149
üzenetére
Nagyon kevés az olyan játék, ahol a 4K-s felbontáshoz több, mint 1.5x több VRAM kell, mint fullDhez, azonos beállítások mellett. Úgyhogy ha 4K-ra 16GB a minimum, akkor fullHD-re 11GB (gyakorlatilag 12, de gondoltam a 2080Ti tulajokra
), ill. ha fullHD-re elég a 8, akkor 4K-ra elég a 12.
A HUB teszt nekem is gyanús több szempontból is, de ettől függetlenül valószínűleg igazuk van abban, hogy vannak már játékok, ahol már most kevés a 8GB fullHD-re. És ha ez így van, akkor mi lesz 2-3 év múlva?Raymonddal értek egyet, a 4060 esetében esetleg benyelhető a 8GB - a 4060 Ti 8GB viszont kicsit olyan, mint az 1060 3GB volt.
-
válasz
Busterftw
#51152
üzenetére
Én is ezen a véleményen vagyok, aki 90%-ban simán belefér a 8GB ramba, mert csak mondjuk Minecraftozik a gyerek, minek adja ki a pénzt a drágább 16 gigás kártyáért?
Persze lehet ütni a mantrát, hogy 16GB Vramot kér a nép, aztán inkább azt kell nézni, hogy mivel 2 év múlva se lesz PS6, évente 8-10 AA/AAA játékon kívül elég lesz a 8GB is (egyre több esetben kompromisszummal)
Infláció miatt egy 5 évvel ezelőtti 400 USD az most már közel 500 USD-t jelent, csak mondom. Ugyanígy ami most 200k huf a kezedben, az 2020-ban saccra kb. 140 ezer volt. Szal jah, a mai 200k az nagyon nem egyenlő az 5 évvel ezelőtti 200k-val. -
T.Peter
őstag
válasz
Busterftw
#51149
üzenetére
Ha a kartya kepes 4k-ban futtatni valamit normalis tempoban adott beallitasok mellett, csak a vram hianya fosztja meg ettol, akkor nem a kartyaval meg a jatekkal van a gond, hanem a vram hianyaval, amit nem indokol sem a felbontas sem az arkulonbseg ebben az esetben.
Nem gondolod, hogy az nem oke, hogy nekunk kell alkalmazkodni a vram mennyisegehez mert a gyartok ennyit adnak az also szinten, mikozben megtehetnek, hogy dupla legyen a minimum? Ha nem lehetne kapni 8gb-os kartyat olyan szinten amit a legtobb jatek megad "minimumnak" akkor a fejlesztok nem a 8 gb-hoz lonek be a jatekot, hanem tobbhoz. Mondhatod, hogy 40 jatekbol 30-nal ok a 8gb, de ez mind azert van, mert meg mindig ez a target (van az a 10 kivetel ahol pedig ugy dontottek, hogy nem fogjak a 8gb-ra mindenaron megoldani). A te felfogasod szerint a 4gb-ot is el kene fogadni, mert lejjebb lehet venni a beallitasokat. A vram mennyisege ugyanugy megfogja a fejlodes tempojat. -
T.Peter
őstag
válasz
Busterftw
#51147
üzenetére
Semmihez nem kene kotni.
Felbontastol fuggetlen a texturak alap merete, szoval jatszhatnal 720p-ben is, attol meg lehet, hogy lenne olyan felulet, amire 4k texturat szeretne kirakni a jatek, de nem fog, mert le kell venned a textura minoseget is hogy beleferj a vram-ba. Lehetne meg mas peldat is hozni amugy.
Senki nem var el tobbet, mint amire valok. Ha van 2 kartya amik kozott csak a vram mennyisege a kulonbseg es vannak jatekok, ahol a +8gb miatt a gyorsulas akar 100% azonos beallitasokkal es a vegeredmeny 60+ fps, akkor ne mondjuk mar azt, hogy a 8gb-os verzio oke alacsonyabb felbontasra. Foleg, ha a ketto kozotti arkulonbseg sem indokolja a letezeset a kisebbnek.
Attol meg, hogy nagyon sok minden skalazodik a felbontassal, mert igy csinaltak meg a rendszereket, nem jelenti azt, hogy ez megoldas. Nanite, Lumen, Virtual textures, stb mind mind skalazodik, szoval ezeknel "eszre sem veszed" ha csak 8 gb-od van, csak minosegben lesz elteres, de ettol meg a 8 es bizonyos esetekben a 12gb is szivatja a fejlesztoket. Egyaltalan nem oke, hogy meg mindig ott tartunk, hogy 2k-s texturakat nezegetunk a jatekokban mert nincs eleg vram (es ez csak egy pici szelete annak, amit be lehetne rakni meg, ha lenne eleg vram). -
Quadgame94
őstag
válasz
Busterftw
#51140
üzenetére
A 16 GB verzió igenis 1440p-re való, sőt 4K DLSS Q-ra. A 8GB meg mire is jó? 1080p Medium/High?
Tehat mit jelent hogy sokkal lassabb? Mirol van szo? Lassabb mint vartad? Lassabb a spec ellenere?
Ezekszerint nem értetted meg mit írtam. A 8 GB verzió lassabb 1440p-ben is a 16 GB verziótól. A 16 GB teljesítménye egyébként okés, semmi extra, de nem is gyalázat. Itt a 8 GB verzió a gázos.
Mar valaszoltunk, azoknak, akiknek kiadtak eddig a XX60-at az elozo generaciokban, belepo szintre, ennyi budzsevel.
Csakhogy eddig alig volt differencia pl a 4060 Ti 8 v 16 GB verziója között. Most pedig van, ami még okés is lenne, hiszen a 16 GB drágább, de a 8 GB kártya már 1440p-re sem való.
-
válasz
Busterftw
#51140
üzenetére
Szerintem a kettőtök között van az igazság.
Eza kártya ahhoz szerintem is drága, hogy ennyi Vram legyen rajt csak.
Persze van az a helyzet amikor ennyi pénz van és a lehető leggyorsabb kártyát veszi az ember ez tény.
300 dolláros áron ez a teljesítmény a vram ellenére egyébként szerintem még elfogadható lenne.
3 GB modulokkal vagy GDDR6 tal ezen az áron kitolhatták volna a 8 GB memóriát. -
Quadgame94
őstag
válasz
Busterftw
#51127
üzenetére
Te direkt sportot üzöl abból, hogy félreérted amit írok, vagy egyszerűen gyenge a szövegértésed? 8 GB verziót vitattam és kérdeztem, hogy annak mi értelme van és kinek készült, nem magát a kategóriát amit képvisel. Szóval megint olyamsivel érvelsz aminek semmi köze ahhoz amit írtam.
Az 5060 Ti 8GB egy vicc. 1080p mediumra 200 ezres kártya? 1440p-ben 20 százalékkal lassabb átlagban, de van amikor 30-40%-al, pedig a kártya képes bőven az 1440p gamingre. Még 4K DLSS Q gamingre is. Ez a lényeg.
Minek adta ki a 8GB verziót az NV? Kinek kell ez őszintén?
-
Alogonomus
őstag
válasz
Busterftw
#51062
üzenetére
Ezeket főleg a tudatlan szülők veszik a gyereküknek vagy prebuilt gépekbe szerelve, vagy önálló kártyaként. A tudatlan szülő pedig csak azt nézi, hogy az Nvidia, RTX és DLSS szerepel a dobozon. Azon szerencsére már kezdünk túllépni, hogy a kék Intel matricát is megköveteli a gyerek a szülőtől. A tájékozatlan szülő végül megveszi a gyerekének a matrica-kritériumoknak megfelelő gépet. Amikor pedig a gyerek panaszkodik, hogy ez vacak, akkor a szülő csak annyit válaszol, hogy te kérted ezt, leghamarabb 5 év múlva választhatsz újat.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Lenovo Legion laptop 15.6 / i5-9300HF/8GB/1TB HDD + 512GB SSD!
- Új Asus Zenbook 14 WUXGA OLED 10bit HDR Ultra7 155H 16mag 32GB 1TB SSD Intel ARC Win11 Garancia
- Hp ProDesk/ EliteDesk SFF/MT G4/ G5/ G6 / i5 8-9-10.gen /Win11- Számla, garancia
- MacBook Air 13" M2 / 256GB / 8GB midnight (éjkék) / 96% akksi
- Bomba ár! Dell Latitude 5495 - Ryzen 5 I 8-16GB I 256SSD I 14" FHD I HDMI I Radeon I Cam I W11 I Gar
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest
, így továbbra nem látom alátámasztva a mondandódat. Ha te statisztikákat meg felméréseket követelsz tőlem, akkor én is megkövetelhetem ezeket tőled. Pontos számokat szeretnék látni.
![;]](http://cdn.rios.hu/dl/s/v1.gif)

FHD n döglenek a 8gb os kártyák sokszor. Meg az RT től. A 12GB is már necces hosszútávra 2-3 évre. Lowon-mediumon persze lehet tolni aki akarja. Főleg a szarul optimalizált játékoknál ami eszi a vramot. De az esetleges stateringet akkor is megkapja kb mindenki pl UE 5 engine esetén általában.





