- Milyen TV-t vegyek?
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- VR topik
- Milyen billentyűzetet vegyek?
- Amazon Fire TV stick/box
- Kormányok / autós szimulátorok topikja
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Házimozi haladó szinten
- Bambu Lab 3D nyomtatók
- A Windows 11 lett az úr az asztali PC-k piacán
Új hozzászólás Aktív témák
-
S_x96x_S
addikt
Nahát .. a SemiAnalysis - megdicsérte az AMD-t.
-
S_x96x_S
addikt
ASUS Ascent GX10 with GB10 Blackwell Superchip launches July 22, marks NVIDIA’s entry into ‘desktop CPU’ market
A 128GB -os ~ Big APU - vonalon lesz
egy kis verseny a Strix-Halo -val
és az Apple Mac Studio-val.és jöhetnek a gaming benchmarkok is.
( GB10 vs. StrixHalo ) ,
főleg hogy a Microsoft egyre jobban támogatja az arm-et. -
-
S_x96x_S
addikt
~ Amazon US : darabszámára ( N:70% - A:28% - I:2% )
"""
🔥 GPU Retail Sales June '25 Amazon US 🇺🇸
Polaris outselling ARC...
ℹ️ Market Share (by Units Sold):
Nvidia: 70.51% (31,200 units)
AMD: 27.57% (12,200 units)
Intel: 1.92% (850 units)
ℹ️ Revenue Share:
Nvidia: 78.61% ($18,720,000)
AMD: 20.49% ($4,880,000)
Intel: 0.89% ($212,500)
"""
https://x.com/TechEpiphanyYT/status/1941064015016341736 -
Alogonomus
őstag
válasz
S_x96x_S #49329 üzenetére
"Az nvidia legalább próbálkozik,"
Nem próbálkozik, mert adná drágábban is, ha tudná, hiszen eleinte is magas felárral kerültek az RTX 50-es kártyák a boltokba, csak azon az áron lényeges kereslet nem volt a kártyák iránt. Az MSRP ár környékéig csökkenve már megjelentek jelentősebb számban a vásárlók, de annál magasabb hasznot szeretne elérni a kártyákon az Nvidia, ezért a 3 GB-os modulokkal szerelt kártyák megjelenéséig inkább visszafogja a kínálatot, hogy talán a bővített memóriakapacitású kártyák majd jobban fogynak ősszel.
-
S_x96x_S
addikt
> . Semelyik VGA gyártó nem képes MSRP áron adni a kártyáit,
.....
Az nvidia legalább próbálkozik,
....
hogy MSRP környékén tartsa az árakat és ne menjenek az árak túlságosan le.
( kénytelen a supply -t csökkenteni 30%-al )---------
(Jul 3, 2025 )
"NVIDIA’s RTX 50 GPU Supply Expected to Fall By More Than 30% At a Time When Prices Have Finally Started to Stabilize"
https://wccftech.com/nvidia-rtx-50-supply-expected-to-fall-by-more-than-30-percent/"NVIDIA started the reduction process last month, and it seems that in July, the RTX 50 series supply is slated to drop by more than 30%. The reason behind the decision isn't specific for now; however, based on the retail prices of NVIDIA's RTX 50 series GPUs across the board, it is evident that Team Green doesn't want models to be available at MSRPs, especially the higher-end ones. And, given that NVIDIA has populated the mid-tier segment with its recent 60-class and 50-class releases, the company might find it sensible to start cutting supply from the top-end SKUs."
-
-
Raymond
titán
Hat nem tudom, az NV kartyak hetek ota MSRP aron vagy alatta vannak EU-ban az 5090-et kiveve de meg az is ott mozog a kozeleben, volt hogy rovid idore ala esett.
Szerk.: sot meg a 9060XT 16GB is van MSRP aron az indulastol, pedig ott voltak sokan akik ketelkedtek hogy lesz.
-
Devid_81
félisten
Regio fuggo, Angliaban a legtobb NV kartya MSRP aron, vagy ahhoz nagyon kozel kaphato.
Nemetben es EU tobbi reszen is van MSRP vagy ahhoz nagyon kozeli aron VGA.
Az US piacot a cheetos feju bohoc szivatja, abbol nem indulnek ki ami ott van jelenleg.AMD 9070/XT kartyak meg mindig dragabbak mint kellene szinte mindenhol, mivel elegge viszik igy is ezert nem csokkentik az arukat a nagykerek/kiskerek.
-
PuMbA
titán
Végleg elbúcsúzhatunk az MSRP-től, ami egy hasraütéses szám lett. Semelyik VGA gyártó nem képes MSRP áron adni a kártyáit, hiába tweetelte például Frank Azor 3,5 hónapja, hogy de. A beszéd az mindig egy dolog, a másik a valóság
Nagyon érdekesek lesznek a következő generáció árai.
-
válasz
Alogonomus #49321 üzenetére
Ez amúgy teljesen igaz,de ezért tenni kell.
-
válasz
BerserkGuts #49312 üzenetére
Egy videókártya család nem az 5090 ből áll sőt az a legkisebb mértékben eladott kategória. Az amúgy tökéletesen alkalmas már munkára valószínűleg aki elvitte vagy fullon van pénzzel vagy hamar megtérül neki a kártya ára munkából adódóan . A blackwell RTX 6000 9000 dollár kb, igaz több vram de kb ennyi. Ha valakinek elég munkára a 32 Gb akkor egymillió forintos 5090 ből vehet kb 2-3 darabot.
Azt felhozni példának egy konzol tudásához végletesen sarkított erre utaltam.
Egy ps5 mellé nyugodtan odatehetsz egy RTX 4060 -5060 kártyát nem fogsz rosszabb minőségben játszani, sőt. -
Alogonomus
őstag
Akkor van értelme forradalmi fejlesztéseket hozni, ha azokat majd használják is a szoftverek.
Az RDNA3 – többek között – például elhozta a dual issue képességet, amivel papíron elméletileg nagyot gyorsulhattak volna az érintett RX 9000-es kártyák, de mivel a játékmotorok túlnyomó része egyáltalán nem használja ki azt a lehetőséget, így lényegében meddő fejlesztés lett. Egyedül talán az Infinity Ward aknázta ki az RDNA3-ban rejlő lehetőségeket, ami aztán az eredményeken is meglátszott. Na meg részben esetleg az Epic az UE5 kapcsán.
Azért is tűzte ki célul a jelenlegi generációban az AMD a Radeon kártyák piaci részesedésének növelését, mert jelentősebb piaci részesedés nélkül a játékfejlesztő stúdiók nem bajlódnak a Radeon kártyák extra képességeinek a támogatásával. -
-
Abu85
HÁZIGAZDA
Mivel az AMD és a Sony kötött egy megállapodást Project Amethyst néven, így most már muszáj úgy összedolgozniuk, hogy az egyes Sony technológiák portolhatók lehessenek PC-re. Tehát most már a hardver tervezése is összefonódott, mert a Project Amethyst garantálja a Sony-nak azt, hogy ha hoznak egy PS6 portot PC-re, akkor PC-n is lesz hardver hozzá, ami futtatja az egyes eljárásaikat. Ez régen a Sony számára nem volt fontos, mert csak mostanában kezdtek el PC-re portolni, de így fontos lett, és meg kell oldani azt a problémát, hogy a Sony saját dizájnokat is tervez, amiket nem biztos, hogy a Microsoft, az NVIDIA, az Intel, stb. lemásol. Tehát kell legalább egy gyártó, ahova a fullos kód portolható, az egyes eljárások kikapcsolása nélkül. Ez a Sony számára egyszerűsíti a portolást, mert elég a PS6-ra dolgozniuk, és bármit amit oda megírnak, azt legalább az AMD-re át tudják hozni. Ha másra nem, az se baj nekik, mert raknak egy "if not AMD, turn off" feltételes elágazást a kódba. Ezzel nagyon olcsón és nagyon gyorsan fognak portolni, miközben élvezik a PC-s eladásokat. Lényegében profitot maximalizálnak.
Az RNDA 4 és az FSR 4 saját technológia. A Sony egyiket sem használja. A Sony egy saját RDNA verziót tervezett, ami nem hasonlít az RDNA 4-re, viszont az FSR 4-et tudják rá úgy portolni, hogy az algoritmus megváltoztatása nélkül fusson. Ettől persze az implementációt nagyon meg kell változtatni, mert a Sony AI hardveres más, mint az AMD AI hardvere. De egyébként az FSR 4 eleve portolható lenne más AI hardverre is, akár úgy, hogy az algoritmust nem éri módosítás, mert mátrixszorzás az egész. Az implementációban kell változtatni.
-
Busterftw
nagyúr
válasz
S_x96x_S #49316 üzenetére
Igen, arrol beszeltem.
Itt vannak, csak nem megnyithato, de ezt mar a multkor is leirtam.
Ha elerik a minimumot, akkor megjelenik.De hogy teljesebb legyen az osszkep, a Linux reszesedese: 2.57%
Minden mas pedig nem furcsa, korantsem, ettol fuggetlenul ez nem teljesen pontos statisztika. -
S_x96x_S
addikt
válasz
Busterftw #49315 üzenetére
a kontextus: a "Linux alatt" - volt.
és hol látod te a Linux -os résznél ?
https://store.steampowered.com/hwsurvey/?platform=linux
--> Video Card Description (Linux)
-----> Search: "RTX 50" - nulla találat.
-----> Search " RX 90" - 1 találatat ( AMD Radeon RX 9070/9070 XT/9070 GRE )Hol látod a Linux-os résznél az RTX 50 -es GPU -kat ?
-
S_x96x_S
addikt
válasz
Busterftw #49309 üzenetére
> Kijott a juniusi Steam stat.
Linux alatt ( Linux only - Video Card Description (Linux) )
- nincs semmilyen RTX 50 -es GPU. ( ??? )
-AMD Radeon RX 9070/9070 XT/9070 GRE 0.85% +0.85%
( vagyis ha CHANGE = +0.85% , akkor az előző hónap mi is lehetett? )Persze az RX 9070 kivételesen
az előző havi linux-os statisztikában is szerepelt ( 0.46% +0.26% )
Vagyis nekem még mindig furcsák a számok.
[ van róla képernyőfotóm is. - a 2025 May Steam -ről ]
-
Busterftw
nagyúr
válasz
Gainka #49311 üzenetére
Itt arrol beszel, hogy az AMD-nek kellene mereszebbnek lennie es hozni az ujdonsagokat.
Az apro vasarlo ero pont azert maradt, mert par generacioval ezelott bealltak az Nvidia moge, leultek a langyos vizbe es csak kihoztak 1-2 eves kesessel azokat a valasz fejleszteseket, amit kihozott az Nvidia.
Pedig itt most az Nvidia is megkonnyitene a dolgot, mert a Blackwell nem ugrott akkorat a node miatt.b. epp azt mondja, hogy itt az AMD mar nem uti a vasat ugy, mint regen, nem problakozik, nem innoval, mert a konzol uzlet/fejlesztesek erosen megkoti a kezuket.
Mar reg nincs fokuszban a consumer vga. -
BerserkGuts
addikt
De mégis 2évente adnak ki videokártyát aztán az 1millió forinttal alá is lőttem mert 2millió forintért is elvitték rtx5090-et amikor fent voltak az árak még február környékén.
A ps5 meg 2020-as azóta már az rtx 4000 széria is kijött szóval sok értelme nincsen a pc-nek pénz égetésre tökéletes mazochizmus. -
Gainka
őstag
Kiosztod miközben te alkalmazol kettösmércét. Egy piacvezetö cég utáni loholást hivahtunk fejlödésnek csak ez a helyzet az én szememben nem 100% pozitiv. Aztán "beleszart" tehát ha én rossz munkát adok ki a kezemböl neked akkor is tapsolnod kell nekem, ismerös helyzet ez az emberi kapcsolatok világábol, ez sem túl pozitiv ugye. Az a baj az érveléseiddel hogy nem a két ház elött állsz az utcán, hanem az eggyik házbol kiabálsz.
"Szerintem az hogy RT ben és felskálázásban lépniük kellett a PC gaming terén pont nem a PS5 nek köszönhető, hanem a konkurenciának."'
Igen ez a piacvezetö utáni loholásnak köszönhetö hogy maradjon egy kis apro vásárlo erö, na meg a megdelelési kéynszer, és te ezt hivod fejlödésnek ez nem fejlödés hanem diktatura. -
S_x96x_S
addikt
> Továbbra is azt gondolom őket a Konzol fejlesztések visszafogják
> sok szempontból abban hogy merészebben és főleg hogy gyorsabban ötleteljenek.
más a két rendszer (pc vs. konzol) filozófiája
és inkább kiegészítik egymást, tanulnak egymástól.
PC - egy nyílt architektúra, moduláris cserelehetőséggel;
a fejlesztők évente követik az új GPU/SSD hullámot;
vagyis a PC inkább egy gyors iterációs labor,
( kis változtatások, kis nyereség - de gyorsan)
Persze most az AI-által generált hullámból sokkal hamarabb tudott profitálni.
egy konzol - eléggé zárt SoC + egyedi OS; hardver-váltás csak 5 - 7 évente,
ezért a tervezéskor évekre előre kell kalkulálni
viszont a lehetőség adott egy mélyen optimalizált referencia platform megalkotására.
ott van például a konzolok ~ compression offload cél hardware-e
( kraken, bcpak ) a többi i/o optimalizációval.
a pc-s megfelelője a DirectStorage ;
de a fragmentáció miatt nagyon lassan terjed és eléggé vegyesek az eredmények.
úgyhogy én eléggé kíváncsi vagyok, hogy mit pakolnak be a következő generációs konzolokba, mert a kötelező ( ami a PC-n van ) az nem lesz elég.
-
Busterftw
nagyúr
Kijott a juniusi Steam stat.
Megjelent a 5090 (0.19%) es kb ket hettel launch utan a 5060 (0.34%) is.
5070 nepszeru, a 5060Ti duplazott.Card - May - June
5080 - 0.47% - 0.57% (+0.10%)
5070Ti - 0.39% - 0.55% (+0.16%)
5070 - 0.71% - 0.99% (+0.28%)
5060Ti - 0.21% - 0.41% (+0.20%)Erdekesseg, hogy a laptop verziok is terjednek eleg jol.
RTX 5070 Ti Laptop GPU 0.15%
RTX 5060 Laptop GPU 0.47%Jack "Towel" uzente, hogy majd a Q3.
-
válasz
BerserkGuts #49307 üzenetére
Persze 1 milliós videókártya.Hagyjuk az ilyen bugyuta kisarkított érveket.Ez nem óvoda,hogy 1 milliós videókártyákról beszélj egy konzol összehasonlításnál.
Nezd meg az FSR2 és 3 minőségét pc-n meg az RX 5700 XT vagy a 6900 FSR es RT teljesítményét.
Ha szerinted ez tudatos fejlődési irány volt a PS5 megjelenesekor,es igy terveztek,hogy majd az RX 9000 jo lesz felskalazasban es RT ben az vicc.
Valóban nincs nagy kulonbseg,ha 1080P ben jatszol es egy 8 evnel regebbi gyenge kartyad van,de eg
De amugy ezt az ervet el tudom fogadni,mert van benne igazsag,de ez azert van mert kb egy helyben topog grafikailag a jatekipar jóideje,tisztelet pár PC-re optimalizalt címnek.
Se fizika,se ötlet.Remake és folytatás az van. -
BerserkGuts
addikt
-
Szerintem az hogy RT ben és felskálázásban lépniük kellett a PC gaming terén pont nem a PS5 nek köszönhető, hanem a konkurenciának.Teljesen más elképzelésük volt az RT és a felkálázások fejlődéséről még az RDNA2 és PS5 megjelenése idején.
Továbbra is azt gondolom őket a Konzol fejlesztések visszafogják sok szempontból abban hogy merészebben és főleg hogy gyorsabban ötleteljenek. Ahhoz hogy közelítsenek az Nvidiához ilyen téren kellett 4 generáció , és az hogy az Nvidia a most megjelent RTX 50xx be nagyjából beleszart.. -
S_x96x_S
addikt
> Az AMD szerintem sokkal előrébb tart
Igen, vanak területek ahol az AMD túl domináns[1]
( pl. a zen apu miatt )
[1] Best PC Gaming Handhelds 2025: Windows and Steam Decks
https://www.tomshardware.com/video-games/handheld-gaming/best-pc-gaming-handhelds
-----------
viszont hamarosan jönnek majd a full nvidia chipsetes pc-k és kézi konzolok,
és remélhetőleg a verseny nem áll meg.
A nagy trend, a mindenre is jó okostelefon lehet a jövőben.
Vagyis a csak egy maradhat elven - az okostelefon fogja betölteni
( ~ dokkolhatóan , vagy okos-szeműveggel )
a notebook , tablet, pc, konzol - funkciókat is.
wiki:Technological convergenceAz új Android 16 -ra és az utódaira figyeljetek majd,
mert az új Linux Terminál funkció - sok mindent lehetővé tesz majd.
például akár a SteamOS futtatását is,
azzal, hogy teljes értékű Linux -ot telepíthetsz rá,
és egy külső monitoron/tv-n élvezheted a nagy képet,
sok felhasználónál kiválthatja a konzolokat vagy a gaming PC-ket."Android 16's Linux Terminal (powered by AVF) that Google is still currently working on: hardware acceleration and a fully-fledged graphical environment."
https://news.itsfoss.com/android-16-linux-terminal-doom/ -
válasz
Alogonomus #49301 üzenetére
Mindíg elfelejtem a habos babos álomvilágot. Bocs.
-
Alogonomus
őstag
A PS3 és PS4 nélkül a GCN architektúráknak még barátságtalanabb szoftverkörnyezetben kellett volna megküzdeniük a konkurenciával a játékokban, mert az AMD azokban az időkben saját zsebből nagyságren(ekk)el kevesebb pénzügyi és eszközökben megvalósuló "szponzorációval" tudott a játékstúdiók szimpátiájáért versenyezni, míg az Nvidia gond nélkül fenntarthatott egy akár milliárd dolláros nagyságrendű lobbi-költségkeretet. Ebből a hátránybólt dolgozott le az AMD sokat azáltal, hogy a Sony és a Microsoft saját költségen is arra ösztönözte a stúdiókat, hogy az AMD hardverelemeket tartalmazó bőven százmilliós nagyságrendet meghaladó példányszámban eladott konzolaikon is rendben fussanak a játékok.
A PS5 pedig az első RDNA architektúrát követő – már hardveres sugárkövetésre is felkészített – termékeket megfelelően kezelő játékmotorok érkezését biztosította/biztosítja, aminek köszönhetően mostanra a raszteres teljesítményen felül már a raytracing tekintetében is felértek a Radeon kártyák a Geforce kártyák szintjére, aminek következtében az Nvidia az előző generáció idején elindult a mindkét gyártó kártyái számára még túl nagy kihívást jelentő pathtracing irányába, végül a jelenlegi generációban a gaming szektor területéről át is helyezte az üzleti fókuszát a nagygépekbe szánt gyorsítók területére.
A konzolok nem csak egy stabil bevételt biztosítottak/biztosítanak az AMD számára, de az AMD lobbiereje a konzolok gyártóinak lobbierejével kiegészítve lehetővé teszi azt, hogy a játékstúdiók szoftvereibe bekerüljenek a különböző AMD architektúrák erősségeire építő technológiák.
-
válasz
Alogonomus #49298 üzenetére
Szerintem semmi extra dolgot nem tartalmaz se a Ps4 se a PS5 se az Xboxok ami az AMD nek adott volna extra dolgot,kivéve a biztos bevételt .
Az utolsó nem kommersz generáció a PS3 volt, ami minden tekintetben különleges volt, remek grafikájú egyedi játékok jelentek meg rá és nem kellett 3 év múlva kiadni rá egy pro verziót hogy kitartson 6-7 évig.
A mai napig többek között a PS3 érában kiadott exklúzív játékokból élnek meg nagyjából Sonynál.
Az AMD szerintem sokkal előrébb tart annál ,amit a konzolokban adnak, pont annak köszönhetik szerintem a lemaradásaikat az Nvidiától, azóta követők szotfveres vonalon is amióta a Konzolokban vannak. Elötte sokkal kreatívabbak voltak a PC gamingban. -
Busterftw
nagyúr
válasz
Alogonomus #49298 üzenetére
Mondjuk itt a dvga-rol beszelt, ilyen rosszul az AMD nem nagyon allt a piacon, jogos a felvetes.
-
S_x96x_S
addikt
jobb későn mint soha ..
"AMD’s Latest Drivers Improve Radeon RX 9070 XT’s Performance By Up To 27%; GeForce RTX 5070 Ti Is Now Slower Overall"
https://wccftech.com/amds-latest-drivers-improve-radeon-rx-9070-xts-performance-by-up-to-27-percent/ -
Nem tartom kizártnak amúgy hogy előrébb tartanának.
Számomra az utolsó önálló architektúrájuk, a Vega 64 és 56 egy irdatlan jó lehetőségeket és fullos technikai bravúrokat , kockázatos hardveres fejlesztéseket vonultatott fel, (lásd HBM gyorsító tár, HBCC, fejlett parancsmotor stb ( ami igaz hogy nem volt gyorsabb mint a lecsupaszított szintén szenzációs Pascal ) de olyan architektúra volt, amire ha akkoriban elkezdtek volna optimalizálni akkor megváltoztahatott volna sokmindent. Kb azt kellett volna csinálniuk, mint amit az Nvidia az RTX megjelenésével tett. -
PuMbA
titán
Nagyon kíváncsi lennék, hogy mi lenne az AMD-vel a Sony nélkül, mert az látszik Cerny szavaiból, hogy mindenben erősen benne van az ő kezük is most már: hardverben és szoftverben is.
Az eddig látottak alapján az AMD sehol nem lenne, hiszen az összefogásuk eredménye mind az RDNA4, mint az FSR4, azóta látszik, hogy beindult a fejlesztés. Még mindig a béna compute shaderes FSR-t reszelgetnék, mert az milyen jóóóó, hogy fut mindenen
Köszönjük Sony!
-
PuMbA
titán
Jön az FSR4 PS5 Pro-ra, hiszen ők is segítettek az AMD-nek algoritmusba
PSSR-nek ezzel vége, nem is sikerült vele nagyot alkotni, hiába 95-100% AI-t mondott Abu85. A DLSS az 5% AI-jal keresztbe lenyelte minőségileg.
A PC továbbra se haldoklik, inkább fordítva.
-
PuMbA
titán
The Radeon RX 9070 XT is Now Faster, AMD FineWine
A mítosz, a legenda: az AMD fine wine, ami egyébként csak annyi, hogy a drivert megint nem sikerült kiadásra 100%-osra reszelni
-
S_x96x_S
addikt
Amióta - a TinyCorp(George Hotz) szerződést kötött az AMD-vel ( $2M )
gőzerővel elkezdett dolgozni az nvidiát legyőző benchmarkon.
elméletileg ~ 1 éves projektnek tervezik.
és a cél:
~ "AMD MI355X with tinygrad beats NVIDIA B200 with NeMo."------------
"""
A key aspect of beating NVIDIA on MLPerf Llama 405B with AMD will be great flash attention. This is autogenerated basic flash attention. Now we're upgrading the optimizer to make it fast. The Halide PhD thesis is a great way to understand the search space.
https://people.csail.mit.edu/jrk/jrkthesis.pdf
"""
https://x.com/__tinygrad__/status/1939922549850185772 -
válasz
Alogonomus #49281 üzenetére
Megmarad,a fontos biztonsági frissítéseket megkapják ezek is még.
Amúgy eddig ez a leghosszabb támogatott architektúra a VGA történelemben a maga 11 évével. -
proci985
MODERÁTOR
válasz
Alogonomus #49281 üzenetére
10 éves az a széria. akkor is, ha az 1080ti raszterben hoz egy 3060at.
-
Alogonomus
őstag
Közel lehet az időpont, amikortól elméletileg friss driverek már nem érkeznek majd még a GTX 1000-es kártyákhoz sem. Az persze kérdés, hogy ez totális elkaszálás lesz, vagy csak olyasmi, mint a másik oldalon, ahol több havonta azért jön egy friss driver az RDNA előtti generációkra is.
-
proci985
MODERÁTOR
válasz
BerserkGuts #49263 üzenetére
driverbol is siman lehet forceolni
. de pl Project Cars2 is biztosan támogatta. Dirt Rally 1-2 is.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #49277 üzenetére
A Computexen is lehetett hallani, hogy volt a Navi 48-nak egy speciális, 3D V-Cache dizájnja. Úgy, ahogy a mostani CPU-nál megoldották, a lapka alá helyeztek egy 512 MB-os cache-t, ami így 576 MB-ra növelte az infinity cache-t. És azt tesztelgetik a következő generációra. De nem hiszem, hogy már kihozzák ebben a generációban. A next-gennek viszont ez lesz az egyik ütőkártyája, hogy IC-ből a csúcsmodell kb. ~1 GB-os cache-t kap, aminek az elérése nagyon gyors, a computexes pletyik szerint 15 TB/s körüli. Ez teljesen felborítja, ahogy működik majd a rendszer, mert egy rakás, sűrűn használt adat ki sem lép sosem a GPU-ból.
#49278 T.Peter : A Microsoft kicsit más, mert ők más jellegű szerződést kötöttek. A Sony még mindig klasszikusan egy általuk nagyon felügyelt semi-custom lapkát kér, és erre adnak ki egy konzolt, majd talán csinálnak még egy lapkát köztes generációnak. A Microsoft a jelenlegi iparági pletyik szerint legalább egy tucat dizájnt kért első körben, és ebből kettővel van kész az AMD. De a Microsoftnál nincs az architektúra kőbe vésve, mindegyik dizájn célpiacra megy, tehát lehet benne akármilyen CPU és GPU. Valószínűleg lesz olyan, amiben majd UDNA lesz, de a következő körben az Xbox nagyon kevert lesz. És a gépek többségét nem is a Microsoft fogja gyártani, hanem különböző PC gyártók. A Microsoft csak Xbox matricát ad nekik, ha az általuk kiválasztott, Xboxhoz készült AMD dizájnokat veszik majd. Szóval ezt most a Microsoft nagyon másképp képzeli el, mint a Sony.
-
Abu85
HÁZIGAZDA
Nem hiszem, hogy az AMD-nek lenne hova köztes generációt csinálni. Ha kihozzák, akkor leghamarabb a CES-re tudják, az meg hülyeség, mert Computexre már ott a next-gen.
Az NV-nek azért reális a köztes generáció, mert ők 2027-ben hoznak igazi next-gent, tehát a köztes sorozat egy évig piacon lehet.
Az AMD-nek nagyon elvitte a fejlesztéseit a Sony, nekik az UDNA-val már most kész kell lenniük, különben a Sony nem tudja elkezdeni tesztelni a PS6-ot idén. Márpedig a konzolnál az első teszt és a megjelenés között eltelik vagy két év. Emiatt az AMD-nek nincs más választása, mint beáldozni a köztes generációt, és egyből a next-genre lőni. Ezért is szűkíthették le ezt a kört csak két GPU-ra.
-
Raymond
titán
Meg igy se kell nekik igazan csinalni semmit. A napokban volt az erv egy masik topicban (NV-sben mert hol mashol...) hogy "tudsz mar venni 9070XT-t 700EUR-ert". Ja, igen tudsz [link] csak sokat nem ernek ezzel ha 5070Ti meg van 800-ert [link] A sima 9070-el pedig nem foga a vilagot megvaltani az AMD ugy hogy tegnapig meg 640-660-ert arultak, ma kerult oda egy 600-ert es egy 630-ert [link] Merthat minek vennel 650-ert sima 9070-et ha 700-ert veszel 9070XT-t.
Tehat az AMD-nek van a 9070 amit az AMD fele hajloknak eladhat es van a 9060XT 16GB ami tenyleg top termek 370-400 kozott [link] csak igy penzt nemigen fognak keresni. Az igazi tragedia rajuk nezve talan az hogy ahol tenyleg konkurenciamentesek es egyertelmuen a best buy a 9070XT 16GB ott a zome vasarlo inkabb a "biztos" 5060Ti-t veszi mert nem foglalkoznak annyit a temaval es default az NV fele huznak.
-
S_x96x_S
addikt
válasz
Busterftw #49267 üzenetére
az nvidia az idén rengeteg GPU -t kitol a piacra - de jövőre nem várható növekedés.
és a "conservative adjustment" nem sok jót jelent
"However, JPM notes that NVIDIA’s GPU unit shipments are not expected to grow in 2026, primarily due to conservative adjustments to Blackwell shipment forecasts." -
-
Busterftw
nagyúr
válasz
S_x96x_S #49264 üzenetére
Minden amit leirtal, kb igaz volt az eddigi evekben is, meg amolyan #noshitsherlock erveles.
- egyre jobb rdna -s kézikonzolok vannak (igen, az ujabb jobb)
- az rdna4 a vártnál jobban sikerült (mihez kepest?)
- amd apu fog dobogni - a következő 2 nagy konzol generációban (ahogy eddig is)
- és a Mesterséges Intelligenciában - az MI400 - pariban lesz az nvidiával (erre nincs semmilyen forras, csak igergetes, ahogy eddig)"és az nvidia msrp - árak is mennek lefelé"
Ez mar majustol igy van, mert arra igertek a volumen felfuttatasat, megszunt a GDDR7 bottleneck.Abu85
Nem baj, az AMD nevet ott meglatta, az mar eleg, hogy valahogy bepasszirozza az "eredmenyt", lasd DLSS 4 -20% vram. -
Abu85
HÁZIGAZDA
válasz
proci985 #49259 üzenetére
Nem, az AMD HUB-ot használ. Ez nem sokban különbözik a Crossbartól. Annyi a lényeg, hogy a Crossbar esetében vannak optimális útvonalat, míg a HUB esetében mindegy, mert az útvonal nem direkt, hanem egy menedzsment egység kezeli. Ezért jobb az átlagos késleltetés.
#49262 Busterftw : Az nem tömörítés. Ott az a lényeg, hogy a GPU generálja magát a tartalmat. Azért kerül ~38 GB helyett ~50 kB-ba. Ezt a Work Graphs 1.1 teszi lehetővé, tehát nem igazából hardveres képességről van szó, hanem egy új DirectX 12 funkció van vele kihasználva. Ez leginkább az Unreal Engine 5 számára fontos, mert a Nanite iszonyatosan sokat tud profitálni a Work Graphs API-ból. Az 1.1-es verziónál pedig az Epic meg tudja csinálni a PCG moduljuk, valós időben működő verzióját. Ehhez csinálhatnak saját algoritmust, vagy licencelhetik az AMD kódját, igazából mindegy, mert a lényeg maga a generálás.
-
S_x96x_S
addikt
válasz
Yutani #49261 üzenetére
önmagához képest - nagyon nyomul.
- egyre jobb rdna -s kézikonzolok vannak , ott a strix halo;
- az rdna4 a vártnál jobban sikerült.
- amd apu fog dobogni - a következő 2 nagy konzol generációban
- és a Mesterséges Intelligenciában - az MI400 - pariban lesz az nvidiával .
( ~ elméletileg a speckó alapján )Ráadásul még az nvidia marketingeseiből - is elég korán akciót kényszerített ki.
NVIDIA giving away free one month of Adobe Creative Cloud to GeForce RTX 30 and RTX 40 owners, RTX 50 gets two months
és az nvidia msrp - árak is mennek lefelé.TLDR: Te a nyomulást onnan látod hogy az nvidia az árakkal furcsán lemegy, akciózik, stb. ( a verseny hatására )
-
-
S_x96x_S
addikt
nvidia
===========
"JPM: NVIDIA is expected to ship 5.2 million units of Blackwell this year, but that number will drop to 1.8 million next year.
Instead, in 2026, NVIDIA is projected to ship 5.7 million units of the Rubin GPU and 1.5 million units of the Vera CPU.
However, JPM notes that NVIDIA’s GPU unit shipments are not expected to grow in 2026, primarily due to conservative adjustments to Blackwell shipment forecasts.
That said, there is potential upside if the rollout of the Rubin platform accelerates or if the CoWoS-R packaging specifications for the Vera CPU are significantly expanded."
https://x.com/Jukanlosreve/status/1939497650849771927
(JPM = J.P.Morgan )(amd)
================
Patrick Moorhead - Chief Analyst @MoorInsStrat
"I like the new AMD a lot. Seems quicker, more agile. More aggressive. A new gear kicked in the last 6 months."
https://x.com/PatrickMoorhead/status/1939032717481431110Amúgy az AMD tényleg nagyon nyomul.
"AMD Platinum Sponsor Of Debian's DebConf25 - Promoting ROCm" ( 27 June 2025)
https://www.phoronix.com/news/AMD-Debian-DebConf-25
""We are pleased to announce that AMD has committed to sponsor DebConf25 as a Platinum Sponsor.
The AMD ROCm platform includes programming models, tools, compilers, libraries, and runtimes for AI and HPC solution development on AMD GPUs. Debian is an officially supported platform for AMD ROCm and a growing number of components are now included directly in the Debian distribution." -
proci985
MODERÁTOR
válasz
S_x96x_S #49258 üzenetére
nincs ingyen ebed...
a lenyeg: 750mm2 vs 357mm2.
AMD ringbust hasznal legalabb 10 eve, NV viszont ha jol tudom meg mindig tobbszintu direkt cimzeses topologiat.
ringbusnal global average memory latency lesz jo. direkt cimzes bonyolitja a belso kommunikaciot, cserebe viszont amig lokalban lehet tartani a feladatokat (pl megfelelo cache szervezes / compute optimizacio), addig gyorsabb.
-
S_x96x_S
addikt
"Blackwell: Nvidia’s Massive GPU"
https://chipsandcheese.com/p/blackwell-nvidias-massive-gpu
lényegében - "RTX PRO 6000" vs. "AMD’s RX 9070" elemzés.
"
Building such a big GPU isn’t easy, and Nvidia evidently faced their share of challenges. L2 performance is mediocre considering the massive compute throughput it may have to feed. Beyond GPU size, comparing with RDNA4 shows continued trends like AMD using a smaller number of individually stronger cores. RDNA4’s basic Workgroup Processor building block has more compute throughput and cache bandwidth than a Blackwell SM.
But none of that matters at the top end, because Nvidia shows up with over 6 times as many “cores”, twice as much last level cache capacity, and a huge VRAM bandwidth lead. Some aspects of Blackwell may not have scaled as nicely. But Nvidia’s engineers deserve praise because everyone else apparently looked at those challenges and decided they weren’t going to tackle them at all. Blackwell therefore wins the top end by default. Products like the RTX PRO 6000 are fascinating, and I expect Nvidia to keep pushing the limits of how big they can build a consumer GPU. But I also hope competition at the top end will eventually reappear in the decades and centuries to come.
"
-
paprobert
őstag
Bármilyen tudományosabb igényű publikációt ha olvasol, el van magyarázva benne a mit, a miért, és a hogyan, hogy legyen kontextusa az olvasónak. Egy plebs-nek írt újságnak még inkább indokolt kifejteni ezeket.
Tekintve hogy Te is írsz hasonló elemzéseket, ezt neked tudnod kéne. -
-
válasz
Yutani #49254 üzenetére
Sajnos nem tudtam kimenteni magas minőségben , képmetszővel csináltam. A hordó mozgása közben ott egy Ghosting van.
Ha emlékszel az FSr 3.1 legnagyobb hibája az a mozgás közbeni szellemképesség, ghosting vagy nem is tudom minek lehet azt nevezni.
Anno ettől [link] a teszttől lett [link] egyértelmű a dolog itt 1440P vagy 4 k alatt lehetett látni a legjobban pl 1 perc 20 nál lévő snitt miatt egyszerűen számomra élvezhetetlen megoldás volt. Nagyon jó hogy meglépték a pirosak a váltást, az FSR 4 minden szempontból előrelépés. -
-
válasz
Yutani #49251 üzenetére
Nem tiltakozunk, hanem nem értünk egyet. Az AMD nem kapott pejoratív értelmet, Abu nem egyenlő az AMD vel.
"Objektíve tehát a Performance a jobb, mert gyorsabb."
vagy
"Obektíve tehát a Quality jobb, mert jobb képminőséget ad"Miért? Mert magasabb felbontású bemeneti képet használ.
Mindkét megállapítás helyes pedig az utóbbit nem tudod mérni. Miért is kellene? hisz a mérnökök akik fejlesztették az eljárást ezt így alkották meg.
Ezt nem te méred meg ,ezt a szoftver nyújtja neked amit erre terveztek és beállítottak. Ennyi erővel a lézeres szintmérés sem ok, mert a lézert ki méri meg neked hogy elhidd amit állítanak róla, hogy az vízszintes vagy hogy a lézeres távolságmérőt egy etalonhoz álították be.
Amúgy pedig mérhető hisz pl ezen a képen is egy hiba hiányát megállapíthatod optikai méréssel és számolással a kis szemeddel. 1 mozgási szellemképhiba mínusz.
Visszakanyarodva ahonnan elindultunk, pontosan azt boncolgattad amit mi egy páran.
Hogy azért vette ki a játéktesztekből a CB a 3.1 eljárást mert sebességben annyit vagy többet nyújt mint az FSR 4 de közben a minősége nem egyenlő az FSR 4 gyel és a DLSS 4.0 val. Ezzel próbálták objektívé tenni a kapott méréseket,mivel az FSR 4 és DLSS 4.0 már hasonló ML eljárásokkal van tréningezve, minőségben közel álló eljárásokkal kapott sebességeredményeket vetik össze.
Szerintetek ez nem objektív. Szerintem meg nem szubjektív. -
Az RT és upscaling előtt nem volt kérdés, hogy objektíven meg lehetett határozni, melyik termék a gyorsabb. Aztán bejött az RT és az egymástól eltérő upscaling, mindjárt szubjektív alapokra került a döntéshozás.
Ha egy teszter nem csak a tényadatok alapján dönt, hanem az általa érzékelt látványt is figyelembe veszi, akkor már kevert alapú a döntéshozatal. Nem is kell hozzá két gyártó, elég egy: DLSS Quality és Performance mód közül az utóbbi a gyorsabb, ami mérhető, tehát tényadat. Objektíve tehát a Performance a jobb, mert gyorsabb. Azonban neked a Quality képminősége jobban tetszik (meglepő, nem?
) a szemrevételezés során, így egy szubjektív szempont alapján inkább azt választod, hiába lassabb a megjelenítés.
Kicsit úgy érzem, Abu miatt az AMD után a szubjektív szó is pejoratív értelmet kapott, és tiltakoztok, mint apáca a gruppen szex ellen.
-
ETOM
addikt
válasz
gainwardgs #49249 üzenetére
Ennyiszer még nem láttam leírva, hogy objektív és szubjektív
-
gainwardgs
veterán
Nem lehetne lezárni végre
Zöld/piros szemüveg, lapozzunk
-
Busterftw
nagyúr
Leírják a teszt metodikát, itt ph-n is vagy magyarázkodás a teszteknél, nem csak a száraz adatokat közlitek le, ahogy sehol máshol sem.
Nincs személyeskedés, objektív megfigyelést és korrelációt írtam le. Elhiszem hogy ez frusztráló lehet, talán ezentúl több objektív cikkek/hírek jönnek itt is.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #49241 üzenetére
Objektív teszt mellé nem kellene magyarázkodni külön írásban.
A személyeskedéssel pedig itt nem mész semmire. Elhiszem, hogy a frusztráció miatt ehhez nyúl az ember, de nem hatékony módszer.
#49245 b. : Nem, nem arról megy a vita, hanem arról, hogy objektívként el lehet-e adni szubjektív véleményt. És igen, le is írod, hogy nem mérhető, és ez itt a gond. Ha valami nem mérhető, akkor hogyan határozod meg, hogy mi a jobb? Objektíven sehogy, tehát fel kell állítani szubjektív szempontokat, amivel nincs gond, de akkor el kell fogadni, hogy a teszt is szubjektív.
-
válasz
Yutani #49244 üzenetére
De, arról megy a vita. Sajnálom hogy a DLSS superior szöveggel próbálod levinni a szőnyeg alá az értelmezését a kommentnek.Az FSR 4 ről beszéltem főként.
és igen :
Mivel nem mérhető( gyakorlatilag) hanem szemmel látható ezért objektív hogy a CB mérési eredményekhez való viszonyulása. -
-
proci985
MODERÁTOR
klasszikus SSAA verhetetlen mert nem fog artifactolni, semmilyen edgecase esetén sem.
sajnos gépigényre viszont exponenciálisan esik tőle a teljesítmény. gyakorlatilag1440pt 4Kban kell renderelni (tempóban is az lesz), és az még csak 1.3-4. 2.0hoz 1080pt kapunk, 4K sebességgel. van ahol megéri (VR, főleg), de ritka.
-
válasz
mozesapo #49231 üzenetére
Ez nem látás kérdése továbbra sem, ezt nem megérteni jelenti pontosan a fukcionális analfabéta fogalmát.
Itt technológiai különbségekről van szó melyik eljárás tartalmaz kevesebb hibát. Ezt igazából már te is olvashattad fent, helyette továbbra is ott tartasz hogy ki szerint melyik a szebb akkor tedd fel magadnak a kérdést , hogy esetleg lehetséges hogy pont az ilyen emberek miatt áll egy helyben a topik mint te, akik nem tudják felfogni, hogy ez nem látás kérdése, hanem pusztán a fejlettebb ML technológia, egyszerűen a felskálázás jobb techonlógiailag az FSR 4 és a DLSS 4 esetén amit szembehelyezel az FSR 3.1. működésével.
Bármit látsz az FSR4 esetén közelebb áll a natívhoz és kevesebb képi hibát tartalmaz mozgás közben, mint az FSR 3.1, nincs kivétel és nem lehet kivétel. -
Busterftw
nagyúr
Igen, mindenkinek leirjak aki esetleg nem ert hozza. Nyilvan kulon nem kezdenek mindenkit felmerni es privat beszelgetesben kiigazitani, mert ez nem fenntarhato.
Te is mindenkinek kirakod a szubjektiv velemenycikkeid, pedig jobb lenne privatban.
A CB annyiban mas, hogy az objektiv.Ribi
Az "eredeti" kep ilyen formaban a nativ, TAA, mert az a default, azt kapja az user. -
Busterftw
nagyúr
A CB-is csak azoknak magyaraz, akik szinten erzelmi toltottsegtol vezerelve, megfelelo ismeretek hianyaban ertetlenkednek. Mindenki masnak tisztasor.
Lasd mozesapo, aki majdnem elkezdte megmagyarazni, hogy a jobboldali kep jobb minosegu.Ribi
A native-n a fak es hatter is homalyos. Vegigneztem videot, nem volt hatterben fokusz, csak ilyen fos a TAA.
A DLSS Q a hatter es jobb minoseg, fokusz ide vagy oda.Az objektiv szempont pedig ugy nezne ki egy tesztben, hogy kep elesseg, recesseg, blur, akarmi. Tehat a metodika ismert es objektiven meghatarozhato.
Senki nincs akadalyozva, hogy mas objektiv szempontok alapjan hasonlitsa ossze az eljarast. Majd itt PH-n is lesz gondolom olyan "objektiv teszt", ahol 2 jatekban valami 1 dologban az FSR jobb lesz.
-
Ribi
nagyúr
válasz
Busterftw #49233 üzenetére
Nyilvánvaló képeket berakva ez egyszerű hogy neked mi tetszik, de visszatérve az előző példádra, ha az eredeti képen a fickó direkt homályos, mert a kamera a háttérre fókuszál, akkor mégis melyik a "szebb"? Nagyon szubjektíven mindenki azt mondja, hogy a DLSS kép a szép, miközben objektíven a Natív van közel az eredetihez. Ez az amiért nem ennyire egyszerű a dolog.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #49232 üzenetére
Ha valami objektív, akkor nem kell magyarázni, hogy milyen szubjektív szempontokat nézel.
#49234 deathcrow42 : Nem muszáj. Szerintem abszolút helyesek a szubjektív tesztek is, és van szerepük, de fontos kihangsúlyozni, hogy szubjektívek. Ez azért lényeges, mert ha másnak nem ugyanazok a szempontjai, akkor nyilván ne érje csalódás, hogy nem azt látja, amit a szubjektív teszt mutat.
Igen, az alapvetően szubjektív vélemény, hogy ki mit tart jobbnak. Le lehet írni, de ettől még szubjektív marad.
Én például nagyon nem kedvelem a TAA-kat, mert a temporális algoritmus negatív hatásaitól falnak megyek. És ezt nem lehet sosem kiműteni belőlük, mert a működési módjukból ered, vagyis nem klasszikusan javítható hibák, hanem az algoritmus melléktermékei. Ilyen szempontból én a klasszikus SSAA-t jobbnak tartom egy TAA-s tartalomnál, mert a nincs benne ghosting és disocclusion.
Én nagyon megértem, hogy a gyártók látják, hogy mennyire elbaszták az RT API-kat, és csináltak belőlük egy lassú, black box szart. Ezt próbálják most kompenzálni azzal, hogy kevesebb pixelt számolnak, mert a black box jelleg miatt nem alkalmazható egy csomó optimalizáció, amire szükség lenne. De itt ez az ő problémájuk. Ők baszták el. Semmi szükség nem lenne felskálázókra, ha nem black box AABB-t használnának, mert ekkor olyan optimalizálásokra lenne lehetőség, ami Full HD-ben hozná azt a sebességet, amit így a black box módszerrel csak 576p-ben lehet csak hozni. És most a marketing ezt adja el baromi nagy innovációnak, pedig csak nagyon szarul dolgoztak, és gáz lenne kiállni a piac elé, hogy amit lehetett azt elcsesztünk, ezért nagyon alacsony felbontással lehet csak számolni a mérnökeink extrém bénázása miatt.
-
S_x96x_S
addikt
válasz
Yutani #49214 üzenetére
Szerintem itt be lehetne rekeszteni ezt a parttalan vitát, mivel az objektív és szubjektív fogalom is tisztán meg van fogalmazva:
Objektív: tényeken alapuló (pl. azonos körülmények közötti mérési eredményeken)
Szubjektív: személyes véleményen, érzésen, tapasztalaton alapuló (pl. melyik upscaler által adott kép teszik jobban)
ha elfogadjuk,
hogy az emberi szem tulajdonképpen fejjel lefelé "fotózza" a világot,
és az agy pedig csendben megfordítja a képet, ( ~ korrigál )
akkor ez már önmagában jelzi,
hogy a látvány, amit érzékelünk, nem az "objektív" - nyers valóság,
hanem egy feldolgozott értelmezés.Lehet persze mérni a GPU-val felskálázott képek
minőségét mindenféle metrikával ( VMAF, PSNR, SSIM, ...)
és ezek hasznosak is,
de csak azt mutatják meg,
mennyire egyezik a kép statisztikailag egy referenciával
és nem azt, milyen érzés ránézni.és ha innen nézzük, az "objektív" mérésbe vetett hitünk is szubjektív,
mert minden tapasztalatunk egy belső szűrőn át érkezik.
és így a saját érzékelésünk és a külső valóság között
mindig marad egy - nehezen érzékelhető - távolság.
Amúgy az agyunk - mindig korrigál
( ~ és a szemünkből érkező információ a átfut az agyunkban lévő neurális hálón )
és ha a GPU is felskálázási technológiát használ,
akkor már 2 neurális hálón kapjuk meg a képet.Persze az agyunk intelligens és képes a tanulásra, amiatt egy bizonyos használat után a DLSS/FSR4 esetleges hibáit is korrigálni fogja az agyunk - és nem érzékeljük zavarónak.
Aki hisz abban, hogy a szeme - objektíven tud észlelni,
az ássa bele magát - az optikai illúziókba.
https://en.wikipedia.org/wiki/Optical_illusion
https://hu.wikipedia.org/wiki/Optikai_csal%C3%B3d%C3%A1s
Amúgy - ezt skálázzátok fel - úgy hogy megmaradjon a lényeg.
-
Abu, nálam itt alapvetően van egy olyan dilemma, hogy érdemes-e az objektív szempontokat a falig tolni és azt csinálni az idők végezetéig, aminek a vonalát felfedezni vélem itt.
Szerinten a válasz egyértelműen nem. Ami objektív szempontok vannak (raszter), az már nem fedi le kielégítően a mostani piacot. Ajánlanál egy 7700XT-t a 9060XT ellenében, amikor ugyanabban az árban vannak? Objektív (raszter) szempontból egyenlőek, nem?
Direkt megnézem most a 9070 és a 9060-s teszteket is, FSR 4.0-ról nulla szó esik, pedig aztán ha valami, akkor jelentős részben amiatt is lettek jók a kártyák
Lehet bizonygatni, hogy csak szubjektív szempontok szerint lett jobb az új FSR upscale az előző verziókkal szemben, de ettől tény marad: minden nagyobb reviewer a PC környezetben azt mondja, hogy a 4. FSR verzió végre Nvidia DLSS 3-4 körüli/közötti szintet hoz. Akkor ez most így csak szubjektív vélemény, nem lehet figyelembe venni?
-
Busterftw
nagyúr
válasz
mozesapo #49231 üzenetére
Ez nem szubjektiv, mert eleve az agy nem igy mukodik. Itt az anomalia a jobboldali kep, mert nem olyan eles, sokkal recesebb, kevesebb a reszlet stb.
Ezek objektiv, racionalis dontesek, amit ha megmutatsz barki masnak, ugyanazt a konkluziot fogja levonni, es a baloldali kepet hozza ki jobbnak.
Az recek nagysaga nem szubjektiv, ahogy az elesseg sem, a zajossag sem.
-
Busterftw
nagyúr
Igen, a szempontok le vannak irva. Tehat a megadott szempontok szerint objektiv a meghatarozas. Illetve te teljesen ignoralod az "osszkepet", ami a legfontosabb, hiszen az kerul az user ele.
"Ezért fontos kijelölni, hogy mik a képek vizsgálatánál a szubjektív szempontok, és azok alapján lehet szubjektíven dönteni, hogy melyik kép a szempontok szerinti jobb."
Igen, ki vannak jelolve, hogy mik a kepek vizsgalatanal az objektiv szempontok, es azok alapjan lehet objektiven donteni, hogy melyik kep a szempontok szerint jobb. -
mozesapo
tag
válasz
Busterftw #49227 üzenetére
De megtudom mondani szubjektíven, hogy a bal oldali alma szebb. Viszont lehet olyan személy, akinek egy picit más a látása, és lehet neki a jobb oldali a szebb. Az, hogy melyik szebb, az szubjektív leírás, nem objektív. De, ha nem értitek a különbséget, akkor gond van a toronyban.
-
FLATRONW
őstag
válasz
Alogonomus #49228 üzenetére
Akkor most már csak az a feladat újabb 200 hozzászóláson keresztül, hogy melyik oldal miatt is topogott egy helyben a fórum.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #49227 üzenetére
A szempontok szerint függ. Ha a színhűség a fontos, akkor figyelembe kell venni, hogy a zajszűrt kép torzítja a színeket. Tehát, ha a színeket jelölöd meg szempontként, akkor a nem torzított kép lesz a nyerő, mert abban vannak az eredetihez közel álló színek, míg a szűrt kép a hátrányos, mert a denoise biztosan torzított az eredeti színeken, ami histogram összevetéssel jól láthatóvá is tehető.
Ha viszont a zajszint a szempont, akkor ott a denoise torzítással létrehozott kép a jobb, mert nyilván eltünteti a zajt. SNR vagy PSNR összevetéssel ez is jól láthatóvá tehető.
Ezért fontos kijelölni, hogy mik a képek vizsgálatánál a szubjektív szempontok, és azok alapján lehet szubjektíven dönteni, hogy melyik kép a szempontok szerinti jobb.
-
Alogonomus
őstag
válasz
deathcrow42 #49226 üzenetére
Lévén lassan 200 hozzászóláson keresztül topog egy helyben a vita, így ez a feltételezés egyre reálisabb eshetőségnek tűnik.
-
Busterftw
nagyúr
Persze, mert te ezt szubjektiven tudod csak latni, erosen erzelmi alapon, hianyosak az ismereteid, nezz utana jobban.
mozesapo
A vegeredmeny szamit, a tesztelesi metodika pedig le van irva.
Ha te errol a ket keprol, objektiven nem tudod megmondani, melyik a jobb minosegu, akkor szemeszetre kell menni. -
-
mozesapo
tag
Szerintem engedd el, úgyse tudod meggyőzni őket. hogy mi a különbség. Úgyse értik meg, hogyha pl. felskálázásokat hasonlítunk össze, az sose lesz objektív, pl almát a körtével. Nincsenek tisztában a két szó jelentésével. Magyarországon 16-33% a funkcionális analfabéták aránya.
-
proci985
MODERÁTOR
válasz
Yutani #49220 üzenetére
hú, referencia bonyolult lenne
eleve, mindenki másképp lát, kb az emberek 10-15%a valamilyen szinten deficiences színlátásra, és akkor még nem beszéltünk arról, hogy jellemzően nem színkalibrált kijelzőn tolja senki. emberi preferencia sem egyértelmű, nekem pl sok volt a Samsung AMOLEDek túlszaturált képe, más szerint meg a (neutrálisra kalibrált) projektorom képe lapos - pedig tud az barokkosan szaturált dinamikát megfelelő forrással.
Stalker2nél szvsz FSR (szigorúan legjobb quality) jobb eredményt ad, mint a natív*. de ez főleg amiatt van, mert a beépített AAja a játéknak szörnyű, a fűszálak meg annyira pixelesek, ami 15 éve is gáz lett volna. Mondom úgy, hogy normál esetben AAt én mindig utoljára kapcsoltam be, mert nem zavarnak a recék (ellenben tripla monitoron adott esetben brutálisan eszi a teljesítményt). Igaz VRben meg én is 1.4 fölötti SSAAt használok minimum Quest2n is ahol lehet. viszont, nálam 32"@1440p van, 4Ks panellel valszeg kevésbé lett volna zavaró.
*igen, ha valaki nekem 5 éve ezt mondja, azt kiröhögtem volna. mondom ezt (valamennyire vonatkozó) dev háttérrel is. úgy, hogy valamennyire az algoritmikus résszel is tisztában vagyok.
-
Én nem vitatkozom senkivel, az FSR minőségéről meg pláne nem, mivel DLSS-t használok az NV kártyámon. Az FSR3 nem ad jó eredményt Stalker 2-ben meglátásom szerint, ami egy szubjektív vélemény. A világért sem akarnám ezt objektív véleményként eladni, mert nem mért tényeken alapul, így csakis szubjektív lehet.
Egyébként ha a képminőséget úgy mérnék, hogy egy referencia képhez hasonlítanák az adott kártya által generált képet egy arra alkalmas szoftverrel (valahol láttam ilyet, fekete alapon zölddel jelölték az eltérő pixeleket), akkor lehetne számosítani a pixeleket, amelyek eltérnek. Mivel számosítható, ezért lehetne akár objektív tesztnek is nevezni. Bár sejtem, hogy upscale esetén ez sem lenne túl hasznos.
-
DudeHUN
senior tag
Annyival jobb az FSR 3.1, mint az Nvidia megoldása, hogy mind az AMD, mind a Sony váltott...
Mondom ezt úgy, hogy szerintem Quality upscale FSR 3.1 estén is okés 4K és 1440p-ben. De messze nem jobb, mint az FSR4 vagy főleg egy DLSS. LOL. Talán anno pár játékban, ahol több figyelmet kapott az FSR implementáció. -
válasz
Yutani #49214 üzenetére
Ez nem teszés kérdése továbbra sem hanem képi hibák kérdése, melyik felskálázó van tele mozgás közben hibákkal. Komolyan nevetséges hogy arról kell vitatkozni itt pár emberrel, hogy az FSR 3.1 rosszabb ( nem, nem szubjektíven szarabb hanem technológiailag, bizonyítottan ) minőségű, mint az FSR 4 vagy a DLSS 4 és ezt 1000 kommenten át. Mi szükség erre? Ez objektív tény hogy elmaradottabb. Az a szubjektív ha valaki azt mondja hogy neki a 3.1 ennek ellenére jobban tetszik az egy szubjektív megállapítás, már ha lenne ilyen. Talán egyedül a Abu lesz ilyen a kövekező kommentben.
Az AMD [link] azt állítja hogy az FSR 4 minden szempontból jobb képminőséget ad.Ez nem szubjektív dolog ez tény mert ők fejlesztették, te meg látod a kijelzőn.
A DLSS 4 és FSR 4 közti különbség már talán lehetne szubjektív megítélés kérdése, de itt a 3.1 versus 4 van porondon nem pedig más. -
Abu85
HÁZIGAZDA
Igen. És itt ez a lényeg. Meghatározhatók olyan szubjektív szempontok, ami alapján lehet sorrendet felállítani. De ettől még ennek meghatározása mindig szubjektív marad.
#49213 Busterftw : Nem. Szubjektív szempontokat választottak ki, mert a saját véleményük alapján döntötték el, hogy mi a fontos és mi nem. Amivel továbbra sincs semmi baj, csak ettől ez nem lesz objektív sosem.
Pont az a gond, hogy a usernek a végeredmény a fontos. Ha minden user ugyanazt gondolná, akkor nem lenne a Threat Interactive videóinak 200-500 ezres nézettsége. És a Threat Interactive pont azt hirdeti, hogy az elterjedt, TAA-alapú felskálázók problémái deal-breakerek, és helyettük az analitikai vagy morfológiai AA-kat kellene erőltetni. Rengeteg játékos gondolja így, mert nagyon is lájkolják ezt a nézetet. És ez azt jelenti, hogy a végeredményt nem minden user értelmezi ugyanúgy. De ez megint nem gond, mert ezért vannak tucatjával AA megoldások, mert mások az igények, más a pro/kontra. Szubjektíven lehet azt mondani, hogy xy újságnak ez és az a fontos, de ez például nem fog azoknál a usereknél jól lecsapódni, akik meg gyűlölik a TAA-k hibáit.
-
válasz
Busterftw #49213 üzenetére
Objektíven tények alapján lehet dönteni (pl. azonos beállítások mellett X kártya a gyorsabb), szubjektíven megfigyelés alapján (szerinted adott upscaler a jobb, mert a te kritérium koordináta rendszered alapján az hozza a neked legjobban tetsző képminőséget).
Szerintem itt be lehetne rekeszteni ezt a parttalan vitát, mivel az objektív és szubjektív fogalom is tisztán meg van fogalmazva:
Objektív: tényeken alapuló (pl. azonos körülmények közötti mérési eredményeken)
Szubjektív: személyes véleményen, érzésen, tapasztalaton alapuló (pl. melyik upscaler által adott kép teszik jobban)
-
Busterftw
nagyúr
-
PuMbA
titán
"És azért fontos itt a szubjektív, mert például, ha a disocclusionre vagy érzékeny, és azt jelölöd ki, hogy azt nem szeretnéd látni, akkor eszerint a szubjektív nézőpont szerint az FSR2+, DLSS2+ és XeSS megoldások a legrosszabbak között lesznek, és például az FSR 1 mindet leveri. Ha viszont a zizegés a kritikus nézőpont, akkor pont fordítva lesz."
Viszont a szempontok (pl. ghosting, mozgás nélküli részletesség, mozgás közbeni részletesség, eltűnt képelemek) alapján lehet kiértékelni egy összesített minőséget, ahogy a Hardware Unboxed is csinálja. Hiába jobb az FSR1 abban az egy dologban, ha minden másban a rosszak közé tartozik, például részletességben az FSR1 sehol nincs 1080p -> 4K felskálázáskor a temporális megoldásokhoz képest
Tehát lehet hozni egy olyan értékmérőt, hogy melyik az a felskálázó, ami a legtöbb nézőpontban / tulajdonságában a legjobb.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #49210 üzenetére
Sajnos nem igazán, mert nehéz meghatározni olyan objektív szempontokat, amik mindenkinek megfelelnek. Most az AA-ra fókuszálva, ha lenne ilyen, akkor csak egy AA megoldás lenne. De mivel sokkal-sokkal több van, így vannak szubjektív szempontok, amelyekre épültek különböző alternatívák. És ezzel nincs semmi baj. Valaki a recére érzékeny, valaki a zizegésre, valaki a disocclusionre. Sajnos nincs olyan AA megoldás, ami egyszerre old meg mindent. Viszont, ha kijelölsz egy szubjektív nézőpontot, hogy mik számítanak és mik kevésbé, akkor lehet szubjektív sorrendet felállítani. És azért fontos itt a szubjektív, mert például, ha a disocclusionre vagy érzékeny, és azt jelölöd ki, hogy azt nem szeretnéd látni, akkor eszerint a szubjektív nézőpont szerint az FSR2+, DLSS2+ és XeSS megoldások a legrosszabbak között lesznek, és például az FSR 1 mindet leveri. Ha viszont a zizegés a kritikus nézőpont, akkor pont fordítva lesz.
Ezért fontos az, hogy ez szubjektív, mert te választod ki a szempontokat, amik szerint felállítod a sorrendet az egyes AA alternatívák között.
-
Busterftw
nagyúr
Persze hogy nem ilyen egyszeru, epp ezt probaljuk magyarazni.
Ettol meg a ket kep minosege objektiven osszehasonlithato, elore meghatarozott objektiv metodikaval. Es a konluzio ugyanaz lesz 10 sample utan, vagy 1000 vagy 8 milliard user utan.Ha a stilus reces kepet ad meg, lesz ott meg mas anomalia amit lehet osszehasonlitani.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #49204 üzenetére
Ez azért nem ilyen egyszerű, mert vannak olyan stílusk, ahol pont az a lényeg, hogy recés legyen. Tehát nem meghatározható objektíven, hogy mi néz ki szarul, és mi nem, mert függ az alkalmazott grafikai stílustól.
Ezért kínálnak a driverek például integer scalingot, mert nem egyértelmű, hogy mi a jó.
A felskálázások is valójában AA-k, tulajdonképpen élsimítási eljárások kategóriájába esnek. Ha meghatározható lenne, hogy mi a jó, akkor nem létezne kb. két tucat AA alternatíva.
-
válasz
deathcrow42 #49203 üzenetére
Nem is tudom, van most olyan játék, ami RT nélkül is felskálázást kér, mert a raszter is túlterhelő?
-
Busterftw
nagyúr
Objektivitas nem csak matematikailag igazolhato, van jogi objektivitas, ujsagirasban objektivitas, a kulonbozo teruleteknek megvannak a sajat szabvanyaik es gyakorlataik az objektivitas biztositasara.
Ha egyik kepen a fa szarul nez ki, reces, homalyos, elmosott, a masikon meg nem, akkor az elso fa objektivan szarul nez ki, mint a masik. Ez lesz a vegeredmeny barmekkora csoportot kerdezel. Es itt jon kepbe az, hogy az elsopro, tulnyomo tobbseg szerint a DLSS jobb minoseget ad, mint az FSR.
Mert a latas igy mukodik, az agy racionalisan, objektiven megallapitja, hogy a kapott kepek kozul melyik a rosszabb. -
válasz
proci985 #49202 üzenetére
A framegen az tényleg véleményes - ott nehezen lehet úgy csűrni-csavarni, hogy arra azt mondja az ember, hogy ez objektíven jobb az input lag miatt. Vannak esetek, ahol jó a framegen, de van bőven ellenpélda is. És ez embertől is függ.
Az upscale az, ami hatalmasat fejlődött: 5 év alatt az upscale az de facto elvárt fícsör lett minden modern játéknál (mondhatnám úgy is, hogy grafikusan több erőforrást igénylő gémeknél). Ez kb. ugyanaz, mint anno a kocsiknál a digitális légkondi meg az infotainment és gps navigáció: 20 éve extra volt, most alapfelszerelés.
-
proci985
MODERÁTOR
válasz
deathcrow42 #49201 üzenetére
Így, egyetértünk
Upscalet pl Cyberpunk RTnél használok a 60 fpsre. Frame gen nekem nem működik, de én input turnaroundra vagyok érzékeny, nem frametimera.
Én a sim communityből (és az OC felől is) jövök, plusz van tapasztalatom elosztott rendszereknél késleltetéssel.
-
válasz
proci985 #49200 üzenetére
És nem is azt mondom, hogy a raszteres mérést el kell felejteni, van még helye.
De szűkül a mozgástere, szerintem.
Egy új játéknál, ahol egy adott VGA-n a raszter kitol egy 25-35 fpst, míg az upscale meg 40-50 fps közt mozog, akkor bizony fogadni mernék, hogy a játékosok többsége az upscalet fogja választani.
És lássuk be, nem is nagyon jön ki új AAA vagy AA játék upscale nélkül. Üdv az új valóságban.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Egyéni arckép 1. lépés: ARCKÉPHEZ VALÓ JOGOSULTSÁG
- Autós topik
- Formula-1
- Elektromos autók - motorok
- Debrecen és környéke adok-veszek-beszélgetek
- iPhone-t használók OFF topikja
- Redmi Note 13 Pro 5G - nem százas, kétszázas!
- Milyen TV-t vegyek?
- Honor Magic V3 - mágikus realizmus
- CURVE - "All your cards in one." Minden bankkártyád egyben.
- További aktív témák...
- Azonnali készpénzes Sony Playstation 4 Slim / PS4 Pro felvásárlás személyesen/csomagküldéssel
- Felújított számítógépek/merevlemezek Számlával, garanciával! Ingyen Foxpost!
- KIÁRUSÍTÁS - REFURBISHED és ÚJ - Lenovo ThinkPad Ultra Docking Station (40AJ)
- ÁRGARANCIA! Épített KomPhone Ryzen 7 9700X 32/64GB RAM RX 9070 16GB GAMER PC termékbeszámítással
- Dell P2419H P2419Hc Full HD LED IPS 24" + P2719H 27" LCD monitor (vékony keretes)
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest