- Felvarrták az Arctic rackmount rendszerekhez szánt CPU-hűtőjének ráncait
- Háromféle kivitelben, és nem kis kapacitásokkal jönnek a Micron 6550 ION SSD-i
- Már a Samsung sem szolgálja ki modern AI lapkákka Kínát
- Havazáshoz igazított kiadás kap a Steam Deck OLED
- Híres régészprofesszor segíti a GeForce-ok eladását
- VR topik (Oculus Rift, stb.)
- Házimozi belépő szinten
- Apple asztali gépek
- Milyen TV-t vegyek?
- RAM topik
- Milyen billentyűzetet vegyek?
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Már a Samsung sem szolgálja ki modern AI lapkákka Kínát
- Azonnali alaplapos kérdések órája
- OLED TV topic
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Alogonomus
őstag
A gondolatmenetedben kicsit meredek feltételezésnek tűnik, hogy a 4080-at 1200$ helyett valóban kiadhatták volna 700$-os áron érdemi nyereség mellett. Ráadásul a 700$-os 4080 esetén a 4070 Ti is csak nagyjából 450$ lehetett volna a 800$ helyett, az eladások tömegét hozó 4070 pedig nagyjából 350$ a 600$ helyett. Mármint a táblázat és a "visszavágottság" alapján kalkulálva.
"AMD elbukta volna az összes kint lévő RDNA2 készletét"
Ezzel kapcsolatban is sokkal többet veszített volna az Nvidia, ha a pénzügyi jelentésében szereplő 5 milliárd dollárnyi eladatlan Ampere készletet nézzük, ami úgy garantáltan minden teljesítménykategóriában eladhatatlanná vált volna.
Ráadásul egy ilyen lépésre válaszként az EVGA-n felül szinte biztosan több másik AIB is beintett volna az Nvidia-nak.Az árak megállapításakor még a Geforce széria bevételeire bőven és jelentősen támaszkodó Nvidia számára ez a lépés a céges szintű nyereséget tekintve is nagy sebet okozott volna, míg az AMD nyugodtan bele tudott volna állni az árversenybe, mert az AMD bevételeinek túlnyomó része a konzolokból, CPU-kból és úgy egészében a HPC piacról származik.
[ Szerkesztve ]
-
félisten
válasz Alogonomus #61951 üzenetére
Nincs ebben semmi meredek azért tettem be a táblázatot hogy az lett volna a normális meder hisz ezt csinálják évek óta és ezért háborog mindenki hogy most eltolták a nevezékeket.
Mit tartasz ezen meredeknek? A normális kerékvágást?
A 3080 Ti az Ampere szériában is 1200 dollár volt. Semmi nem változott volna csak a nevek és a 4080 pedig egy olyan SKU lett volna ami majd talán fog jönni gondolom 4080 Ti néven...
Igen olvastam ezeket az eladatlan készletes dolgokat itt, miközben már januárban sem tudtál nagyon venni 3080 és az fölötti kártyákat. Az RDNA2 most is teljes portfolióval elérhető mindenhol. Ebből kitalálható kit érintett jobban ez a dolog, bárki bármit is állít.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
Ez egy érdekes cikk az FSR3-ról. [link]
Nem annyira technológiai leírás. Azt latolgatja, hogy a késés összefüggésben lehet-e azzal, hogy az AMD
- tud-e olyan nem ML alapú algoritmust csinálni, ami az elvárt mértékben jó, miközben megőrzi a visszafelé kompatibilitást és más hardverekkel való kompatibilitást is megőrzi
- vagy kénytelen valamilyen ML alapú algoritmust bevezetni, ami nyilvánvalóan nagyobb számítási teljesítményt igényel, ennek megfelelően szükségessé válhat a hardveres gyorsítás - és itt persze kérdés, hogy az RDNA3-ban található AI accelerator ehhez amúgy használható-e.Szerintem egyébként ebből kár volna eldöntentő kérdést csinálni, hiszen az FSR-nak (is) eleve van P, B, Q erőssége/szintje. Ha ez a nagy eldöntenő kérdés, akkor ezt nyilván úgy lehetne megoldani, hogy a Quality szintre, vagy a meglevő Quality szint fölé vezetik be a ML alapú, jobb minőséget biztosító eljárást, ami megfelelő sebességhez igényli a megfelelő hardveres gyorsítást.
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Petykemano #61958 üzenetére
A srácnak fogalma sincs, hogy mit ír. Eleve a DLSS és az XeSS is alig használ ML-t. A feladat egy hangyafasznyi részében alkalmazzák, a teljes feldolgozás kb. 5%-át, ha kiteszi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Alogonomus
őstag
válasz Petykemano #61958 üzenetére
Mostanában több olyan spekulációval találkoztam, hogy az FSR 3-at talán a Starfield kapcsán szeretné bevezetni az AMD, hogy az még jobb eredményeket produkáljon. A Starfield egyértelműen komoly helyen áll az AMD stratégiájában, és talán az lesz az AMD saját "CP:2077" címe, amin keresztül a jövőben is bemutathatja az új technológiáit.
Szóval többek szerint az FSR 3 algoritmusai már bevetésre készek, de a korábbi FSR verziókhoz képest nagyobb csinnadrattával szeretnék majd bemutatni, nem csak simán kiadni egy sima driverfrissítésen keresztül. -
X2N
őstag
válasz Alogonomus #61960 üzenetére
Motion interpolation mint saját technológia? Ahelyett hogy a fogyasztást javítanák a kártyáiknál vagy a VR támogatást ami miatt mindenki panaszkodik...
-
PuMbA
titán
VR támogatást elvileg 1-2 hete javították:
"Fixed Issues: Certain virtual reality games or applications may encounter suboptimal performance or occasional stuttering on Radeon™ RX 7000 series GPUs."
A szoftveres részt mindenesetre mindenképp fel kell turbóznia Lisa Su-nak, mert ez így gáz, hogy megjelenés után hónappokkal legózzák össze a kártyához a szoftvert. A szoftvernek akkor kell kész lennie, amikor a kártya a boltokba kerül és megengedhetetlen, hogy valamiben is visszalépés legyen, mint az előző generáció, mert nem sikerült időbe megcsinálni. Vegyenek föl több embert, ha ilyen lassúak, ez már nem a felhasználó gondja.
[ Szerkesztve ]
-
Yany
addikt
válasz Busterftw #61965 üzenetére
Az vicces volt, amikor az általam egyébként sokra tartott opimumtech-es gyerek bemondta, hogy tök egyforma az NVENC és a Radeonok AV1-es minősége, majd berakott kb. 0.2s-re egy comparison screenshotot és szénné gyalázta az NV minősége az AMD termékét. Ott varakartam a fejem, hogy a mindig korrekt srác hogy tálalhatta ezt így... Az a fura, hogy az AMD még mindig azt hiszi, hogy az fps/$ az egyetlen mutató, ami alapján az emberek GPU-t választanak. Vajon mikor esik le?
szerk.: megvan, ez volt az a video --> [link]
Ez egy random képkocka a pillanatra bevágott anyagából, több képkockát is megnéztem, nem egy kategória a kettő.[ Szerkesztve ]
Építs kötélhidat - https://u3d.as/3078
-
Yany
addikt
válasz TESCO-Zsömle #61967 üzenetére
Szerintem ne a képet nézd, hanem 4k felbontáson kockázd ki magadnak a linkelt videót. Bár ha a képen is rá kell mutatni, akkor az említett gond nem neked szól. Elkezdtem bekarikázni, de rájöttem, hogy semmi értelme, csak azoknak valódi gond ez a minőség, akik enélkül is kiszúrják, nekem pedig egyből feltűnt, szóval fölösleges...
Építs kötélhidat - https://u3d.as/3078
-
S_x96x_S
addikt
akkor nem értünk egyet .. és ez nem baj ..
amúgy én nem látom ennyire drasztikusan versenyellenesnek a jelenlegi helyzetet ..
tény, hogy láthatóan, hogy nem olyan aktív a verseny a consumer gaming - piacon.
és bár a gaming piac is fontos,
de nem a legfontosabb egyik cégnek se, hogy túlzott erőforrásokat elvonjanak más területekről ..> Évek óta a két cég hajszálra pontosan egymáshoz lövi be a termékeit.
> Tehát valahogy tudnak róla, mit hoz a másik.de ez mivel különbözik attól, hogy
egyes nyugdíjasok szerint a hazai élelmiszer boltok összejátszanak,
.. mivel nyilvánvalóan mind egyszerre emelnek árakat ???Mert a GPU-nál is a költségek, a TSMC árak, a Memória árak
és a beszállítói problémák ( covid ) is
egyszerre jelentkeznek mindkét gyártónál.És mivel nem egyszerre jelentik be a termékeket,
mindig a másik bejelentéséhez tudják igazítani az árakat és a kínálatot ..
és ez szerintem normális, régebben is így volt ...amúgy a verseny jó .. és lehetne egy kicsivel nagyobb verseny is ..
Mottó: "A verseny jó!"
-
félisten
[AMD Radeon RX 7900 GRE for China]
AMD reportedly working on Radeon RX 7900 GRE with 16GB GDDR6 memory and cut-down Navi 31 GPU
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
Vajon miért csak oda?
- Kína elvileg nagy piac. Ezért nem tűnik valószínűnek, hogy azért kerülne csak ott piacra, mert nagyon kevés van. Egy ilyen SKU-nak biztos máshol is örülnének.
- Kína elvileg nagy piac. Gesztus volna a kínai piac felé?
- Kína elvileg nagy piac. Ott rendelt volna valaki egy ilyen SKU-t nagyobb mennyiségben?Találgatunk, aztán majd úgyis kiderül..
-
Busterftw
veterán
válasz Petykemano #61971 üzenetére
Szerintem ott van most biztos felvevo piaca es mivel az AMD nem arrol hires, hogy hatalmas wafer mennyiseget foglalna le GPU-kra, fokuszalnak 1 piacra.
Nekem ez a tippem.
-
félisten
válasz Petykemano #61971 üzenetére
Mert valószínűleg a 7800 nak konkurencia lenne itt, ott meg magasabb áron elmegy ez a leeső selejt termék speciális különálló SKu-ként.
Ez az ottani 7800 lesz szerintem csak eltérő GPU val és névvel.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
Persze a samsung sokszor sokmindent több hónappal azelőtt bejelent, hogy az ténylegesen piackész lenne náluk. De jövőre már biztos ezzel érkeznek kártyák.
Kíváncsi vagyok, hogy a memória fejlődése (sávszélesség) vajon marginalizálja (értsd: csökken-e a MB/CU) az infinity cache-t, ami már az RDNA3-ban is csökkent. Nyilván ez nem azt jelenti, hogy szükségtelenné teszi a cache-t, csak hogy a működését a hatékonyság érdekében (ide értve azt, hogy victim jellegű vagy hogy milyen szinten jelenik meg) át kell szervezni.
Mindenesetre ez is azt sugallja, hogy ha az MCD-t le.lehetne cserélni GDDR7 vezérlősre, akkor a MCD-re stackelt 3D infinity cache némiképp zsákutca.Találgatunk, aztán majd úgyis kiderül..
-
Busterftw
veterán
válasz Petykemano #61975 üzenetére
Micron 2024 H1-et irt megjelenesre, ez nagyjabol egybeesik a Samsung timeline-nal.
Azt lehet tudni mekkora chipek jonnek? (egybol 2GB vagy nagyobb) -
Alogonomus
őstag
válasz Petykemano #61975 üzenetére
A sebesség csak az infinity cache egyik előnye, a másik előnye a nagyon alacsony késleltetése, amitől valószínűleg a GDDR7 is elmarad. Az egyre magasabb frekvencián üzemelő GPU számára pedig kiemelten fontos a minél kevesebb üresjárat, amíg az adatra vár. Ráadásul várhatóan a következő generációban ugyanúgy komoly fejlesztést kap az infinity cache, ahogy a friss infinity cache is sokkal hatékonyabb, mint az első változata volt.
Szóval az infinity cache szerintem biztosan nagyon lényeges marad a következő generációkban is, mert állítólag egyszerre nagyon energiahatékony, valamint érezhetően javítja a teljes memóriarendszer effektív sávszélességét is. -
Petykemano
veterán
válasz Alogonomus #61977 üzenetére
"Az egyre magasabb frekvencián üzemelő GPU számára pedig kiemelten fontos a minél kevesebb üresjárat, amíg az adatra vár."
Hát igen, csak kérdés, hogy ezt az igényt mennyire jól szolgálja ki egy másik chipleten található - relatív kis méretű - cache.Találgatunk, aztán majd úgyis kiderül..
-
Alogonomus
őstag
válasz Petykemano #61978 üzenetére
A késleltetést komolyan befolyásolja a fizikai távolság, és az infinity cache garantáltan nagyságrendekkel közelebb lehet a GCD chiplethez - ha nem is egyazon chipleten - , mint amilyen távolságra a GDDR7 chip lehet a PCB-re szerelve.
-
Ribi
nagyúr
válasz Alogonomus #61977 üzenetére
2 gyártó elvan infinity nélkül, a másik meg nyomatja. Amíg nincs úgy megírva a játék hogy tényleg "kell" az oda, addig - és vehető úgy is hogy eddig - nem sok értelme van. Ha meg "kell" akkor kérdés mi lesz a többi gyártóval. Sajna nincs eszköz tesztelni nélküle, így nem tudni mennyire is kell az oda.
-
Alogonomus
őstag
Az Intel még bőven nem tart ott, hogy ilyen infinity cache típusú finomhangolásokkal foglalkozzon.
Az Nvidia pedig pont arra próbálta terelni a hangsúlyt leginkább a 4060-ak kapcsán, hogy a 16-szorosra felbővített L2 cache 32 MB-ja majd kompenzálja a 128 bites memóriabusz szűkösségét. A tesztek alapján viszont ez nem nyert megerősítést, mert az idei év memóriakapacitás-paráját megalapozó játékokban, mint a Plague Tale: Requiem, Hogwarts Legacy, Last of Us esetén átlagosan rosszabbul teljesített, mint a szintén 128 bites és 8 GB-os hasonló nyers számítási teljesítményű 7600. Szóval az Nvidia nagyon is dolgozik az infinity cache mintájára egy saját cache technológia kifejlesztésén, de eddig még elmaradnak az AMD megoldásának a hatékonyságától. -
Alogonomus
őstag
A chipek belső kialakításáról kiadott magyarázó die shot kép alapján eléggé nagy az infinity cache helyigénye, a konzolok APU egységeiben pedig nagyon spórolni kellett a helyfoglalásokkal, hogy ne egy 800 mm²-es gigachip legyen. A konzolokhoz hasonló generációt képviselő és hasonló erejű Navi 22 esetén az infinity cache a GPU 20%-át elfoglalja, vagyis a 70 mm²-ével együtt a konzol APU 25%-kal lett volna nagyobb.
A konzoloknál egyébként sem annyira nehéz megoldani a feldolgozó egységek folyamatos "etetését", mert a programozónak annak a konkrét konzolnak a képességeihez kell csak optimalizálnia a folyamatokat, nem eltérő CPU, RAM, merevlemez, alaplap, PCI-E verzió és GPU random kombinációira.
[ Szerkesztve ]
-
Ribi
nagyúr
válasz Alogonomus #61983 üzenetére
Kinek a tesztjében teljesít rosszabbul? Mert itt gyakorlatilag ugyan olyan.
[ Szerkesztve ]
-
Alogonomus
őstag
A Techspot/HUB tesztjében.
Nagy különbség nincs a két kártya között, de a Plague Tale esetén lényegében nem változik a két kártya erőviszonya a 1080p->1440p váltással, a Last of Us esetén a TPU tesztjében és a HUB tesztjében is 14-15%-al kevesebbet csökken a 7600 teljesítménye a felbontás növelésétől, a Hogwarts Legacy esetén csak a HUB eredményei vannak meg, de ott is 8-9%-kal jobban jön ki a 7600 a több adatot mozgató magasabb felbontásból.
Az nyilvánvaló, hogy a játékokban nem ugyanott mért a két tesztoldal embere, mert mindegyik játék esetén határozottan más értékeket mértek, de mindkét tesztoldal által ugyanott lemért eredmények a két kártyára nézve hasonló tendenciát mutattak. -
félisten
válasz Alogonomus #61986 üzenetére
Az általad linkelt tesztben a 4060 38%,( 38,18)a 7600 pedig 30% esést hoz (29,62%)tehát 8 % a különbség nem 14-15%. és ez szerintem nem igazán kompetens, egyáltalán nem mondható az ki, hogy azt IF cache miatt van, lehet éppen a 4060 kezdeti furcsa energiagazdálkodása miatt van ,amire Igor rávilágított,sőt.
A minimum FPS lenne ebben szerintem mérvadó, de ott mindegyik kártya földbeáll.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Devid_81
félisten
RX 6800 MSRP-ert 6800XT teljesitmeny 7800 neven?
A hulyenek is megeri... teljesen ignoralni es nem venni belole
Vicces kedvuek ezek mar megint.
Nyilvan ertjuk, hogy nem adhatjak ingyen, de ez kb a 6700XT-nek az utodja semmi tobbMajd azzal fognak kampanyolni, hogy nem emeltek arat az RX 6800-hoz kepest
A 7700-at meg passz, hogy mivel akarjak eladni[ Szerkesztve ]
...
-
Alogonomus
őstag
Abszolút értékben tényleg 38% és 30% a két kártyával elérhető átlagos fps sebességének a csökkenése. A 14% azt a mértéket jelöli, amennyivel a két kártya között a különbség változott a felbontás változtatásának a hatására. 1080p esetén még kb 2% volt a 4060 előnye, de 1440p esetén már kb 12% lett a 7600 előnye. Vagyis a 7600 összességében kb 14%-kal jobban kezelte a felbontás növekedésével járó extra kihívásokat.
A csapnivaló minimum fps indoka mind a két kártya esetén nyilvánvalóan az elégtelen memória. A tesztútvonal egy bizonyos szakaszán beüt a crach, és feltételezhetően a PCI-Express sín adatátviteli sebessége határozza meg azt az 1% low értéket.[ Szerkesztve ]
-
félisten
válasz Devid_81 #61989 üzenetére
Nem is csak ez a gond, mert ha 4070 teljesítményű lesz, akkor 50 dolcsival olcsóbb a 7800, ami kb az hogy megint beáraztak egymáshoz szépen és ugyan azt a teljesítményt adják szinte ugyan azon az áron. AMD 50 dollárral olcsóbb lesz ad + 4 GB vramot cserébe RT ben lassabb lesz, valószínűleg 25-30 % kal többet fog enni,a zöld oldalon meg ott a FG és a DLSS meg hát NV a nevével is magyarázhat 50 dollár árkülönbséget, nem tényező piacszerzésben. Nagyjából -ha mérlegelsz- ugyan azt adja a két gyártó, nincs itt semmiféle verseny, csak kartell.
A 7700 teljesítménye bizonytalan de ha 4060 Ti lesz akkor megint ugyan aza szitu, annyi hogy Nvidia ad itt több Vramot 50 dollár felárért de az halottnak a csók,1440P re a 12 GB elég.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
hahakocka
senior tag
7800 mièrt csak a 6800xt hoznà? Elvileg a 4070 S a 4060ti közt lesz erőben 16 GB vrammal. A 7700 meg a 4060ti S a 4070 közt 12 GB vrammal. Sose 3Dmarkkal tippeljetek. Màr annyiszor volt erősebb ez az amaz azt gamek alatt èlesben èg ès föld lett vègül. Ugyanígy M és laptop karikkal tippelni is felelőtlensèg. Tudjuk jól hogy nem egyenlők a pc S tàrsukkal.
[ Szerkesztve ]
-
hahakocka
senior tag
Ja S lehet hogy lesz a Gamescomon sima S xt is mindkettőből ki tudja .
-
Petykemano
veterán
GDC2023 - GPUOpen ismertető videó az FSR-ról: [link]
Megemlítik benne az FSR3-at is. És megemlítik a megnövekedett késleltetés kezelési módját is. (Ez még nem a release)Összefoglaló:
Latest FSR3 details from AMD:
- Non AI frame interpolation
- 2x performance goal
- will be open source
- Runs on all FSR2 compatible GPU
- Built on FSR2 for easy integration
- leverages AMD fluid motion
- will feature advanced latency reduction
InnenTalálgatunk, aztán majd úgyis kiderül..
-
Alogonomus
őstag
válasz Petykemano #61975 üzenetére
Az azóta kiderült adatok alapján a GDDR7 olyasmi helyzetet hozhat, mint korábban a GDDR6X. A sima 24 Gbps GDDR6-hoz képest azonos sebességen 20%-kal takarékosabb, a 33% sebességelőny mellett pedig 7%-kal éhesebb.
-
Petykemano
veterán
válasz Alogonomus #61997 üzenetére
Akkor ez valami olyasmi, hogy a GDDR6X a GDDR6 bruteforce továbbfejlesztése jelentős felárral, míg a GDDR7 ugyanazokat a képességeket fogja hozni, mint a GDDR6X, csak jobban átgondolt és ennélfogva kevésbé költséges alapokon (PAM3 vs PAM4)?
Vagy a +20% hatékonyság vagy +33% teljesítmény a GDDR6X-hez viszonyítva értendő?Találgatunk, aztán majd úgyis kiderül..
-
Alogonomus
őstag
válasz Petykemano #61998 üzenetére
A 20% elvileg a sima GDDR6-hoz képest értendő, ha mind a kettő effektív 24 Gbps-on üzemel. A 7% fogyasztási többlet is a 32 Gbps GDDR7 és a 24 Gbps sima GDDR6 között jelentkezik.
A +33% teljesítmény csak a 32 vs. 24 értékből jön, ott mindegy a GDDR6, vagy GDDR6X.[ Szerkesztve ]
-
PuMbA
titán
válasz Petykemano #61996 üzenetére
Én az FSR 2.3-at várom, amiben a kép instabilitást javítják
[ Szerkesztve ]
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Újít a Visa, később is ráér majd fizetni a termékekért
- Cyberpunk 2077
- Milyen NAS-t vegyek?
- VR topik (Oculus Rift, stb.)
- iPhone topik
- Eredeti játékok OFF topik
- Mibe tegyem a megtakarításaimat?
- Konzolokról KULTURÁLT módon
- Kerékpárosok, bringások ide!
- exHWSW - Értünk mindenhez IS
- További aktív témák...
Állásajánlatok
Cég: HC Pointer Kft.
Város: Pécs
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest