Hirdetés
- Dedikált NPU-t tervezne az AMD?
- És akkor egy fejlesztőstúdió rájött, hogy vissza is élhetne a felskálázással
- 4 billió dollárt ér a Microsoft, 500 milliárd dollárral lőttek ki az AI-cégek
- Jól áll az ARM-os Windows helyzete, de a játékoknál nem jön az áttörés
- Kínai kézbe kerül a MediaMarkt áruházak tulajdonosa
Hirdetés
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Cifu
félisten
válasz
AtomSiló #45196 üzenetére
Milyen "elcsúsztatott" termékskáláról beszélhetünk?
Hajdan az AMD-nél a 90-es végűek voltak a csúcson (R9 290, 390, talán az 590 is ide jöhet).
Aztán jöttek a Vegák, meg a Radeon VII. Most az RX5700.
Aztán a 80-as végűek voltak a felső középkategória (RX280, 380, 480, 580) és alatta sorban a többi a 70-es, 60-as és 50-es végűek.
Az nVidiánál mindig a 80 és 80Ti végűek (980(Ti), 1080(Ti), 2080(Ti)) voltak felül, aztán jött a csúcsszuper Titánok. Alatta sorban a 70 és 60, illetve 50 végűek, ahol a Ti adta a magasabb teljesítményszintet.A gond csak az, hogy ez rohadtul nem jelentett semmit, mert az árak határozzák meg, hogy a termékskála merre is áll. Amikor kijött az RX590, akkor a GTX 1070-től is elmaradt a teljesítmény és árban is. A Vega ott volt felette.
Most a csúcsot az RX5700XT képviseli a Radeonok közül, de az RTX 2080 / RTX 2070 Super teljesítménye körül, de inkább alatta mozog csak. Árban is. Nincs semmi az AMD-nél, ami a 2080 Super és Ti-vel felér.
Szóval nem igazán értem az egész megjegyzést...
-
AtomSiló
lelkes újonc
Szerintem meg pont ez a jó, Ha NV is 7nm EUV-n lesz meg AMD is akkor végre 6 év után közvetlen összehasonlítható konkurencia lesz.
Nem lehet elcsúsztatni mesterségesen a termékskálát, vagy más módon manipulálni
...és nem az elmúlt 6 év "egymásmellé rakjuk a termékeket és ezáltal bányászláz nélkül is túlárazott piac van" mocsarában dagonyázunk.
Ez a konvergens evolúció ami zajlik, AMD is lejött a GCN-ről egy gamerebb arhitektúrára, RT, 6 GB memória. Driver letöltő oldalon kívül lassan nem is lesz különbség.
-
Cifu
félisten
válasz
Cathulhu #45192 üzenetére
Ahogy már mások is írták, az AMD nagyon-nagyon régen tudta utoljára egyetlen családdal lefedni a piacot.
Én arra számítok, hogy nyár vége felé jöhet az RDNA2 a közép-felső kategóriába, esetleg a csúcskategóriába is - ha már Lisa Su ezt ígérte. Csak ugye ehhez az Nvidiának is lesz pár szava...
-
X2N
őstag
Az jó lenne ha beválna már ez az rdna 2 és nem kellene megint újratervezni. Gondolom nem tervezik meg külön GDDR6/HMB2-t is működjön vele. Inkább legyen HBM2 akkor.
-
Cathulhu
addikt
Ez meg csak nem is leak, csak rumor, azzal meg mindig padlast lehet rekeszteni. Szvsz ebbol semmi se igaz, de hetfon hatha kiderul valami konkretabb.
De szigoruan elmeleti alapon meg akar mukodhet is, csak 1.5x annyi tranyo es 7nm EUV nem indokolna jelentos TDP novekedest, persze minden a celzott orajeleken mulik. Az RDNA 2 meg hozhat plusszban IPC novekedest is.
Amik miatt nekem buzlik ez a rumor, egyreszt az a 1.5x tranyo mennyisegre 2x die area-t ir, ugy hogy kozben a csikszelesseg is csokken, masreszt meg az RDNA1-es paletta is szegenyes, 2-t nem varok ev vege elott. -
X2N
őstag
Készül az "nvidia killer". Szerintem kazán lesz
Nem úgy volt hogy drága a GDDR 5-6 ekkora méretben, és HBM memória lesz már az új kártyákon? Kevés lesz ez így raytracinghez, kell a HBM sávszélesség nem?
-
awexco
őstag
válasz
Petykemano #45185 üzenetére
Lehet nem kevés tuning potenciál van bennük ...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #45185 üzenetére
Nincs, mert az is egy paraméter. Olyanra állítják, amilyenre akarják. Ha akarnák rakhatnák 100 wattra is. Lásd a Radeon RX 5500M, ami ugyanaz a hardver, mint az asztali 5500, mégsem 150 watt a TGP-je a hivatalos papíron, hanem 60. Ma már ez is csak egy szám a BIOS-ban/driverben.
Régen ez teljesen más volt, mert nem AVFS hardverek voltak, de ma már ez ugyanolyan meghatározható adat, mint az órajel. -
Cathulhu
addikt
válasz
Petykemano #45186 üzenetére
5830 szindroma. Alacsonyabb teljesitmeny, magasabb fogyasztas. A selejt hatranya.
-
Petykemano
veterán
válasz
Petykemano #45185 üzenetére
#45184) Cifu
Az alapján spekuláltam ezen, hogy hát ezek elvileg vágott lapkák és az órajel is lényegesen gyengébb, miközben a fogyasztás meg csak épphogy jobb.
A Samsung 7nm-ről meg épp most terjedt a pletyka, hogy bűnrossz a kihozatal (->vágás) és egyébként is gyengébb minőségű, mint a TSMC (-> alacsonyabb órajelek, rosszabb perf/W)
(Meg már a navi14-nél felmerült ugyanez a pletyka, hogy azt a Samsung gyártja) -
Cifu
félisten
válasz
Petykemano #45182 üzenetére
Az AMD is gyártat a Samsungnál?
Az Intel és az nVidia esetében volt ilyesmiről szó, de az AMD?
Egyébként B válasz szerintem.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #45182 üzenetére
Valahogy be kell rakni a terméket nagyjából félútra az 5500 XT és az 5700 közé. Mivel a kihozatal kiváló a TSMC-nél, így felesleges az ALU-kat erősebben letiltani, vagyis elveszik az órajelet. Utóbbi már csak azért is kellemes, mert a blending teljesítményre is negatív hatással van, így egyre messzebb kerül a termék az 5700 teljesítményétől, ugyanis pusztán a 192 bites busz nem lenne olyan jelentős hátrány. Ennyi a lényeg. Aztán persze, ahogy számítani lehetett rá a gyártók dobnak rá egy combos hűtést, hogy vissza lehessen emelni az órajeleket. De az már tuning, tehát nincs rá garancia.
A probléma annyi lenne a magas órajellel, hogy az ALU-kat kellene letiltani, ami persze megoldható, de a blending teljesítmény magasabb lenne pusztán az órajel miatt, tehát nem lehetne a termék teljesítményét annyira elvinni az 5700-tól, hogy utóbbinak megmaradjon a létjogosultsága.
Spekulálni felesleges egy olyan terméknél, amely köztes megoldás. Ott az számít, hogy milyen paraméterrel tudsz úgy x teljesítményt hozni, hogy az elég messze legyen a nagyobb, de drágább modelltől. Itt egyáltalán nem a lehetőségek döntenek, hanem az, hogy mik a piac szempontjából optimális paraméterek.
-
Petykemano
veterán
válasz
Petykemano #45173 üzenetére
"Kiszivárgott" az XFX és az MSI változata is.
Döbbenetes, hogy a base clock 400-500Mhz-cel, a turbó 200-300Mhz-cel alacsonyabb, mint az 5700/XT-nél látott értékek. 4-ből csak 3 memóriavezérlő működik és még a memória sem 14, hanemcsak 12gbps.
Ilyen alacsony órajelekkel már szinte termelnie kéne az áramot, nem fogyasztani.
Mi lehet, ami mégis indokolja ezt a hűtést ilyen alacsony órajelek mellett (vö: 5700)
150W TDP-t írnak.Azon gondolkodtam el (nettó spekuláció!!), hogy vajon az
a) új, nagyobb tranzisztorsűrűségű stepping mobilra gyártva
b) legrosszabb minőségű lapkák
mellett létezhet-e például egy
c) ezeket a Samsungnál gyártják
változat? -
Cifu
félisten
@Z10N & @gbors: Ajvé, valamiért megfeledkeztem a PCI-Express csati tápfelvételéről...
-
r3dsnake
nagyúr
Sziasztok! Szerintetek a Sapphire RX580 Pulse 8GB ára fog még lentebb menni 65-70K-ról, vagy ne várjak tovább vele?
Köszi!
-
válasz
Petykemano #45175 üzenetére
-
Z10N
veterán
válasz
Petykemano #45173 üzenetére
Minek ra ekkora hutes? Hacsak ahogy mondtam a nagyon szivargo gpukat rakjak ra - amit az orajel alatamaszt - es ennyire melegszik.
A jovheti CES-n remelem mar review-t is kapunk, nem csak bejelentest.
-
Petykemano
veterán
-
Crytek
nagyúr
válasz
Petykemano #45145 üzenetére
Jöhetnének már végre ezek a laptopok. Nagyon kíváncsi vagyok már az árakra.
-
Abu85
HÁZIGAZDA
A switch csak azért kell, hogy az 16 sáv el legyen osztva a GPU és az SSD között. Mert nagyrészt a GPU és az SSD működéséhez nem szükséges a CPU-ig menni, elvannak ők ketten. Lásd a Radeon SSG. Ott is egy switch van az SSD és a GPU között. Szóval ez nem hardveres ok, a switch csak kell, hogy összekösd őket, és a CPU nélkül is tudjanak kommunikálni.
Igen. Alapvetően egy olyan API kellene, ami kezel egy tök szabványos NVMe SSD-t. Nem nagy kunszt, tényleg. Csak a Microsoft nem különösen érdekelt most ebben, jó az, ha az Xbox tud olyat, amit a PC nem. Aztán persze egyszer megcsinálják ide is.
Ahogy jelenleg tűnik az AMD és az Intel sem szabványban gondolkodik. Persze ez nagyrészt egy szoftveres szintű zárás, nem igazán hardveres, de meg tudják csinálni, és az a cél, hogy AMD-hez AMD-t, Intelhez pedig Intelt vegyél. Ez szimpla önbizalom a részükről, hogy többet nyernek azzal, ha magukhoz kötik az egészet. Igazából gondolj bele. Ha még az egymás elleni harcra nem is fókuszálnak, akkor is meg tudják győzni az OEM-eket arról, hogy AMD és Intel proci mellé vegyenek csak AMD és Intel GPU-t. Az már akkor is hatalmas győzelem nekik, ha egy éven belül jön valami szabvány. Mert a probléma bonyolultságát figyelembe véve nem egy vállalhatatlan dolog ez mondjuk a Khronos számára, ahol ugye nem számít, hogy a konzol előnyben legyen. És simán lehet interoperabilitást írni akármelyik grafikus API-hoz (nem nagy kunszt az egész). De az AMD és az Intel már azzal előnybe került, hogy az OEM-eket olyan szerződésre kényszerítette, amely a CPU-ikhoz saját GPU-t követel, tehát egy év múlva már a szabvány is jó, az OEM-ekkel kötött szerződés még él.
-
Cifu
félisten
Ezt most nem értem kristálytisztán.
A #45157-ben azt írtad, hogy az AMD és az Intel is egy switchet rak a CPU elé, hogy a dVGA elérhesse közvetlenül az SSD-t. Vagyis a különbség leginkább hardveres okokra vezethető vissza.
Erre itt olyasmire utalsz, hogy igazából csak egy szabványos API hiányzik, ami a Microsoft sara. Eleve nem értem a miértet, hiszen azt írtad, hogy a PS5 és az XBox is ezt az elvet fogja használni, tehát nem csak a Microsoft érintett, hanem a Sony is, illetve hardverfejlesztőként az AMD Semi-Custom.
Ahogy én látom, itt adott esetben az AMD foghatná a saját megoldását, és beépíthetné a Vulkan API-ba, meghívva esetleg az Intelt is, nem jófejségből, hanem hogy szabványt hozzon össze. De azt írtad, hogy az Intel nem szabványban gondolkodik, ez mondjuk azért érdekes, mert ha nem is azonos teljesen, de némileg emlékeztet maga a megoldás az Intel Optane memóriára. Szóval az Intel kvázi eddig is bírt hasonlóval, csak a dVGA volt kihagyva a képletből, mert ők ugye a CPU-t és annak RAM-ját etették ilyen módon.
-
Abu85
HÁZIGAZDA
Megmondom őszintén, hogy itt a Microsoft lehet a hunyó. Ez a specifikus probléma tökre megoldható azokkal a lehetőségekkel, amit ma tudsz venni boltban. Tökéletes egy x4-es PCIe 4.0-s M.2 NVMe SSD, de még a 3.0-s is, illetve a probléma jellege nem olyan komplex, hogy erre ne lehessen írni egy szabványos API-t rá, elvégre a PCI Express adott, ahogy az NVMe is, tehát full szabvány itt az elérés. Erre csak fel kellene húzni egy extra réteget és kész. A Microsoft viszont ezt az előnyt meg akarja hagyni az Xboxnak, tehát nem csinálják meg PC-be időre. Később valószínűleg megoldják, de addig a gyártók magukra vannak utalva, így elkezdik a saját rendszerüket csinálni. Az alkalmazás oldalán ezek nem igényelnek nagy munkát, egyszerűen csak az eltérő API-kra kell támogatást írni, és ez nem olyan jelentős. Az AMD-nek már van is hasonló API-ja az OpenCL/OpenGL/DirectX-hez. [link] Szoftveres szinten tehát ez egyáltalán nem bonyolult, csak a Microsoftnak kellene vennie a fáradtságot, hogy csináljon egy szabványos API-t rá, aminek tökéletesen jó lenne a PCI Express és az NVMe. De amíg ezt nem teszik meg, addig a gyártók persze, hogy be fogják zárni magukat, mert a szoftver oldalán egyszerű ennek a támogatása, viszont a konfigurációk limitjével a saját processzoraikhoz tudják kötni a saját VGA-ikat. Az meg nekik pluszpénz.
-
Yutani
nagyúr
Korrekt ár összehasonlításhoz azonos kiépítésű kártyákat kell összevetni. Nyilván a ref RX 5700 agyonver bármilyen custom egyéb kártyát perf/$ mutatóban, de ha veszed mondjuk az MSI Gaming sorozatot mindenből, akkor az jön ki, hogy nagyjából az összes kártya ára be van lőve a teljesítményének megfelelően.
-
Cifu
félisten
válasz
Petykemano #45158 üzenetére
Szóval lehet mégis csak jól tippeltem?
-
Petykemano
veterán
-
Abu85
HÁZIGAZDA
Ez az alaplapos dolog nem véletlenül merült amúgy fel, nem száz százalékban üzleti megfontolás. A következő konzoloknak lesz egy olyan képessége, hogy maga az SSD is memória lesz. Konkrétan az XSX és a PS5 is rendelkezik egy olyan móddal, amelynél a rendszermemória maga a játék telepítési helye, és a valós memóriának lesz egy CPU-memory része, illetve egy cache része. Utóbbiba lesz belerakva az éppen használat adat az SSD-ről, vagyis gyorsítótárazás történik, csak igen nagy mértetekben. A PC-n ezt úgy akarja az Intel és az AMD is leutánozni, hogy az alaplapi platformjaikon a PCI Express interfész előtt lesz egy külön switch, ami a CPU-ba lesz bekötve, és szétosztja a sávokat egy SSD és egy VGA között, a VGA GPU-ja pedig képes lesz direkten olvasni és írni az SSD-t, amit az alaplap megfelelő interfészébe helyeznek. A cache pedig lesz a VRAM. Na most ezzel a konzoloknak ez a képessége lemásolható. A probléma az, hogy az Intel nem szabványban gondolkodik, vagyis egy olyan interfész lesz az SSD-re, amibe csak a saját megoldásaik jók. És az AMD is ugyanezt akarja, vagyis nekik is lesz erre egy saját interfész, és ilyen formában már az alaplapnak a megvásárlásával eldől, hogy a gépben AMD vagy Intel VGA lesz, mert ha nem maradsz gyártón belül, akkor nem tudod használni a specifikus interfészt az adattárolóra. És mivel szabvány erre elég sokára lehet, mert a Microsoft nem nagyon törődik vele, úgy vannak az egésszel, hogy majd a user vesz 64-128 GB-nyi rendszermemóriát úgy 32 GB-nyi VRAM-os VGA-val. Az is megoldja ezt a problémát, csak nem ez a legolcsóbb mód.
Alternatív megoldás lenne amúgy magára a VGA-ra tenni az SSD-t, de ettől maga a VGA még drágább lenne, illetve a GPU fogyasztási kerete is csökkenne.
-
Yutani
nagyúr
Ad1) Egy cég akkor versenyez önmagával, ha egyedül van a piacon. Ha van versenytárs, akkor azzal versenyez. Én úgy látom, hogy a Navi10 kicsit többet ad kicsit kevesebbért. Ezért jobb a TPU grafikonja szerint a perf/$ mutatója a közvetlen ellenfelekénél, ahova az készült (5700 vs 2060, 5700XT vs 2070), de a Superekhez képest is arányaiban olcsóbbak, mint amennyivel gyengébbek. Tehát a Navi10 versenyez a konkurenciával. Persze az már a te problémád, ha nem tudod elfogadni a kialakult helyzetet és mindent drágának kiáltasz ki. Tényleg drága, de ahogy mostanában áll a dolog, ehhez hozzá kell szoknod. Vagy maradsz a 65 dolláros RX 470-nél (egy ilyet én is vettem kíváncsiságból).
Ugyanakkor abban egyetértünk, hogy az 5500XT és várhatóan az 5600XT sem lesz jó perf/$ mutatójú kártya.Ad2) Nem tudom, hogy jön ide az árvágás? Tök mindegy, mit mondtak korábban, most van egy ára a Navi10-nek, és az megfelelő a körülményekhez képest, lásd Ad1.
Ad3) A bányász szezont úgy értsd, ahogy kifejtetted, én sem gondoltam másra. A kereskedelmi lánc feltolta a kártyák árát, az emberek mégis megvették őket, és a gyártók látták, hogy ez jó. Így minek is adják olcsóbban, ha úgyis elviszik, ráadásul (állítólag) zsugorodik a dVGA piac, így a fix költségeket kisebb darabszámmal kell lefedni, ez pedig tudjuk jól, hogy megint csak drágító tényező.
Ne érts félre, én sem örülök neki, de ez van.Ad4) Hát ha úgy érzed, hogy egy évek óta piacon lévő GPU, amely már rég kitermelte a fix költségeit és sz@ré-h*gyé gyártja a GloFo, mérvadó kellene legyen a vadi új termékek árképzésében, a te dolgod. Én saját részről nem veszem referenciapontnak, ha megengeded.
Peace!
-
Petykemano
veterán
Meglátjuk - idén - működik-e az AMD-nek a bundle taktika. Ha igen, akkor azt fogjuk látni, hogy árverseny nélkül fog teret nyerni az AMD. Nekem vannak kételyeim, de abban az esetben az nvidiát látnánk - látszólagos - lépéskényszerben.
Valószínűleg az igazi (ár)verseny nem a DIY piacon zajlik. -
Cifu
félisten
válasz
Petykemano #45153 üzenetére
Elfelejted, hogy az AIB-ek igénylik az új verziókat évenként, ennek köszönhetőek az átnevezések, lásd Radeon HD 7970 -> RX 280 vagy R9 290(X) -> R9 390(X) és így tovább. Ennek köszönhető az RX500-as sorozat is.
Továbbá árat vágni piacon lévő terméknél azért nem olyan ideális eset, hiszen a raktárakban lévő termékeken így veszteség jelentkezik - persze elkerülhetetlen a már bent ragadt termékeknél, de mégis megugrottak az eladások a Super széria után. Tehát a marketing működik.
Abban teljesen egyetértünk, hogy az nVidia az adott légkörben röhögve léphet újra egyet az árlépcsőn, mert az adott körülmények mellett elég, ha a Turingot átülteti 7nm-re (nem ez fog történni, de most hipotetikusan tekintsünk erre), ami hoz mondjuk azonos TDP szint mellett +20% teljesítményt a Super kártyákhoz (ne feledjük, hogy sokszor inkább +30, sőt, voltak +38%-os teljesítmény előrelépési mutatók is 7nm-en elvben a 14/16nm-hez képest), és már meg is van a kívánt előrelépés.
Az RDNA2 ugye a 7nm+ lépést kaphatja meg, ez hozzávetőleg +10%-ot jelent. Tadam: az nVidia azonos TDP szinten +10%-ot mutathat fel, amit felhasználhat az áremelésnél.
Természetesen valójában az nVidia és az AMD is más fejlesztéseket is beilleszt az Ampere / RDNA2 esetén, de ha csak a padlószintű fejlesztéseket nézzük, akkor is megint látványos nVidia elhúzást várhatunk...
-
Petykemano
veterán
A Super kártyák kb. megfelelnek annak, amit az AMD csinált az RX480 -> RX580/RX590 esetében.
Igen.
És nem. Azért nem teljesen, mert az RX 580 egy olyan teljestményszintet ért el, aminek a közelében nem volt korábban kártya. Tehát az AMD-nek nem volt Egy RX 490-e azzal a frekvenciatartománnyal, amit az RX 580 elért, nem volt egy RX 580-nal szinte azonos teljesítményű RX 490, aminek elegendő lett volna az árát leszállítani a "versenyképesség" megőrzéséhez.Ehhez képest az Nvidia a
- kb 2070 árban betolta a kb 2080 teljesítményű 2070S-t - miközben csak simán árat is vághatott volna a 2080-on. (A 2080 és a 2070 is TU104, miközben a 2070 TU106)
- kb 2060 árban betolta a kb 2070 teljesítményű 2060S-t - miközben csak simán árat is vághatott volna a 2070-en. (A 2070 és a 2060 is TU106)
- a 2060-on árat vágott
- kb 1660 árban betolta a kb 1660Ti teljesítményű 1660S-t - miközben csak simán árat is vághatott volna az 1660Ti-n
- kb 1650 árban betolta a kb 1660 teljesítményű 1650S-t - miközben csak simán árat is vághatott volna az 1660-onBiztos jó okuk volt rá, lehet, hogy tényleg több, mint csupán az, hogy egy új SUPER vonal kiadását marketing szempontból jobbnak találták, mint az árvágást. De mindenesetre minden adott volt ahhoz is, hogy csupán árat vágjanak. (Azon lehet vitatkozni, hogy a +/- <5% differencia vagy a +/- $10 az most ugyanannak számít-e.)
Mindebből a lényeg, hogy ezzel az nvidia versenyzett, mert az amd valójában némileg aláígért az nvidia eddig tartott a verseny hiánya miatt magas árainak.
Én csak azt mondom, hogy sajnos tartok tőle, hogy ahelyett, hogy elindulna egy olyan árverseny, hogy akkor amikor a következő generációjával kijön, az ár/érték arányban picit alá ajánl a jelenleg elérhető kínálatnak, ahelyett még tovább emelkednek az árak.
-
Z10N
veterán
válasz
Yutani #45147 üzenetére
Ad1) "Az 5700/XT árával nem tudom, mi a gondod, perf/price szinten ott van az NV-vel egy szinten."
Nem az hirhedten draga Nv-vel kell price/perf csataba kelni, mikozben nincs normalis lineup es mennyiseg. Egy ceg elsosorban onmagaval versenyez. Nezd meg az Nv-t, nincs konkurencia ezert elkezdtek kiserletezni az RT-vel. Az AMD amit csinal az luxus. Nincs meg a negy kerek az auton, de azert turbot/nitrot rakunk a motorterbe? What for?Ad2) "Sőt, az 5700 tényleg jó mutatóval rendelkezik."
Aha, azert volt instant arvagas, mert annyira jo aron jottEzenkivul ezt Cifu kollega kfejtette neked lentebb. Raadasul ajanlom a figyelmedbe a Polaris mutatokat. Ehhez tudok viszonyitani, mert ennek az utodja.
Ad3) "Ja, hogy minden drága? Köszönhetjük a bányász szezonnak és a(z állítólagosan) dráguló gyártásnak."
A banyaszat mar lecsengett. Nem azert draga, hanem azert mert:
A) a byanszat alatt lattak, hogy el lehet ezt adni dragabban is, a birkak igy is megveszik (a banayszat aldasa most jon piszok olcso polariskent)
B) draga a 7nm, draga a gddr6, arviz van, foldrenges van, fogjuk valamire...Ad4) "A Polaris mutatóit meg ne vedd referenciának, mert azok kb. 10 dolláros (túlzok) GPU-k akármennyiért lehet adni őket."
Mar hogyne vennem, hiszen ott van benneVagy ez ugy mukodik, ha nem tetszik valami akkor nem veszek rola tudomast? Oh well, nice try...
-
Petykemano
veterán
Az a gyanúm (spekuláció), hogy a navi12 lesz az 5600M és ez esetleg valóban HBM-es az alacsony fogyasztás érdekében, ahol ez nagyon fontos és el is lehet kérni az árát.
Nem is kell talán két stack (2048bit), HBM2E-vel 1 stack is tud 400-450GB/s sebességet
Egy navi10 lapkáról, ha levágod a 256bit GDDR6 vezérlőt (ami a lapkának majdnem a negyede), és helyére teszel 1db 1024bit széles HBM2E-t akkor ez lehet akár 200mm2 is.De az AMD készített egy asztali 5600-t is, amit viszont a navi10-ből vágott. Pletykák szerint egy új stepping, mások szerint csak válogatás. Ez fog 192bites GDDR6 vezérlővel rendelkezni és csak annyi a célja, hogy legyen egy 5600 az OEM-eknek is (DIY: 5600XT), aminek az előállítása olcsóbb
-
Cifu
félisten
válasz
Petykemano #45148 üzenetére
A Super kártyák kb. megfelelnek annak, amit az AMD csinált az RX480 -> RX580/RX590 esetében. Csak az nVidia szinte a teljes palettán végigcsinálta, és a legtöbb helyen egy szinttel feljebb srófolták a teljesítményszintet az adott kategórián belül. Ez nem kisebb arcvesztés szerintem, egyszerűen ők jobban csinálták az átnevezést...
Főleg, hogy nem azt csinálták, hogy RTX 3060-ként adták el az RTX 2070-et.
Ami azért megsüvegelendő dolog, ha belegondolunk (bakker, dícsérem az nVidiát. Hova jutottunk...).
-
Cifu
félisten
válasz
Yutani #45147 üzenetére
Ezzel a táblázattal az a probléma, hogy az MSRP árakkal számol a ref. kártyák esetén. Csak nézz meg egy brand custom hűtésű kártya tesztet a TPU-n ( tessék egy példa ), és rá lehet jönni, hogy ez így rohadtul nem ér semmit.
-
Petykemano
veterán
Akkor mivel magyarázod az RX5500 és RX5600 késését?
Direkt megszívatnak mindenkit, saját magukat is beleértve?Szerintem itt inkább arról lehet szó, hogy az AMD-nek nincs elég tervezési erőforrása. Egy csapat dolgozott az RDNA-n és az a csapat most már biztos az RDNA2-n dolgozik és akik implementálták az RDNA-ból a navi10-et, az szerintem csak egy csapat és először megcsinálták a navi10-et, aztán a navi14-et és most a navi12-t.
De végső soron ki fog derülni. Ha még azelőtt esnének az árak, hogy jönne új termék - saját vagy konkurens, vagy amikor halljuk, hogy valaki 7nm-ről 5nm-re ugrott és akkor áresés van az AMD-nél akkor valóban a kapacitás volt a limitáló tényező.
Az nVidia azért teheti ezt meg, mert nincs verseny.
Eddig azért tehette meg, mert nem volt valós elérhető alternatíva. Most már van. Csak az alternatíva nem ajánlott az nvidia alá. De azért azt látjuk, hogy van verseny - abban az értelemben, hogy kijöttek a SUPER kártyák, tehát az nvidia reagált az AMD termékeire. Ez betudható egyfajta árcsökkentésnek. De az nvidia azt gondolta, hogy a 2070-et 2060S néven olcsóbban adni kisebb arcvesztés, mint a 2070-et olcsóbban adni.
Ezzel együtt azt azért érezzük, hogy az nvidia jelenleg nincs lépéskényszerben, tehát megteheti, hogy 30%-os teljesítménytöbbletért mondjuk 10-15%-kal többet elkér. Ami az AMD-nek is teret fog adni az árak emelésére. Csupán erre szerettem volna felhívni a figyelmet. -
Yutani
nagyúr
Az 5700/XT árával nem tudom, mi a gondod, perf/price szinten ott van az NV-vel egy szinten. Sőt, az 5700 tényleg jó mutatóval rendelkezik.
Ja, hogy minden drága? Köszönhetjük a bányász szezonnak és a(z állítólagosan) dráguló gyártásnak.
A Polaris mutatóit meg ne vedd referenciának, mert azok kb. 10 dolláros (túlzok) GPU-k akármennyiért lehet adni őket.
-
Cifu
félisten
válasz
Petykemano #45145 üzenetére
Ebből a felsorolásból nagyon hiányzik a sokak által várt RX 5800 (XT)...
-
Petykemano
veterán
válasz
Petykemano #45143 üzenetére
"RX 5600 XT for desktop is an afterthought for AMD just like the RX 5500 XT.
AMD is focusing on gaining momentum with OEMs both in laptop & desktop.
- RX 5300 XT
- RX 5500 OEM
- RX 5600 OEM
- Radeon Pro 5300M/5500M Apple
- Radeon Pro W5700X Apple
- RX 5300M/5500M
- RX 5700M
- AMD Radeon Pro W5300M
- AMD Radeon Pro W5500M"
(via) -
Cifu
félisten
válasz
Petykemano #45143 üzenetére
Szerintem nincs az, hogy az AMD nem kap elégséges 7nm-es wafert.
Akkor mivel magyarázod az RX5500 és RX5600 késését?
Direkt megszívatnak mindenkit, saját magukat is beleértve?De sajnos még az is benne van a pakliban, hogy ha az Nvidia tétet emel, akkor egyben árakat is fog az elmúlt 2 generációnál megszokott módon és mértékben.
Az nVidia azért teheti ezt meg, mert nincs verseny. A nyereségrátából lehet látni, hogy ők simán adhatnák olcsóbban a GPU-kat, hiszen éves szinten cirka 3 milliárd dolláros nyereségük van ebből. Van mozgásterük tehát.
De miért engednének a nyereségükből, ha megtehetik, mert így is uralják a piacot és az eladásokat?
Te talán kérnél alacsonyabb fizetést, ha semmi sem indokolja, hogy kevesebbet kapj?
-
Petykemano
veterán
Valószínűleg a meggyőződés állhat emögött, hogy a GPU eladás volumene nem a DIY piacon levő áraktól függ. Hanem majd a CPU sales viszi a GPU-t is, OEM-ek kapnak bundle kedvezményt és el lesz adva a GPU.
Hogy ez a meggyőződés igaz-e, azt végső soron nem tudjuk, mivel mostanában nem próbálta ki az AMD, hogy pl a király cím megtartása 4-5 éven keresztül vajon megdobja-e az alsóbb szegmensek eladását.
Ennek megfelelően sajna én nem is várnék mérséklődést az árakban. Szerintem nincs az, hogy az AMD nem kap elégséges 7nm-es wafert. Persze a GDDR6 lehet, hogy drága, de az az is marad.
Akkor jöhet ármérséklődés, ha
- mégse megy el az a mennyiség az OEM piacon, amit az AMD remélt és ki kell szórni az oda gyártott raktárkészletet a DIY piacra
- jön a nexgen (és az OEM-ek már arra gyúrnak)De sajnos még az is benne van a pakliban, hogy ha az Nvidia tétet emel, akkor egyben árakat is fog az elmúlt 2 generációnál megszokott módon és mértékben.
-
Cifu
félisten
A másik topicban nemrég leírtam a saját tippemet erre: az AMD úgy véli, hogy a Navi teljesítménye az adott árakat képviseli, "csak" a szoftver körítés miatt nem tudnak igazán kifutni a kártyák. Egyszerűen nem akarják elinflálni a teljesítményét a kártyának, mert hardware szinten (elvben) ott lennének, ahova az árukat lőtték. Ebben lehet valami, mert itt-ott látszott az RX5700(XT) esetén is, hogy ha megfelelőek a körülmények, akkor az árban egy szinttel feljebb lévő nVidia kártyákkal is felveszik a versenyt. Csak éppen kevés ilyen van, és a driverek terén sem állnak ott, ahol kellene.
A másik, amit Abu az 5500XT topicban írt, hogy az intel és az AMD azt tervezik a következő generációnál (felteszem Zen4 ill. Meteor Lake), hogy csomagokban fogják adni az alaplapot, CPU-t és GPU-t. Ha külön-külön vásárolja meg őket majd az ember, akkor a részelemek drágábbak lesznek.
Ez hosszabb távú dolog, de feltehetően még erősebb lesz a szeparáció a kék-piros oldal között, és egyben "megágyaz" az AMD a magasabb dVGA áraknak. Ők most úgyse tudnának kellő mennyiséget gyártani, ha olcsóbban adnák se, tehát nem is fogják olcsóbban adni. Ha a TSMC előrejelzései helyesek, akkor ez egész 2020-ban így lesz, vagyis a rendelkezésre álló gyártókapacitás határozhatja meg, hogy mennyi GPU-t akarhatnak eladni. Az árakat pedig ehhez lövik be...
-
Z10N
veterán
válasz
Petykemano #45122 üzenetére
Most mondjam azt, hogy ezt mar a mult heten/evben megmondtam?!
Az meg kulon beszedes, hogy az AIB-ok olcsobban akarnak adni. Pedig az msrp kozelebe alig szoktak menni, azaz tenyleg lehetne olcsobb.
Osszegezve:
5700/XT nagyon dragan jot, majd instant arvagas
5500XTdragan jott es tul van arazva
5600/XT dragan jon es szinten tul lesz arazvaPersze ennek fenyeben az eleve tularazott 5700/XT mar hirtelen nem is olyan rossz vetel, ahogy masok is mondjak (mekkora marketing huzas).
Semmi szandek nincs az arversenyre. Csak tudnam mire ez a nagy magabiztossag. Ritka ostobanak kell lenni, hogy a 1660/1660S/1660Ti triot korbe lojek, szinte mar szant szandekkal. Mintha nem is akarnanak eladni, csak mutatoba legyen. Es akkor meg le lettem hurrogva egy idi@ta altal, aki azota se valaszolt, hogy ezek csak demozni vannak.
Ekozben a CPU reszleg rekordokat dont price/perf-ban es eladasokban. Nemreg volt hir itt is, hogy $85-ert adjak az ujabb 1600-t 2600 magokkal.
-
Yutani
nagyúr
válasz
Petykemano #45134 üzenetére
Combined score +30% a 2060 javára nem jön ki a rész pontszámokból. Vagy nincs korreláció a megjelenített számok között.
-
And01
aktív tag
válasz
Petykemano #45134 üzenetére
Ez az erősebbik Renoir
Itt remélhetőleg nem lesz annyi driveres probléma mint a Navi-val (ez még vega gpu) -
Devid_81
félisten
válasz
Petykemano #45134 üzenetére
Az ott egy teljes erteku 2060 legalabbis orajeleket tekintve.
Akkor ez az 5600XT lesz ha 6GB, egesz jo lesz gamer laposnak ilyen teljesitmennyel -
Petykemano
veterán
-
Yutani
nagyúr
válasz
Petykemano #45131 üzenetére
Ez csak erősíti Abu magyarázatát. Mennyire valószínű, hogy hirtelen mindenki Win7-et kezdett el telepíteni?
-
Petykemano
veterán
válasz
solfilo #45127 üzenetére
A windows 7 rendszerek aránya is durván megnőtt hirtelen.
@Raymond
Szerintem se. A nem részletes grafikonokon látszanak a 2018 decemberi adatok is és akkor semmilyen ehhez hasonló kilengés nem volt látható. -
Abu85
HÁZIGAZDA
Régi probléma, hogy a Steam nem szűri ugyanazokat a gépeket, külön felhasználóval. Tehát ha egy gépbe mondjuk tíz felhasználó belép, akkor az a gép tízszer lesz regisztrálva. És ugye karácsonykor elképzelhető, hogy voltak összeröffenések, és a haverok elkezdtek belépni ugyanarra a gépre.
Igazából az egész rendszer, ahogy mér szimplán fos. Csak a Valve-ot nem különösebben érdekli, hogy ez működjön. Van az adat, beömlesztik, aztán kész. Túl drága lenne azt normálisan megszűrni.
-
válasz
Petykemano #45124 üzenetére
Valamit megint módosítottak a survey algoritmusán, mert hirtelen beszakadt egy hónap alatt az AMD GPU és CPU fronton is, ilyen mértékű súlyváltozás sok hónap eredménye szokott lenni.
GPU
Nvidia: 74,5 >> 80,5
AMD: 15,5 >> 11,9
Intel: 9,8 >> 7,5CPU
AMD: 20,5 >> 16,2
Intel: 79,5 >> 83,84 magos procik aránya is újra növekedésnek indult.
54,6 >> 54,8 >> 53,3 >> 52,0 >> 52,7 >> 51,3 >> 51,2 >> 51,2 >> 54,5 -
Cifu
félisten
válasz
Petykemano #45124 üzenetére
Én is 2070 Supert vettem. Utálom az nVidiát, de egy nagyságrenddel vállalhatóbb minden szempontból jelenleg, mint az RX5700XT (pedig abból is Nitro+ változatos gépet raktam össze karácsony előtt). Lehet, hogy az RX5700 széria egyszer beérik, de én már csak annak hiszek, ami van, nem abban, amit remélnek az emberek tőle...
Az árak terén pedig csak azért gáz a dolog, mert az AMD szépen fogta, és az árversenynek a lehetőségét sem akarja felvállalni. Most vagy az van, hogy márpedig azt mondják, hogy ha talpra áll a szoftveres téren a Navi, akkor az árakat alátámasztja majd a teljesítmény, vagy az, hogy tényleg ennyire drága gyártani (amit azért kétlek, mert a 'partners'-ek ugye 279$-t akartak az 5600XT-nek is, márpedig ők aligha adnák veszteséggel).
-
Cifu
félisten
válasz
Petykemano #45122 üzenetére
Akkor az 5700 ára nem fog lejjebb menni...
-
Petykemano
veterán
"Price being considered for the 5600XT is $279-$299. $299 seems likely :( - clocks around ~1300Mhz depending on the AIB model. It's a new tape-out of the 5700 die, different specs though."
(Via)Ennyikeh'...
BTW, új tape-out? Vajon mi célból? Ez már 7nm+? Vagy nem N7 HPC, hanem ULV? (Kisebb lesz a lapka?)Mi van a $300m-ba kerül egy új lapka tervezése sztorival?
"Heard pretty much the same thing 😐 Board partners want 279, but AMD says 299 USD. It's going to be a very hard sell with custom models touching 5700 pricing.."
(Videocardz) -
Z10N
veterán
válasz
Petykemano #45117 üzenetére
Ez elegge ellentmondasos. Az Asrock leak mar ugymond hivatalos, hiszen az egy aib-tol kerult ki, aki mar gyartja a kartyakat. Ugyanannyi CU-val ez elegge valoszinutlen, hogy ket kulonbozo lapka lenne.
Szerintem ez 5600/XT varians lesz es a modositasok miatt adtak neki egy uj design nevet. Az alacsony orajel is egybevag valamelyest. Lehet a ROP-okba is belevagtak a memoria vezerlo mellett. A GFX1011 kod sem ugrott csak egy picit. Lehet kap valami uj multimedia kepesseget (VCE).
-
AtomSiló
lelkes újonc
válasz
Petykemano #45116 üzenetére
Neked is Boldog Újévet manócska !
Ez az 1144 MHz biztos hogy nem 12nm Navi ?
590-et felváltani jó lenne. -
szmörlock007
aktív tag
"Itt a PH-n volt egy cikk nemreg, hogy meg tovabb dragulnak a memoriak miatt a dVGA-k (persze pont akkor, amikor a gddr6 kezd csokkeni). Szoval csinaljak csak."
Hát annyira nem féltem a gyártókat. Nvidia negyedévről negyedévre olyan profitokat hoz, hogy nem hinném bármit is éreznek ebből, amd meg előtte se hozott sokat
-
Petykemano
veterán
Hát mégis
Navi 12: 36CU -
Petykemano
veterán
2⃣ things that should be a story, but are tweet:
🔥 Big Navi is real, but not expected at CES
🔥 NVIDIA has a press call this week
Happy New Year🥳
(Via) -
Z10N
veterán
válasz
sutyi^ #45110 üzenetére
Az AMD szemszogebol es erdekeirol volt szo
"Ez mit is változtat az aktuális piaci viszonyokon és az átlag vásárlót hol érdekli?
"
Ezt nekik mondjad, de vigyazz, mert itt sokan nem birjak a kritikat."Ha van 320USD-ért RX 5700, akkor miért is vennél 2GB-al kevesebb VRAM-mal egy jól meggyeplőzött RX 5600 XT-t 5%-al alacsonyabb áron?
Nagyon max. 249-279USD ha legalább olyan gyors mint egy GTX 1660 Ti. Ha ennél drágább lesz, akkor ez is mehet a futottak még fiókba az RX 5500 XT mellé..."Igy van, de tovabbra sem ertem, hogy ezt miert pont nekem mondod. Tudod jol es hangoztattam is tobbszor - ami egyeseknek nem tetszik -, hogy mi a velemenyem errol. Amig a polaris a piacon van, mar pedig meg jo sokaig itt lesz, addig ertelmetlen ilyen arakon adni. Itt a PH-n volt egy cikk nemreg, hogy meg tovabb dragulnak a memoriak miatt a dVGA-k (persze pont akkor, amikor a gddr6 kezd csokkeni). Szoval csinaljak csak. Ekozben igy ev vegen van ahol a banyasz kartyakat 470/570 4G bulkban $50-ert dobaljak, ha legalabb 10 db-t veszel. Az most ~15k.
Ezt is mondtam korabban, de senki se hitte el, hogy ez vissza fog utni...
-
.Ishi.
aktív tag
Az utoirattal egyetertek, viszont az RX5500 ara nem azert magas, mert meg van egy rakat Polaris a raktarakban?
Valaki irta is nemreg, hogy a Vega 56-64-ekbol mar szinte kifogytak, igy elkepzelheto, hogy versenykepesebb aron johetnek az RX5600ak.
Az RX5500rol is jottek pletykak, hogy 229-249USD lesz, de megsem annyi lett. (Mas kerdes persze, hogy a mostani aron is AMD-fele "onkannibalizmus".)
Az en tippem tovabbra is az, hogy belovik a teljesitmenyt a 1660Ti-hez, ranyomjak ugyanazt az arat, es kalap-kabat.
Talalgatasokban gazdag uj evet mindenkinek!
-
Abu85
HÁZIGAZDA
Ezért működik csak texel shadinggel. De ott működik, és ez a lényeg. Viszont kell hozzá a módosítás a motorokba, illetve a Microsoft hoz könnyítést az API-ba is, hogy jobban lehessen implementálni.
(#45109) b. : Úgy lesz a fragment shader lépcső megoldva, mint egy sakktábla. A fekete táblák az egyiket, a fehérem a másik GPU-n futnak le. Ennyi. Régen ez azért működött jól, mert amikor ezt kitalálták még nem volt unified shader, és a GPU-kba eleve sokkal több pixel shader feldolgozó volt, tehát a geometriai munka pusztán kevesebb volt, mivel nem volt ezeknek elég erő. A mai GPU-knál ez nem igaz, mert az összes feldolgozó használható fragment shader előtti számításokra, vagyis egy-egy motor dizájnja lehet annyira megterhelő, hogy 20%-ot sem tudsz ettől gyorsulni, holott vettél még egy GPU-t. Előnyösebb szimplán meghívni a Microsoft WDDM-be épített AFR-jét, és az minimum 80%-ot ad, ha nincs sok interframe kommunikáció, miközben alapvetően pár sor az egész a programban. -
sutyi^
senior tag
"Azok akciosak."
Ez mit is változtat az aktuális piaci viszonyokon és az átlag vásárlót hol érdekli?Ha van 320USD-ért RX 5700, akkor miért is vennél 2GB-al kevesebb VRAM-mal egy jól meggyeplőzött RX 5600 XT-t 5%-al alacsonyabb áron?
Nagyon max. 249-279USD ha legalább olyan gyors mint egy GTX 1660 Ti. Ha ennél drágább lesz, akkor ez is mehet a futottak még fiókba az RX 5500 XT mellé...
-
b.
félisten
A fenti Nvidiás és a régebbi AMD SFR nek az előnye az hogy bármilyen GPU-t tud együtt dolgoztatni még ha szarul is skálázódik. A régebbi leképezővel egy Vega 56 és egy Vega 64 együtt hozta egy 2080 teljesítményét.
Ha jól értem halandó nyelven, minden GPU ra rátölti a teljes parancslistát és mindkét GPU ugyan azt a geometriát ás shading parancsot számolja akkor ezek szerint az SFR csak annyit csinál hogy a kirajzolásnál nem egy GPU hoz nyúl hozzá, hanem kettőhöz, AxA méretű mezőkre felosztva kb elfelezi a kirajzolásnál framet?
Ezért lehetséges a maximum 50-60 % skálázódás? -
A másik gond pedig az, hogy a geometriának és a shadingnek szinkronban kell lennie - ha egy GPU-nak odaadsz egy halmaz shading parancsot, akkor annál a GPU-nál rendelkezésre kell állnia a shading által érintett összes geometriának. Hasonló probléma, mint az SFR-nél, bár nyilván könnyebb megoldást találni rá.
-
Abu85
HÁZIGAZDA
Erről beszélek. Az a koncepciója, mint az AMD-nek a régi SFR supertillingjának. Ugyanazokkal a hátrányokkal, amelyek miatt az sem működik jól, és csupán +40-50%-os előnyt tud felmutatni egy extra GPU-val. Egyszerűen duplán számolja a geometriát, és minden jelenetszámítással kapcsolatos futószalaglépcsőt.
Ennél sokkal-sokkal jobb az, amin a Microsoft dolgozik, mivel azzal magát az árnyalást osztod szét több GPU-ra. Így nem csak a hatékonyságot maximalizálod, hanem gyakorlatilag annyi GPU-ig tudsz vele skálázódni, amennyi rajzolási parancsra csinálsz texelszintű árnyalást. Nyilván eddig senki sem fog elmenni, de 30-40 GPU-ig ezzel simán tudsz közel lineárisan skálázni (ami szintén egy extrém szám, de kelleni fog majd a chiplethez, hogy azok a dizájnok skálázódjanak). A gond vele az, hogy új leképezőket kell írni hozzá, mert a legtöbb motor leképezője fragment szinten árnyal.
-
paprobert
őstag
Szerintem a multi GPU még túl korai, és Wang pár hónapja erősen tagadta az ezt firtató kérdéseket. Illetve pont a jobb kihozatal előnye bukik egyetlen 500mm2 chip gyártásával a chipletekhez képest, tehát az megint csak fura lenne.
Ez szerintem az a nagy monolitikus Navi lesz, amit már annyi ideje vártunk. A leggyorsabb konzumer kártya lesz, alacsony(abb) órajelekkel, de brutál TDP-vel. A kérdés csak az, hogy hány hónapja marad a csúcson a 7nm-es NV széria előtt.
-
paprobert
őstag
válasz
Petykemano #45092 üzenetére
Az "almost exactly 2x the Navi" frázisból hogy lett hirtelen dual Navi GPU?
Ez csak a méretre vonatkozott, ami kb. kétszeres.
-
Abu85
HÁZIGAZDA
Nem az AFR a lényeg. Az egy technika, amit meg lehet valósítani egy csomó módon. A WDDM 2.0 AFR egy mód rá, amit az AMD dolgozott ki, és a Microsoft kiadott. És ez a mód nem vegyíthető. Itt konkrétan arról van szó, hogy a Microsoft a rutint megírta magába a WDDM 2-be, amit a fejlesztő pusztán meghívhat, így nem kell megírnia a saját DirectX 12-es vagy Vulkan játékába. Ennek az előnye, hogy egy sor, míg hátránya, hogy csak Windows 10 alatt működik, még akkor is, ha a játék Vulkan API-t használ.
SFR ezer éve létezett. Benne van még a driverekben a rutin, de csak tesztelési céllal. Az AMD driverében konkrétan engedélyezni kell hozzá a developer módot, másképp elérhetetlen. Különösebb haszna amúgy sincs, nem igazán működik a modern játékokban, mert duplán kell hozzá számolni a geometriát.
Az NV driverébe egy Checkboard Frame Rendering került be. Ehhez hasonló az AMD-nek az SFR supertillingja. Az is sakktáblaszerűen osztja fel a képet, de ugyanaz a hátránya, mint az SFR-nek. A geometria duplán terhel, és ez igaz a sugárkövetésre is, vagyis nem elég egyszer átmenni bejáráson, kétszer kell minden egyes frame-ben.
A több GPU-s problémákra egyébként ez lesz a megoldás: [link] - kap majd az API is módosítást, hogy ezt segítsék, viszont a probléma vele az, hogy az árnyalást a motorokban át kell írni az objektumtérbe, vagyis texel shading nélkül nem működik. -
Petykemano
veterán
válasz
Petykemano #45100 üzenetére
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: FOTC
Város: Budapest