Hirdetés
- Dedikált NPU-t tervezne az AMD?
- És akkor egy fejlesztőstúdió rájött, hogy vissza is élhetne a felskálázással
- Száguld a Meta és a Microsoft, 500 milliárd dollárral lőttek ki az AI-részvények
- Jól áll az ARM-os Windows helyzete, de a játékoknál nem jön az áttörés
- Kínai kézbe kerül a MediaMarkt áruházak tulajdonosa
Hirdetés
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz
szmörlock007 #43896 üzenetére
Bocs, de ez marketing. A TUL az RX5700 előtt csak az RX500 és RX400 szériát tudta árulni, hiszen dedikált AMD partner. Na most tavaly szerinted mennyire volt menő vásárolni az RX500-as szériából? Pont annyira...
Ezek után hozd ki az RX 5700-at, és voilá, az eladások felmentek 100%-al...
-
Pécsi gyerek
addikt
válasz
szmörlock007 #43896 üzenetére
Hurrá😐
-
szmörlock007
aktív tag
"AMD RX 5700 Series Selling Like Hot Cakes, AIB Sales Up 100%+"
[link] -
Petykemano
veterán
Érdekesség:
A GCN1-ben egy SE-ben két Shader Array volt
[link] -
Mumee
őstag
válasz
Pécsi gyerek #43891 üzenetére
Már egy Ashes leak van rx5500-ra és ott 11%-al erősebb, mint az rx580 kb.
Amúgy én továbbra is úgy tippelem, hogy $179 az rx5500 és $199 az rx5500xt . -
Pécsi gyerek
addikt
Olvasva a véleményeket még kíváncsib lettem.
Ha rx 580 szint drágábban azért mert új modern ropogós, akkor kenjék a hajukra.Csak a sebesség számít !!! Kicsit kevesebb fogyasztás nem kompenzálja a dolgokat.Ha drágábban adják mint most az rx-eket akkor az 70-75 kapásból,azért veszek 1660-t és van egy gyorsabb kártyám.Nem értem én ezt...
-
b.
félisten
Hát pedig a diagrammot maga az AMD adta ki. azt írja, hogy az 5500 az RX 480+ 12 % általánosan nézve, ez pedig kb az RX 580 nak felel meg.
Azt gondolom ennél a GPU nál is a Mobil verzió lényegesebb, mint az asztali. Biztos vagyok benne, hogy ezt több gyártó fogja választani olcsó gamer megoldásnak és így tudnak konkurenciát állítani az évek óta tartósan stabil piacot adó "olcsó" 1050 Ti és az 1650 laptopoknak.( ugye ott az 1650 erősebb, az RX 570 körül van)
valami olyasmi lehet mint a desktop 1650, hogy ha már van, akkor adjuk ki asztali verzióba is,de a fő cél szerintem inkább a laposok.
Ezért nincs megadva általános referencia sem és azért ilyen béna a start, ami ennek fényében szerintem érthető és nem tűnik annyira elcseszettnek. -
Mumee
őstag
válasz
Pécsi gyerek #43882 üzenetére
-
Nem is értem mi értelme van kiadni egy új kártyát amit elvileg FHD-ra
szánnak ha nem gyorsabb mint az elődje.Abu korábban azt írta, hogy az lesz az értelme, hogy a régi RX5x0 kártyák maradnak olcsó megoldásnak, az RX 5500 (5600?) meg kisebb fogyasztású és modernebb technológiát (új képességeket elhozó) opció lesz.
A saját feltevésem az, hogy feltehetően az AMD számára rendelkezésre álló (megrendelt / kifizetett) 7nm-es gyártókapacitás kevés, így inkább a Zen2-őket gyártják orrba-szájba, az RDNA szériás GPU-k meg alacsonyabb prioritást kapnak...
A játékok gépigénye is emelkedik és az 580 már most se mindenhol elég gyors!
Vehetsz RX 5700-at....
-
Pkc83
őstag
"RX 580 szint lesz szerintem teljesítményre."
Az elég gáz lesz ha attól legalább 15-20%-al nem lesz gyorsabb!
Nem is értem mi értelme van kiadni egy új kártyát amit elvileg FHD-ra
szánnak ha nem gyorsabb mint az elődje. A játékok gépigénye is
emelkedik és az 580 már most se mindenhol elég gyors! -
b.
félisten
válasz
Pécsi gyerek #43875 üzenetére
szerintem itt nem a zöldek a konkurencia, hanem az RX széria.Az 1650 egy mobil piacra célzott GPU elsősorban, továbbra is a leggyorsabb 75 wattos + tápcsati nélküli kártya fog maradni. Az Rx 480 hoz képest +12 % teljesítményt ad meg AMD, azaz a reális ára 130-150$ lenne az 5500 nak esetleg komolyabb modellek 180 $.Kb a mostani RX 580 szint lesz szerintem teljesítményre.
-
Televan74
nagyúr
válasz
Pécsi gyerek #43882 üzenetére
Radeonhoz szakértelem kell,a konkurenciával egy csimpánz is el tud játszani!
Lesz olyan amihez elég lesz a 6 pin,ezt a gyártók döntik el,nem hinném hogy minden modell extra oc -t kap.De többségében lesznek a 8 pin -es megoldások.
-
Pécsi gyerek
addikt
-
Mumee
őstag
válasz
Pécsi gyerek #43880 üzenetére
1 kattintás AutoUndervolt ott, ahol elég sokan állítják a fan curve-t.
Értem én, hogy az emberek 1 lattintásra is lusták, de azok meg akkor hangosabban használják meg nagyobb fogyival.
Amúgy valszeg az 5500XT miatt a 8pin, AMD mindig túltervezi a dolgait lásd referencia kártyák VRM-je és nem csinál nagyon külön nyákot.
5700on is 8+6pin ami 300W pcie-vel együtt, pedig gyárilag sosem fogyaszthat 150W-nál többet csak, ha a powerlimitet babrálod. -
Mumee
őstag
válasz
Pécsi gyerek #43877 üzenetére
A gyári fesz.-ek a gond.
Nálam alap nonXT 5700 gyári órajelek 1750/875 manuális fesz.-el 130W alatt marad.
Csak gyárilag 1V a fesz. manuálisan meg 0,9V.
1V-on már 1900-1950mhz-et tud a leggyengébb chip is. -
Petykemano
veterán
"Collaboration platform with 4 x compute nodes attached to 16 x Next Generation AMD GPUs"
Arcturus?
-
Pécsi gyerek
addikt
válasz
Petykemano #43876 üzenetére
Ettől a 8 pin től tartok.Nem tudnak 6 pines kártyát gyártani max 120 fogyival mint az Nvidia ?
A kettő dvi meg csodás... -
Petykemano
veterán
XFX RX 5500 (kép)
8pin
Kinézetre egész pofás.
De 2 DVI? -
.Ishi.
aktív tag
válasz
Pécsi gyerek #43873 üzenetére
Ki tudja, talán mindenki az RX5500 megjelenésére vár
A fenti, tweaktownos árak viszont elég meredekek. Nem hiszem, hogy ennyire olcsóak lesznek. A GTX 1650-es $149-ral indult, ennél jóval gyorsabb a sima 5500, tehát nem hiszem, hogy az AMD a zöldek alá vág majd.
-
Pécsi gyerek
addikt
Csak én érzem úgy hogy az Amd megölte a bulit
Nagy csend van a topikba. -
Pécsi gyerek
addikt
-
Abu85
HÁZIGAZDA
Mármint mi? Hogy virtuálisan 2 mm-rel arrébb lesz az árnyék, mint kellene? Nem hinném, hogy bárki észre fogja venni. Azoknál a játékoknál sem dől senki a kardjába, ahol a víz hullámzásának szimulációját egy távoli szerveren számolják. Sokan nem is tudnak róla, hogy több frame lemaradásban vannak a hullámok, így virtuálisan 2 mm-rel arrébb kerülnek leképezésre.
-
sutyi^
senior tag
Milyen framerate targetnél?
5 frame delay
30fps mellett 166ms...
60fps mellett 83ms...Ha a user / játékos közben folyamatosan változtatja a viewportot vagy magában a lekövetendő tartalomban történik valami gyors változás (robbanás, stb.), abból hogy lesz valami értékelhető eredmény? Mert lehet vissza se jön a felhőből a bounce infó, mire már rég máshogy állnak a dolgok viewportban vagy rosszul gondolom?
Ettől eltekintve ha game mode nélkül észreveszem az input lagot a TV és konzol között, akkor valószínűleg feltűnne az is hogy egy lépéssel le van maradva shadow map vagy a tükröződés...
-
Abu85
HÁZIGAZDA
Nem rossz. Sejtettem én, hogy sokra viszed.
Viszont egyrészt lesz lokálisan is RT, a cloud csak opció. Nem ugyanarra lesznek ugyanis jók. Másrészt ehhez még mindig semmi köze az Arcturusnak. Ezt a hardvert az AMD magának tervezte. Ettől persze, ha kéri a Sony és az MS, akkor bepakolhatják a szervereikbe, de a fő célja az AI training.
-
Jack@l
veterán
Akkor meg minek a konzol, elég egy kis arm-es médialejátszó is...
Valószínű lesz hardveres dxr támogatás, de kb fullhd-t(+felskálázás) tud csak 24-30 fps-el jobb esetben(lebutított effektekkel,). -
b.
félisten
válasz
sutyi^ #43861 üzenetére
arra gondoltam, hogy felhős szolgáltatáson át fogja csak támogatnide egyfajta cache rendszerrel ezt meg lehetne oldanim úgy gondlom. Volt annó szó arról is, hogy a játékok egy része lesz csak magán a gépen lokálisan.
nehéz elképzelni, hogy kétféle Raytracing lesz a piacon jövő decemberben számomra. Béta verzióban sem hozott semmiféle alternatív RT dx 12 támogatást Microsoft. egyenlőre még mindig csak az van amit az RTX kártyák is támogatnak és egy év múlva a boltok polcain lesznek az új konzolok, gondolom fél éven belül gyártják is őket már a hardver specifikációk véglegesek lehetnek.
Ahhoz, hogy ez működjön már most a Microsoftnak kint kellene( szerintem) hogy legyen valamiféle megoldása rá, mert az Xbox és a Windows 10 egy platform számára,de inside frissítéssel sem látszik semmiféle változás dx 12 alatt azaz ehhez a RT hez eza hardver kevés.
Azt meg nehezen tudom elképzelni, hogy csak Xboxra lesznek egy bizonyos típusú ( voxel)RT támogatású játékok és PC re meg egy másfajta RT támogatás lesz.
persze ha azt feltételezzük, hogy indulásra már ez lehetőség benne lesz, nem később fogják aktiválni. -
sutyi^
senior tag
-
b.
félisten
válasz
Petykemano #43858 üzenetére
vagy cloud RT lesz az új konzolokban .
-
Crytek
nagyúr
Első fecske
MSI’s Alpha 15: AMD Ryzen 3750H and Radeon RX 5500M
[link] -
Petykemano
veterán
válasz
awexco #43857 üzenetére
Infinity fabricja van, amin Szerintem 400GB/s minimum tud adatforgalmat bonyolítani 4 link esetén. (Valószínüleg az IF2 többet is)
Azt feltézelezném, hogy ha tényleg nincs PCIe vezérlő benne, akkor ebből így nem fog készülni olyan kártya, amit PCIE slotba lehet belehelyezni.
Illetve hát nem tudom, hogy meg tudják-e oldani, hogy pcie hardveren, csatlakozókon történjen az IF kommunikáció (eddig még sima ügy), de PCIE vezérlő nélkül.Azért is gondolom, hogy afféle co-processor lesz, vagy nevezzük gyorsítónak, mert a Frontierhez pont olyan ábra jelent meg, amin az epychez IF-en keresztül kapcsolódik 4 Intinct. Jó, az persze csak egy ábra, nem feltétlenül jelenti azt, hogy tényleg egy package-en lesz 1200W fogyasztás.
De az, hogy az xbox leakben is szerepel nekem tökre.azt sugallja, hogy nem csak intinct lesz, hanem afféle általános gyorsító: a konzolban azért volna hasznos mint afféle dedikált egység, ha a raytracinget ez végezné (FP16, rapid packed math, async compute, stb) , mert akkor a fejlesztőknek (és a játékosoknak) nem kellene szembenézni azzal, hogy teljesítményveszteség lép fel, ha raytracinget alkalmaznak - a grafikát biztosító gpun.
Persze egy ilyen dedikált egység még nem jelentené azt, hogy enélkül ne lenne futtatható, hiszen most is futtatható raytracig Vega56 vagy pascal kártyákon is.
Elképzelhetetlen, a chiplet korszakban, hogy úgy valósuljon meg AMD felsőkategóriás hardveren az RT, hogy két lapkát drótoznak össze interposeren egy Navit és egy arcturust és utóbbin csak raytracing fut (vagy bármi aszinkron compute)
Ha nem erre gondoltál, akkor szabad a gazda.
-
awexco
őstag
válasz
Petykemano #43854 üzenetére
Gondolkodj mije van az amd-nek ?
-
Abu85
HÁZIGAZDA
válasz
Petykemano #43854 üzenetére
Ezt hagyjuk ezt a co-processzoros dolgot. Az, hogy a CPU-n megéri, az rendben van, de egy GPU nem CPU, nem csak pár tucat folyamat fut rajta párhuzamosan, hanem pár tízezer, ráadásul nem szoftveres a szálkezelés, hanem hardveres, egészen mások így az igények.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #43850 üzenetére
Biztos nem. Az Arcturus ISA-ja GFX908. A konzoloké GFX10x.
Valószínűleg ez az Arcturus:
De az érintettek nem mondanak semmit. Viszont az AMD-nél nem tagadták, csak azt írták, hogy nem bejelentett termékről nem beszélhetnek.
De ez egyébként biztos nem grafikus vezérlő. Nincs benne kijelzőmotor, ez biztos, erre vonatkozóan nincs semmi a driver kódjában. A legújabb pletykák szerint a PCI Express vezérlő is hiányzik, de ebben kételkedem. Viszont kijelzőmotor nélkül úgy sem jó VGA-nak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #43843 üzenetére
Én azt nem tudom. Nem is biztos, hogy köze van hozzá.
-
válasz
Petykemano #43846 üzenetére
Page Not Found
-
Petykemano
veterán
-
.Ishi.
aktív tag
Uh, ne is mondd. Nekem ez a okt. 7-i "bejelentés" eléggé lagymatagra sikerült. Se TDP, se ár, a "gyártókra van bízva," nincs hír az XT variánsról - ez mindennek tűnik, csak sziklaszilárd stratégiának nem.
Ha már eltelt szinte három és fél év az RX480 óta, és volt egy 7nm-re való váltás, akkor egy RX590 +5% teljesítményű kártyára nem kéne elég lennie a 6 pinnek?
-
válasz
lezso6 #43839 üzenetére
A teljes gép fogyasztását ne nézzük már ilyen mutatókban
A TPU tesztben valamiért nagyon kitűnően fogyasztott a 7970, minden más oldalon sokkal többet evett.
Persze, nem azt írtam, hogy annyival lett jobb a Kepler, mint amennyivel a Cypress volt - de egy brutális hátrányból lett szemmel azért látható előny. -
Abu85
HÁZIGAZDA
válasz
Petykemano #43841 üzenetére
Egy fixfunkciós motor. Persze a jellege miatt nagyrészt egy speciális cache, de kap egy bemenetet és abból lesz egy kimenet. Minden fixfunkciós hardver ilyen, függetlenül a felépítésétől.
Ma még az iparág keresi az irányt. Ez nem baj, de egy-két éven belül úgyis lesz egy ultimate megoldás. Valószínűleg nem a mostaniak, de egy olyan, amire lesz a két elterjedt API-ban támogatás, és lesznek hozzá hardverek. Meg persze jó eséllyel azért a konzolokban található megoldásokhoz való igazodás is fontos. Azok pontos másolása talán nem, az inkább hátrányos lenne, hiszen figyelembe kell venni a fejleszthetőséget.
A coprocesszor nem igazán alkalmas RT-re. Ezt be kell építeni. Túl véletlenszerű az adatelérés, hogy egy külön lapka hatékony legyen. Esetleg egy koherenciamotorral, de azért a sugarakat nem könnyű ám csoportosítani, jó eséllyel ez egy nagy hardver lenne, és nem biztos, hogy ez most megéri, hiszen többet érne ebbe a tranyóbüdzsébe ALU-kat rakni.
-
Petykemano
veterán
Eddig azt mondtad, hogy az RT core nem kifejezetten core, nem számító egység, csupán egy speciális cache.
Vagy félreértettem?Tulajdonképpen néhány játék már hozott is olyan Raytracing implementációt, amihez nem volt szükséges az ún RT core, elfutott hagyományos CU(DA)-kon is.
Ha nem az(/egy) arcturus a RayTracing co-processsor, akkor az Mit keresett a kiszivárgott xbox képernyőn?
-
Abu85
HÁZIGAZDA
válasz
Petykemano #43838 üzenetére
Nincs különösebb összetevője. Azt kell megérteni, hogy van egy fixfunkciós hardver. Az kap bemenetet és ad kimenetet. De korlátozott a bementi adatokra a támogatása, tehát nem mindegy, hogy azt milyen formátumban adod oda neki. Mivel több formátum jön, így ezt a fixfunkciós hardvert annyiban kell módosítani, hogy elfogadja az új formátumokat is, és azokkal is tudjon dolgozni. A mostani hardverek erre nem lesznek képesek, mert a fixfunkciós blokk nem programozható, tehát nem tudod megetetni vele az új formátumokat. Lövése sincs arról, hogy mit csináljon vele, nem erre tervezték. De ettől maga az API működni fog, mert a Microsoft úgy építette fel, hogy a fixfunkciós blokk a hardveren belül rejtve legyen, vagyis annyi lesz a változás a mostani hardvereken, hogy a régi formátumú adatok mehetnek a fixfunkciós blokkra, míg az új formátum mellett a shaderek lesznek használva.
Ez igazából a kezdeni rendszerek problémái. Nincs letisztulva az egész, sok a fejlődési lehetőség, így eleinte venni kell a hardvereket. Lásd a shader modell korai szakaszát. Aztán a shader modell 3.0-nál letisztult az egész, mert kialakult egy optimális specifikáció.
-
Prohardveren (teljes rendszer fogyasztása terén) a 680 perf/watt 10%-kal volt jobb 7970-nél, a TPU teszt szerint (csak GPU-t mérve) csak 5%-kal. Mondjuk ez eléggé ellentmondó.
A 480 vs 5870 esetén az utóbbi 17%-kal jobb PH teszten, míg TPU-nál meg 60%-kal, ami azért bőven odabasz-kategória. Szóval fordult a dolog, de arányaiban nagyon más, csak erről van szó.
-
Z10N
veterán
Pedzegethetnenk az RX5500 8 pinjet es a 2300-s max orajelet. Milyen fesz kellhet neki? Remelem nem 1300mV. Illetve, hogy miert kapott egy also kategorias lapka 32 ROP-t.
Ha a gyartokon mulik akkor lesz visszafojtott 6 pines keves vrm-mel es agyon tuningolt is.
-
Abu85
HÁZIGAZDA
válasz
GeryFlash #43832 üzenetére
Azért ezek a gyártó tudják, hogy mik lesznek a változások, tehát természetesen a hardvereket tudják ahhoz igazítani. Az már kis túlzással mindegy, hogy ehhez a szoftveres szint mikor lesz végleges. Nem egy olyan funkció van ma is, amelyre a hardver sokkal hamarabb megvolt, és a funkció csak most jött vagy jön.
-
GeryFlash
veterán
Tehát akkor jó eséllyel az új Nvidia széria (Ampere?) se fogja tudni az új DXR-t? Vagy azért a partnerek közti tárgyalásokban addigra azért véglegesítve lesz? Csak mert ha jól értem, akkor előállhat az a dolog, hogy a 1. generációs NAVI (ideértve a jövő év elején érkező csúcs NAVI-t) se régi DXR-t se az újat nem fogja tudni, míg az Nvidia mindkettőt le fogja fedni 2 szériával.
-
Petykemano
veterán
válasz
Cathulhu #43825 üzenetére
"Ugyanakkor egyik piacon se volt ra igeny. "
Szerintem a Rome-nak épphogy az az egyik legnagyobb vonzereje, hogy ugyanakkora TDP-ben (ugyanannyi socketba) kétszer annyi magot, kétszer annyi teljesítményt tudnak belecsomagolni.A gamer piacon meg arra a termékpalettára lenne szükség, amit még AdoredTV mutogatott: hogy a 6 mag a belépőszint (<$200) és a 8 mag a mocskosul olcsó mainstream ($200-$250)
Hogy terjedjen a 8+ mag, hogy mihamarabb szükséges legyen a 8 mag a gamerek körében. Ámbátor a mindfactory számokból látható, hogy DIY piacon így is sikert arat. -
Abu85
HÁZIGAZDA
válasz
adamssss #43826 üzenetére
Ha lesz is, akkor sem lesz sebessége. A mai hardvereken ezt tényleg felejtsd el. Majd a következő DXR verziónál, amikor a vertex formátum már nem csak 32 bites lebegőpontos lehet, hanem snorm is, ami sokkal hatékonyabb, illetve nincs hardveresen kötve a bejárás. Viszont ezekhez új hardverek kellenek, amelyek még nincsenek piacon, majd valamikor jövő ilyenkorra, vagy talán jövő nyáron.
Ma alig látható dolgokért fizetsz iszonyatos sebességet, amit sok szoftveres és hardveres limit szűkít le. Emiatt van az, hogy nem igazán látsz gyakorlati különbséget például a BF5-ben: [link] vagy a ME-ben: [link]
De mondjuk, ha nem kellene erősen visszafogni a paraméterezést, mert lenne hozzá egy elég jó szoftveres és hardveres háttér, akkor viszont lényegi különbséget is lehetne mutatni, nem kellene hozzá állóképeket elemezni, hogy ezeket meglásd. -
De szeretem ezeket az Abu-s válaszokat mert ilyenkor legalább 3-szor el kell olvasnom a hszt, hogy tudjam, hogy mit kell megnéznem a google-ban, hogy utána még 3-szor elolvasva nagyjából felogjam, hogy a kérdésemre mi is a válasz.
Szóval ami nekem lejött, hogy a jelenlegi RDNA-s kártyákon Win10 alatt nem lesz RT, ergo ha ilyent veszek akkor a ray-tracinget felejtsem el.
-
Cathulhu
addikt
válasz
Petykemano #43817 üzenetére
"Ez Igaz, a 7nm az alacsonyabb fogyasztást tette lehetővé, ami pedig azt tette lehetővé, hogy ~kétszer annyi magot pakoljanak ugyanakkora TDP-be."
Ez szep es jo, de fokent igaz. Ugyanakkor egyik piacon se volt ra igeny. Intel jelenleg nem tud semmilyen konkurenciat allitani a Zen2-nek, gamer piacon semmi szukseg jelenleg 8 magnal tobbre, cserebe 2-300 MHz plussz egy 3800X-nel az verne minden intel konkurenst. HEDT-n es szerveren is eleg lenne a 32 mag egyelore, mivel szervereknel mar 1 szalon is veri az intelt, es az a 32 magosra se tud konkurenciat felmutatni. Egyedul mobilnal lenne ertelme a minel kisebb nodenak, de ott meg pont nem hasznalja ki az AMD. -
Abu85
HÁZIGAZDA
válasz
adamssss #43822 üzenetére
Drivert a mostani hardverekhez is lehet írni. Egyébként a 19.30-as batchben ott van a bejárási rutin, csak nincs bekötve a gyári implementációba. A Radeon drivereknek van egy úgynevezett developer módjuk, amikor bizonyos képességek előhozhatók, de ehhez egy külön fájl kell, ami ellenőrzi, hogy az adott gép regisztrált-e az AMD adatbázisában, és jogosult-e xy fícsőr használatára. Én is használom a gyári Radeon developer módját az RGP-re, de ott ugye nincs előfeltétel, azt bármelyik nem regisztrált gépre kilakatolja a devpanel fájl, hiszen csak egy háttérfolyamatot indít el, amivel összekapcsolja a drivert. Amikor ez a kapcsolat megszűnik, nem működik tovább a fícsőr, és újra normál módba kerül a cucc. A nem publikus funkciókat nem lehet így kilakatolni, oda hitelesítés kell.
De egyébként mindegy, hogy megkapja-e lassú lesz, illetve nem is így fog kinézni egyik konzolon sem a raytracing. A Sony konzolján például nagyon más lesz az egész grafikai futószalag. A PC-s verzió hasonlítani fog az új Xbox rendszeréhez, de azért lesznek eltérések. PC-n gondot jelent, hogy sok régi megkötéssel kompatibilisnek kell maradni. A konzolon ez nem gond, ott bátran nyomhatsz egy resetet, ha sebességben lényeges az előny. A Sony ezt csinálta a PS5-nél. Annak csak a legacy API-jaiban lesz elérhető a PC-hez hasonlító futószalag, az új API-ban nyoma sem lesz a vertex-geometry-domain shadereknek. Az új Xboxon lesz egy original futószalag és egy upgrade. Utóbbiból lesznek kivágva a legacy shader lépcsők.
Konzolhoz idomuló hardvert egyébként most nem kapsz. Az RDNA ugyan képes a motorháztető alatt átfordítani a vertex-geometry-domain shadereket az új pipeline-ra, de a jó ég tudja, hogy miben egyezik meg a Microsoft a gyártókkal, és lehet, hogy a valódi pipeline változást már nem fogja támogatni. Viszont PC-n ennek a valódi pipeline változásnak meg értelme nincs, mert motoronként 200-300 ezer sornyi kódot kellene átírni, hogy kompatibilis legyen, és a kompatibilitás azt is jelenti, hogy a régi hardverekkel az új kódok meg nem lesznek kompatibilisek, tehát meg kell őrizni a régi kódokat is.
Nem egy fejlesztőcsalogató változás ez így.
-
Mumee
őstag
Biztos vagyok benne, hogy nem fogják, de ettől függetlenül ez legalább nem a Navi architektúra hibája, csak nem optimális órajel/feszültség -en adták ki, gondolom megint azért hogy 2060-2070-nél biztosan gyorsabb legyen a két 5700 és minél kevesebb selejtel.
Érdekesség képpen :
1,3V-on Hwinfo 300W, Igor-nál [1,25V] normális méréssel 250W volt, így nagyjából reális a 300W, még ha nem is teljesen pontos, hisz víz alatt volt mind2.
A 30k graphics pont pedig 2080 Super szint, ami 350W gyárilag Furmark alatt. [link]Persze itt optimalizálva van már az 5700 és víz alatt, léggel lenne ez is 350-380W.
A lényeg, hogy felfelé is korrektül skálázódik a Navi, arányosan a feszültséggel és hűtéssel és nincs elborulva az Nvidia-tól teljesítmény/fogyasztásban csak optimalizálatlanul van gyárilag és 7nm. -
Sziasztok!
Lehet, hogy hülye kérdés de.
A next gen konzolok mindkét gyártó szerint támogatni fogják a ray tracing-et és az AMD RDNA-ra fonak építeni. Na már most ha ez így van akkor elképzelhető-e, hogy a pc-s RDNA-s radeonok RT támogatást kapnak majd valamikor a jövőben mondjuk egy driver + OS frissítéssel?
Vagy a konzolokba szánt verzió pont abban fog különbözni a jelenlegi RDNA-tól, hogy azokban van külön egység amit az RT-ért felel?(Már rég voltam a vörös oldalon és az 5700 vonz. Egy GTX1070-et váltana)
-
Abu85
HÁZIGAZDA
Ezeket az architektúrákat évekre tervezik. Legalább 5-6 évre. Tehát ha most tervezel valamit, akkor az az optimális, ha a wave programozásra tervezed, hiszen ma már ott van a subgroup, illetve a wave intrinsics a Vulkan és DirectX 12 API-kban. 2010 környékén, amikor az RDNA-n kívüli architektúrák alapjai megszülettek, még nem volt meg ez a wave programozásra vonatkozó lehetőség az API-kban, így felesleges volt így tervezni a hardvereket. Viszont elég jelentős maga az előrelépés programozási szempontból. Itt a shader modell 6-ra a Microsoft leírása:
"Up until now, the HLSL programming model has exposed only a single thread of execution. As of v6.0, new wave-level operations are provided to explicitly take advantage of the fact that on current GPUs, many threads can be executing in lockstep on the same core simultaneously. For example, these intrinsics enable the elimination of barrier constructs when the scope of synchronization is within the width of the SIMD processor. These can also work in the case of some other grouping of threads that are known to be atomic relative to each other.
Potential use cases include performance improvements to: stream compaction, reductions, block transpose, bitonic sort or FFT, binning, stream de-duplication, etc."És ugye ez folyamatosan egészül ki, az SM6 például nemrég a variálható wave-hosszal, amit szintén támogat az RDNA, de csak ez a dizájn, az öregebbek nem, mivel azok alapjai 2010 környékiek, és komolyabb áttervezés a wave execution résznél egyiknél sem volt. Viszont ezek a képességek komplexebbé teszik a hardvert.
A Vulkan nem azért gyorsabb az AMD-n, mert a hardver jobb. De tényleg. Több szempontból a Vulkan hardverre vonatkozó igényei finomabbak a DirectX 12-höz képest. Persze ettől egy picit bonyolultabb a memóriamenedzsment, de alapvetően a két API ugyanúgy működik, tehát az a pár extra probléma nem túl lényeges, amire a Vulkan esetében még figyelni kell. Valószínűleg hosszabb lesz a leképező kódja Vulkánban, de a menedzsmentje rendkívül hasonló. Az ok, amiért a Vulkan játékok az első pár hónapban jobbak, hogy amíg a DirectX 12-re a Microsoftnak ott a PIX, és az tényleg egy bitang jó fejlesztőeszköz, széles hardvertámogatással, addig a Khronos a validációs rétegén kívül nem kínál sokkal többet. Az egyetlen igazán jó fejlesztőeszköz a Renderdoc+RGP, de ennek a PIX-szel szemben az a hátránya, hogy kizárólag Radeonokon működő kombináció. Tehát a fejlesztésnél a DirectX 12-re tudsz minden gyártónál ellenőrizni, de a Vulkan esetében a Renderdoc+RGP Radeonra korlátozza az egész munkát, és majd a végén érdemes az NV és az Intel hardvereihez igazítani. Na most utóbbi esetében az szokott lenni, hogy a felsőbb vezetés már sikít, hogy meg kéne jelenni, szóval valamennyire összecsapják a kódot, hogy legalább működjön, de jellemzően a sebesség az NV és az Intel hardvereken, 2-3 hónap múlva érkezik meg, amikor az NV és az Intel tud javasolni annyi változást a kódba, hogy a kiadáskori rossz hatásfokra vonatkozó hátrányt le tudják küzdeni. Viszont önmagában a hardver maga jó az NV és az Intel oldalán is, hiszen láthatod a World War Z-t, hogy kiadáskor köhögött mindkettőn, de 3 hónap múlva kapott egy patch-et, és sokkal jobban megy. A No Mans Sky esetében is ez van. Köhög nagyon NV-n és Intelen, de ugyanazért, amiért a World War Z köhögött. Nincs normális fejlesztőeszköz ezekre a hardverekre, így amikor bizonyos döntéseket kell hozni a kód szempontjából, akkor az történik, hogy a Radeonoknak optimális döntéseket hoznak, mert arra tudnak mérni. A többi hardvernél feltételezik, hogy ugyanúgy működik, de közben nem ugyanúgy megy, csak nincs semmi a fejlesztők kezében, hogy ezt meg tudják cáfolni. Szóval menni kell a hardver gyártójához, és kérdezni, hogy ezzel a kódrésszel mi legyen, jó-e, stb. A gyártó meg tudja mondani, csak jellemzően ezt már a kiadás után teszi meg, és kell 2-3 hónap, hogy az erre vonatkozó programkódbeli hátrányokat leküzdjék. Szóval ez a Vulkan esetében a probléma, és nem az AMD hardvere a jobb az API-hoz.
Nyilván egyébként a fentiek azt is eredményezték, hogy a Vulkanra portolók csak Radeont használnak, mert PIX-szintű fejlesztőeszköz nélkül a többi hardver szart sem ér a fejlesztés szempontjából. Nagyon ritka az, amikor egy stúdiónak van saját fejlesztőeszköze, például az id-nek, de ez sok stúdiónak nem éri meg, mert a Renderdoc működik, interoperabilitást ad az RGP-vel, minek ölnének egy rakás pénzt és erőforrást egy saját megoldásra? Olcsóbb Radeonra cserélni a gépparkot. Ezt csinálta az Epic is, pedig nekik lennének erőforrásaik saját eszközökre.
Ebből a szempontból egyébként a DirectX 12 sokkal jobb. A Microsoft nagyon jól felismerte, hogy a PIX egy kritikus komponens, és nagyon lényeges, hogy mindegyik gyártót maximálisan támogassák, amibe komoly erőforrást ölnek. A Renderdoc mögött viszont nincs egy mamutcég a kifogyhatatlan pénztárcájával. Sokkal limitáltabbak a lehetőségeik.
-
Mumee
őstag
Ez csak azért tűnik így, mert (gondolom) a rossz kihozatal miatt közel sem optimális keretek között lett kiadva a kártya.
1,2V GPU, 1,2V SoC , de még sima nonXT 5700-nál is közel 1V GPU, 1,2V SoC.
XT esetén a gyári órajelet a kártyák 95%+ bírja 1,1V körül, 1V pedig 1900-1950mhz-hez kell nem 1750mhz.
SoC pedig AIB-ok is mind 1,05V-on jöttek.
Ezzel a 2 fesz-el pedig undorító módon együtt mozog a fogyasztás.
Az a 0,1V a GPU-n kb. 50W és a SoC-on a 0,15V is kb. 10W.1,1V GPU körül kéri be a 200W-ot, ami az alapórajelhez elég.
A sima 5700 normális fesz-el 150W-ból megvan peak-el együtt, alapórajelen. -
Petykemano
veterán
válasz
Cathulhu #43814 üzenetére
"Zen2 ereje se a 7 nanoban van, ugyanezt az IPC ugrást 12 nanon is sikerült volna"
Ez Igaz, a 7nm az alacsonyabb fogyasztást tette lehetővé, ami pedig azt tette lehetővé, hogy ~kétszer annyi magot pakoljanak ugyanakkora TDP-be.
Ha ugyanezeket a változtatásokat 12nm-en hajtották volna végre, akkor abból minimum fogyasztáscsökkenés nem lett volna, de a duplázott L3$ miatt talán még nőtt is volna valamicskét.
Akkor is az látszik, hogy több előnnyel vagy komforttal jár - a végtermék működése szempontjából - átmenni a sűrűbb és alacsonyabb fogysztású nodera, mint azonos nodeon optimalizálni.
Nem állítom, hogy a 7nm lehetőségei maradéktalanul kiaknázottak, csak azt, hogy szerintem nagy a nyomás
Ugye vannak tradeoffok, ha a lapka új nodeon van, akkor kicsi és "olcsó", keveset fogyaszt. Feltekerheted a fríkvenciát, akkor bukod a fogyasztást, vagy ha ügyes vagy, feltekerheted a tranzisztorszámot a több telhesítményért, Amivel fogyasztást nyerhetsz, de elengeded a lapka méretét és árát (Apple, nvidia)
Az Apple és az arm minduntalan 30%-os IPC növekedést hoz. Persze a bejelentés mindig 1 évvel hamarabbi, mint a piacra kerülés. Ezt úgy érik el, hogy mindig a legfrissebb nodeon készül.
Ha ezzel lépést akarnak tartani, akkor vagy friss node kell, vagy a lapkaméret nő, ha bénák, akkor a fogyasztás is. -
A vásárlókat nem az érdekli, hogy milyen technikai húzást mutat be az AMD, hanem azt, hogy adott pénzért milyen FPS-t kap. Természetesen némi túlzásba estem, mert ár/értékben többé-kevésbé egy szinten vannak a pirosak és a zöldek, mivel ha nagyon kilógna valamelyik, akkor azt értelemszerűen nem lehetne eladni.
Megértettem elsőre is a wave programozási módszer előnyeit, de majd akkor hiszem el, hogy emiatt lesz majd egyszer ütős az RDNA, ha gyakorlati szinten is bizonyítja életképességét. Jó ideje ha az AMD előjött valami látványosnak ígért csodával, kiderült, hogy a nagy betűs életben kevés hasznát látjuk. A Mantle/Vulkan lehet talán az egyetlen kivétel, de aligha nevezhetjük elterjedt megoldásnak. A fejlesztők pedig nagy részt élnek az nVidia támogatásával, ha rendelkezésre áll (és az nVidia ilyen téren rendelkezésre áll), így a játékokban azt látjuk, hogy az nVidia kártyái jól szerepelnek...
-
válasz
lezso6 #43813 üzenetére
Nem volt nagy különbség, de határozottan volt, és a Kepler javára - a 680 az indulásakor rendelkezett 5-6% előnnyel, és 10%-kal kevesebbet fogyasztott. Vesd össze ezt az 5870 VS GTX 480 szituációval...
Az ollót én úgy nézem, hogy azonos processzen hasonló chipméret mellett hogy viszonyul a perf / watt. Ehhez persze még kell a 7nm-es NVIDIA, de őszintén szólva annyira underwhelming a Navi ezen a téren, hogy meg merem előlegezni, hogy tovább nyílik. -
Cathulhu
addikt
válasz
Petykemano #43805 üzenetére
Szerintem bőszen van még a Zen architektúrában annyi suboptimális megoldás, hogy azonos tranzisztor büdzséből jelentős IPC ugrást lehessen elérni. Zen2 ereje se a 7 nanoban van, ugyanezt az IPC ugrást 12 nanon is sikerült volna, és ehez olyan nagyon komolyan hozzá se kellett nyúlni a Zenhez. Ráadásul egy kiforrott gyártósorról lepotyogó 4.7 all core, 5 GHz turbo chipek önmagukban is elég éves ugrást hoznának.
Vega detto, ott az alap architektúra gyenge, a Navi alapok valamivel időt állóbbnak tűnnek, de az is gyenge elsőre, reszelgetésben is sok van még ott
-
A Kepler ugyan tényleg sokat hozott, de inkább úgy fogalmaznék, hogy utolérte a GCN-t (GK104 vs Tahiti), nagy különbség nem volt. A Maxwell csinált csodát. Ez az amit csak a Polaris-szal tudtak hozni. Most meg a Navival hozzák a Pascal / Turing szintjét. Maga az olló nem nyílik, habár komoly lemaradásban vannak, ez tény.
-
A Keplerrel az NVIDIA megfordította a teljesítmény / fogyasztás szituációt, és azóta minden generációval nyílik az olló a párhuzamos architektúrák között. Ez mostanra akkorára nyílt, hogy a gyártástechnológiból fakadó előny éppencsak kompenzálja.
Ráadás, hogy úgy tűnik, a nem agyonhajszolt Navi chipek kb. úgy fogyasztanak hasonló chipméret mellett, mint az agyonhajszolt Polaris... -
Jack@l
veterán
Nagyon nem töri össze magát az amd a fejlesztéssel, 2020 decemberig ellébecolnak kis kártyákkal:
https://www.vice.com/en_us/article/a3544z/the-playstation-5-will-launch-in-time-for-the-2020-holidays -
Abu85
HÁZIGAZDA
válasz
Petykemano #43806 üzenetére
Az Apple és a Huawei legújabb chipje készül EUV-s 7 nm-en. Minden más még a nem EUV-s verzión készül. Nem biztos, hogy mindenkinek megéri váltani, vagy ugyanabban az időben lépni.
Egyébként ez a két node külön üzemekben van, tehát egymástól nem veszik el a kapacitást.(#43808) Cifu: Mert a gyártástechnológia ugyanolyan lapka mellett tud javítani, de ha kigyúrod a 7 nm-en a dizájnt sokkal modernebbre, például ahogy a Navit kigyúrták IPC/munkaelemre, akkor annak hátrányai is vannak, hiszen például négyszer gyorsabb lett az egy lane-re levetített teljesítmény. És ez bizony fogyasztásba kerül, mert az ehhez szükséges áramköröket be kell építeni. Ugyanígy, ha az NV-nek is jön ez a váltás, mert wave programozással megéri váltani, akkor természetesen ez hátrányos a fogyasztásra nézve, viszont sokkal előnyös lesz az egy lane-re levetített teljesítményt tekintve.
Hasonló tényező ez a Pollack-szabályhoz, és valamilyen mértékben ez érvényesül is a GPU-knál, még akkor is, ha a CPU-kra találta ki. Viszont eddig minden GPU-t throughputra terveztek, mert a shader nyelv nem tette lehetővé a lane-ekre vonatkozó párhuzamosítást, de az új shader nyelvek lehetővé teszik, így viszont megnőtt arra az igény, hogy egy munkaelemre levetítve is legyen nagyobb az IPC. Viszont, ahogy a CPU-knál is a nagyobb magonkénti IPC fogyasztáshátránnyal jár, így ez is ugyanilyen gondot jelent a GPU-knál. Viszont cserébe, amíg a CPU-knál a magas szálankénti IPC előnyt is jelent, úgy ugyanez igaz a GPU-kra is, ha kapnak egy divergens kódot, és ott már szétalázható minden throughputra optimalizált dizájnt, mert egy munkaelemre levetítve négyszer nagyobb a teljesítmény.
A pipe-cleaner akkor segít, ha a tranzisztorstruktúra a végét járja. Megfigyelhető volt, hogy 28 nm-en jött pipe cleaner, mert akkor a bulk struktúra kezdett kifulladni, és úgy előny volt hozni egy korai 28 nm-es lapkát. Viszont 10-20 nm között ez értelmetlen volt, mert a FinFET ereje teljében volt. 7 nm-en azonban kezdenek már mutatkozni a FinFET limitjei, így a pipe-cleaner újra jó ötletté vált a tapasztalatszerzés érdekében. Majd amikor megyünk a GAAFET-re, akkor megint nem lesz, mert új a tranzisztorstruktúra, és sok dolog just works jellegű lesz újra.
(#43809) b. : A TSMC-nek óriási előnye a tapasztalat, mert rengetegen ott gyártatnak. A papír valóban sok dolgot elbír, de végeredményben a cégeknek is az számít, hogy a gyakorlatban mit kapnak a gyártópartnerüktől, és nem véletlen, hogy a TSMC-hez akarnak menni.
Nézd a bérgyártónak van egy terve arra, hogy mennyi kapacitása lesz, és a partnerei leadnak nekik bizonyos igényeket, amelyeket ugye összevetnek a terveikkel, és mondják, hogy jó-e vagy sem. Tavasszal még elképzelhető volt, hogy más igényekkel számoltak a partnereik is, de nekik is változik a piac, többet kell rendelni ebből-abból, és akkor rögtön borul minden. Ez van. Akik most partnerek, azoknak ez nem akkora gond, mert tudják, hogy milyen kihozatallal tudnak gyártani, tehát leadják jó előre a rendeléseket, mert pontosan ki tudják számolni, hogy milyen igényekhez, mekkora rendelési tétel kell. Azoknak baj most a TSMC-nek ez a korai rendelésre vonatkozó szabálya, akik még nem gyártanak ott, mert nem tudják ezt elég pontosan kiszámolni a kihozatalra vonatkozó számok hiányában. Ha meg sokat rendelnek, akkor baj lesz a raktáraránnyal. Az tehát igaz, hogy a TSMC ezzel az új partnerek dolgát alaposan megnehezítette, de a maguk részéről ez az igény számukra kedvező. Ez jelzi, hogy megéri új gyárakat építeni, amelyek épülnek is, és ezzel meglesz a tőke a további gyártástechnológiai lépcsőkre is.
-
b.
félisten
persze ezzel tisztában voltam, hogy nem így működik.
"Akiknek pedig nem jut hely, azok jó eséllyel inkább a Samsungot választják. Nem a legjobb, de szódával elmegy, mármint az élvonalbeli node-okat tekintve."
hát pedig sok szempontból előrébb tart mint a TSMC 7 nm a másik meg hogy úgy néz ki nem a csíkszél a kulcs egy architektúra minőségére.
Mondjuk 1 éven belül is annyi forgatókönyv volt.. tavasszal TSMC azt nyilatkozta mégis van bőven kapacitás nem lesz gond. Most meg ezt hogy gáz van nincs kapacitás. -
válasz
Cathulhu #43804 üzenetére
Pont ez a bajom amúgy, hogy az AMD a 7nm-en sem tud látványos előnyt bemutatni az nVidia féle 12nm-el szemben. Most vagy az nVidia talált el nagyon valamit (nem lenne csoda, sokszoros R&D pénzzel), vagy az AMD szúrt el nagyon valamit. Esetleg mindkettő.
Abu azt mondja, hogy a Radeon VII meg a Zen2 hatalmas előny a 7nm-es gyártástechnológia miatt, mert sok tapasztalathoz jutottak hozzá. Ez lehet, hogy így van, de az RX 5700 mégse alázza le a 12nm-es Turingot teljesítmény/fogyasztás terén. Még akkor sem, ha tényleg tudnak mondjuk 10%-ot gyorsulni, ha kiforrnak driverek. Ez alapján az RDNA vagy valami meg nem értett zseni, ami majd egyszer ( ki tudja mikor... ) hirtelen berobban, és hülyére ver mindenkit a piacon, vagy az AMD tévútra futott vele...
-
Petykemano
veterán
Added AMD Radeon RX 5500.
Added preliminary support of AMD Arcturus.
HWInfo Upcoming changes -
Petykemano
veterán
válasz
Cathulhu #43804 üzenetére
"A TSMC-nel csak addig kell kibirni, amig a nagyhalak kisebb node-okra nem ugranak es maradni kicsit a 7esen, szep lassan emelgetve az orajeleket, ahogy javul a minoseg"
Az a baj, hogy úgy tűnik, hogy míg eddig a nodeváltással az volt a cél, hogy nagyobb órajeleket érjenek el, úgy tűnik, hogy most át/vissza fognak állni arra, hogy a tranzisztorokat IPC növekedésre vagy más okosításra költsék. Erre utal Jim Keller Willow Cove-ra tett utalása, amely szerint az jóval nagyobb lesz, mint elődje (Sunny Cove)
Azt, hogy nagyobb legyen nyilvánvalóan a nagyobb sűrűség és az alacsonyabb fogyasztás teszi lehetővé. Ha ez nincs, akkor úgy tűnik, semmi sincs. Mármint persze 2-300Mhz-et lehet reszelni, mint a 12nm esetén is tették, de mondjuk ez elég távol van attól, hogy duplázzák a tranzisztorszámot, növelik az IPC-t 20%-kal és még így is nevetve jobb fogyasztást produkálnak. (lásd: zen2 vs zen, sunny cove vs skylake - utóbbinál a csökkenő frekvenciától tekintsünk el)
Tegyükhozzá: azonos node-on valami jobbat alkotni sajnos nem az AMD területe
-
Cathulhu
addikt
Nem birna azt az AMD finanszirozni, igy is allandoan a nyeresegesseg hataran egyensulyoznak. Az egyik legjobb dontes volt megszabadulni toluk. A TSMC-nel csak addig kell kibirni, amig a nagyhalak kisebb node-okra nem ugranak es maradni kicsit a 7esen, szep lassan emelgetve az orajeleket, ahogy javul a minoseg. Ezen az EUV is segiteni fog, raadasul azon mar Q4-ben indul a tomeggyartas. En ezt a strategiat valasztanam, sot szerintem most is boven eleg lett volna a tavalyi 10-es, nem kellett volna rogton a state-of-the art. Intelt igy is bucira verik fogyasztasban, nVidiahoz meg a 7 is keves. Bar lehet igy konnyebb lesz a Zen3-at illetve a tobbi RDNA-as Radeont 7+ EUV-ra vinni.
-
Abu85
HÁZIGAZDA
Már nem. Ez nem olyan, hogy csak befejezed és kész. A GloFo annyit tehetne, amit a 14 nm-nél, hogy licenceli a Samsungtól. Mivel a Common Platformnak még mindig a része a két cég, így ez egyébként lehetséges lenne, de még így sem biztos, hogy az AMD-t érdekelné, és ha az AMD-t nem érdekli, akkor nincs értelme licencelni sem a GloFo-nak.
Ugye a GloFo alapvetően nem azért állíthatta le a 7 nm-t, mert nem működik az, amit az IBM-től megszereztek. Inkább az lehetett az indok, hogy az AMD megmondta nekik, hogy a 7 nm-nél tipliznek a TSMC-hez. Így meg a GloFo számára nem volt túl nagy értelme befejezni a 7 nm-jüket. Ez nem pénzkérdés, az ATIC tele van lóvéval, hiszen ott van mögötte az arab olajpénz. De ha az AMD-t nem érdekli a GloFo 7 nm-es node-ja, akkor nincs értelme kifejleszteni. Ugye alapvetően kinek kellene? Mindenki a TSMC-hez akar menni, mert messze ők a legjobbak. Akiknek pedig nem jut hely, azok jó eséllyel inkább a Samsungot választják. Nem a legjobb, de szódával elmegy, mármint az élvonalbeli node-okat tekintve. A GloFo nem nagyon tud ám ajánlani semmit, ami nincs a Samsungnál, a TSMC-vel pedig ugyanúgy versenyképtelenek. A specializált gyártástechnológia más kérdést, ott a GloFo lehet alternatíva, de leginkább azért, mert a Samsungot és a TSMC-t annyira nem érdeklik ezek a niche piacok.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- HPE Apollo 4200 Gen9 2U rack szerver, 1x E5-2620v4, 64GB RAM, 24x3.5" 2U-ban! ÁFA-s számla, garancia
- Microsoft Surface Pro 6 i5-8350U 8GB 256GB 1 év garancia
- Gamer PC-Számítógép! Csere-Beszámítás! I7 6700 / Rog RX580 8GB / 32GB DDR4 / 500GB SSD
- REFURBISHED - HP USB-C Universal Dock G1 docking station (DisplayLink)
- Huawei P30 Lite 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: FOTC
Város: Budapest