- Kábeleket és csövezést rejtő "kirakatház" a GameMax logójával
- Felvarrták az Arctic rackmount rendszerekhez szánt CPU-hűtőjének ráncait
- Háromféle kivitelben, és nem kis kapacitásokkal jönnek a Micron 6550 ION SSD-i
- Már a Samsung sem szolgálja ki modern AI lapkákkal Kínát
- Havazáshoz igazított kiadás kap a Steam Deck OLED
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
#45997568
törölt tag
válasz Petykemano #38200 üzenetére
Az a "megnagyobb" jol hangzik
Kivancsi leszek mit hoz AMD iden, a CPU fronton jol alakulnak a dolgok, egy remek GPU csaladdal teljes lehet az orom
-
Petykemano
veterán
"AMD knows full well what nVidia did for efficiency while gaming - it's not really a secret... they compromised compute performance and focused on graphics performance.
AMD did the opposite - they compromised graphics performance and focused on compute performance. This has been a losing strategy, frankly, even though it is the only reason I have a Vega 64.
Back in the day AMD used a VLIW design - this allowed instructions to be grouped together by the driver and then sent to the GPU. This is better for gaming as graphics workloads are very predictable. However, compute workloads are more challenging to optimize this way - you might give up 50%+ of your compute performance with this design if you can't fill the instruction queue(s) separately.
AMD's next architecture is believed to be a VLIW2 design - two instructions are grouped together. This is half the VLIW width as before (VLIW4) which was already a reduction from their older VLIW5 designs."
(looncraz)VLIW2
máshonnét:
"A super single instruction, multiple data (SIMD) computing structure and a method of executing instructions in the super-SIMD is disclosed. The super-SIMD structure is capable of executing more than one instruction from a single or multiple thread and includes a plurality of vector general purpose registers (VGPRs), a first arithmetic logic unit (ALU), the first ALU coupled to the plurality of VGPRs, a second ALU, the second ALU coupled to the plurality of VGPRs, and a destination cache (Do$) that is coupled via bypass and forwarding logic to the first ALU, the second ALU and receiving an output of the first ALU and the second ALU. The Do$ holds multiple instructions results to extend an operand by-pass network to save read and write transactions power. A compute unit (CU) and a small CU including a plurality of super-SIMDs are also disclosed."Ezt is VLIW2-nek becézték.
Találgatunk, aztán majd úgyis kiderül..
-
HSM
félisten
válasz Petykemano #38202 üzenetére
Az Nv sebességének másik kulcsa szvsz az erős, memória kímélő raszterizációs megoldás. Valamint Dx11 alatt amit kidolgoztak többszálú szoftveres okosság, amivel jóval több rajzolási parancsot tudtak kiszolgálni, mint az AMD hardveres ütemezője.
-
Petykemano
veterán
Ha a mester idézhet apisaktól, Kicsit kavarjuk a trutymót:
Azt beszélik, Apple-nek készül.
Persze nem tudni, hogy vajon ez most egy 12nm-es átdesignolt, vagy egy 14nm-es szupervágott (megmentett) verzió. Az apple-lel nem szoktak tréfálni, mindig megkapja a jókat.
Vagy ez része lenne annak a vega II csomagnak, amit AdoredTV szerint a kiváló 7nm-es szilikon eredmények miatt navi előrehozásával kukáztak?Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
A Vega raszterizációs megoldása már draw streamet is támogat, míg az NV-é csak szimpla binning. Szóval ebből a szempontból az AMD már lelépte őket. Mondjuk a draw stream esetében nem biztos, hogy érdemes beépíteni. Elég bonyolult hardvert igényel, és relatíve keveset hoz, ha a program nem fut overdraw limitbe.
(#38189) Petykemano: Nem. Ez egyáltalán nem eleme a technológiának. Azért működik így, mert az NV egy dll-t ad a fejlesztőnek, vagyis nem engedik meg a program oldaláról a paraméterezést módosítani. Például a Microsoft ugyanilyen megoldása, ami tavasszal jön, már kontrollálható. A felhasználó bekapcsolhatja csak úgy natív felbontásra, de akár skálázhatja is a felbontást százalékos léptékekben, ahogy tetszik az eredmény. És felfelé is lehet majd skálázni, tehát simán kérhetsz 200%-os minőséget, plusz még hozzá ilyen NNAA-t.
Egyáltalán nem így működik a ray-tracing. Az AI nem tudja helyettesíteni a sugarakat. Maximum a denoisingra lehet valamit írni rá, de elég csúnyácskák még az eredmények. Az a baj a gépi tanulással is, hogy veszettül érzékeny a memória-sávszélességre.
(#38200) Petykemano: Csak az a gond, hogy a PC-ből indulunk ki, miközben azért a PS4 Pro is kapott olyan eljárásokat, amelyeket a PC is meg tud csinálni, csak egymilliószor lassabban. Ilyen például a superstencil. Meg kellene tanulni végre, hogy a konzol az egy fix hardver. Arra lehet építeni olyan rendszerspecifikus megoldásokat, amelyeket aztán a programfejlesztők használnak, és messze verni tudja a PC általános megoldásait. Szóval egy konzolban bármi kihozható, ha ezt hardveres szinten erősíted, míg egy PC-nél azért ez nehéz ügy, mert kell a hardver mögé egy szabvány, amit aztán el is kell terjeszteni, meg kell győzni a fejlesztőket, hogy használják a lehetőségeket, akkor is, ha a célpiac vásárlóbázisának az 1%-a tud vele élni, és van még egy rakás kisebb hátráltató tényező, ami egy konzolnál nem létezik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#45185024
törölt tag
válasz Petykemano #38204 üzenetére
awexco megemlítette itt a Wafer-on-Wafer összeköttetést
Nem lehet hogy Abu holnap ilyen WOWos Naviról akar nekünk cikket mutatni ? Nagyon meglepődnénk mi ezen Petyke ?
Annyira belevág AMD stílusába ez a csinálunk egy lapkát és duplázzuk és a sérültek variánsaival máris kész a termékpaletta... Ráadásul TSMC...[ Szerkesztve ]
-
Petykemano
veterán
válasz #45185024 #38206 üzenetére
Meglátjuk. Megfuttattam a kérdést AdoredTV-nél, ő nem lát benne fantáziát a hőtermelés miatt. Valóban az intel 3D chipnél is arról beszéltek, hogy a hűtéshez közel legyen a hőtermelő, alatta rétegelve a nem hőtermelő lapkák. Itt meg két nagy hőt termelő lapka egymásra fordításáról beszélünk. De meglátjuk. Adná magát szerintem. Ráadásul ott van leírva, hogy az operating system egyben látná. Azt nem értem, hogy hogy, de oda van írva. Holy grail.
Találgatunk, aztán majd úgyis kiderül..
-
awexco
őstag
válasz Petykemano #38207 üzenetére
Végtelenségig nem lehet a csíkszélességet csökkenteni . Alternatív megoldások következnek .
I5-6600K + rx5700xt + LG 24GM77
-
-
Petykemano
veterán
Tum Apisak szerint:
"NAVI LITE = Console"Találgatunk, aztán majd úgyis kiderül..
-
dergander
addikt
Erre lett volna egy láda söröm, de remélem nem ezzel akar az AMD, az Nv 2080Ti ellen indulni.
Az elgondolás rendbe van, kérdés hogy a hűtés mivel lesz megoldva? 7nm ide vagy oda ez már termelni fog, nem is kevés wattot, tehát ide valami kompaktvizes megoldást tudok elképzelni. -
dergander
addikt
válasz hokuszpk #38223 üzenetére
Gondolj bele, eddig előkerült egy táblázat ami szerint ha azt nézzük a referencia AMD kártyája 150watt, ha még ez is lesz akkor már 2x 150 watt az 300. Tehát 7nm ide vagy oda 2 GPU termelni fogja a hőt. Ezek még pedig nem hivatalos adatok, de a 150watt még reális is lenne,mint referencia kártya.
Ja és azért megemlítem ne 2GPU-t küldjünk már hadba egy 2080Ti ellen.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz dergander #38225 üzenetére
Ezzel a megoldással teljesen mindegy, hogy mennyi GPU-t raksz a NYÁK-ra. Kifelé egynek látszik. Ez kb. az a felfogás, amit alkalmaz az AMD a CPU-knál. Ott is négy lapka van a tokozáson, ami az egylapkás Intelek ellen megy. Sőt, az EPYC 2 valódi chiplet dizájn, ahol 9 lapka is lehet a tokozáson.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
hokuszpk
nagyúr
válasz dergander #38225 üzenetére
a Vegaval mar kiprobaltak, 300W teljesen hutheto )
de mintha csucsrajaratva az uj RTX csucskartya is ennek kozeleben fiogyasztana, oszt az is le van hutve.[ Szerkesztve ]
Első AMD-m - a 65-ös - a seregben volt...
-
-
dergander
addikt
Akkor leírom úgy hogy, 2GPU, ugy feltevések szerint 300watt , egy 2080Ti szintén, és még koránt sem biztos hogy hatékony lesz a 2 GPU. Értem én hogy vannak technológiák rá,de ahogy leírtad a legtöbbet az adja hogy a játékfejlesztő mit hoz a konyhára.
Tehát értem én hogy mindegy mi van a motorháztető alatt, de még mindig az a legjobb megoldás hogy egy GPU kell és az legyen erős. Sajnos ez az állítás, már jóideje érvényben van. Meg tegyük hozzá azt is az Nv "kezébe" elég sok fejlesztő van. Ez adhat okot egy kis bizalomra hogy ők is preferálják az SLI-t.
-
válasz dergander #38230 üzenetére
Ha chipletszerűen oldják meg, alacsony szinten, akkor semmi gond, simán lehet hatékony. Persze ehhez úgy is kéne tervezni az architektúrát, anélkül nem lesz annyira hatékony.
Az SLI-t már el kéne felejteni, az egy driverből tákolt szemét. Persze sok helyen működik, de nem túl hatékony és ezen felül is az AFR jellegű működésnek rengeteg hátránya van.
Make Asia Great Again!
-
Abu85
HÁZIGAZDA
válasz dergander #38230 üzenetére
Olvasd el még egyszer a hírt figyelmesen. Arról van szó ezzel a megoldással, hogy a két GPU egynek látszik. Az összeadott teljesítmény állandóan 99% körüli. A fejlesztőnek zéró beleszólása van a működésébe. Az a lényege, hogy ne csináljanak semmit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Akkor ez sokkal hatékonyabb lesz mint a cpu-k ccx-e?
Mert a gyors közös cache és memória elérés igencsak kardinális kérdés a gpu magoknál...A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz Jack@l #38233 üzenetére
A GPU-knál eleve brutálisan szemetelt az L2 cache. Abból leginkább a ROP-ok profitálnak, de a multiprocesszorok munkáját igazán az LDS segíti. A CPU-nál azért számít igazán a cache, mert ott hardveres szálak futnak, és ott ezeket nem tudod másra cserélni, ha nincs adat, emiatt fontos, hogy a cache-ben ott legyen. A GPU-knál az a trükk, hogy ha nincs adat, akkor félrerakja a hardver a wave-et, és betölt egy másikat. Emiatt tudják a hardverek igen jól áthidalni a tipikus 700-900 ns-os betöltési időket. Egy mai top GPU kezel közel sok száz hardveresen menedzselt wave-et. Az egyik futtatható lesz szinte mindig.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Nekem mindegy hogy oldják meg, csak aztán nehogy az fps kárára menjen a korszakalkotó felépítés
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
dergander
addikt
Az a baj ami leírtál az túl szép és jó. De még nem beszéltél róla mik lehetnek a hátulütői. Az egyik a támogatás, a másik a minőségi driver. Sajnos az AMD a driverek terén az elmúlt időbe nem muzsikált nagyon jól. Sok-sok extrát adtak, meg sok a szép diagramm hogy 1 év alatt ennyit meg annyit gyorsult.
Amit leírtál és bevállik(ha bevállik úgy ahogy) akkor elindul egy teljesen új korszak. Viszont ha itt vagyunk akkor ezek pokoli drágák lesznek, áttervezett nyák , profibb áramellátás VRM stb. Kivéve ha az AMD nem fedi le az alsóbb kategóriát is. pl. két középkategóriás GPU-val. példának okán, jelen esetbe 2 x 590 GPU. -
Simid
senior tag
válasz dergander #38230 üzenetére
A CPU-knál is úgy volt évtizedekig, hogy a monolotikus felépítés a leghatékonyabb megoldás. Aztán már az EPYC1 is részben rácáfolt erre és a ROME úgy néz ki még rátesz egy lapáttal (nem akarom elkiabálni, de korszakaltónak tűnik az eddigiek alapján).
A gyártástechnológiai lehetőségek is kimerülőben, egyre drágábban lehet egyre kisebb előrelépéseket magvalósítani.Ilyen helyzetben szerintem pont az innovatív megoldásokra van szükség és nem túl bölcs dolog "eddig sem volt jó, most sem lesz" típusú kijelentéseket tenni.
Várjuk meg mi lesz belőle! Sokkal jobban bízok ebben az AMD-s vezetőségben mint mondjuk a 8-10 évvel korábbiban... -
Abu85
HÁZIGAZDA
válasz dergander #38236 üzenetére
Igazából ugyanabból indul ki a koncepció, ami az EPYC-nél a négy CPU összekapcsolása egy tokozáson.
Mindenképpen a chiplet felé megyünk mindenhol, mert van egy olyan probléma a 7 nm-es waferekkel, hogy drágák. Tehát, ha erre tervezel egy 700 mm-es monolitikus lapkát, akkor a rá épülő VGA ára 2000 dollár lesz minimum. Viszont 2000 dolláros szinten már nincs akkora vásárlóbázis, hogy a rendszer ki tudja termelni a 300 millió dollárra tehető fejlesztési költségét, vagyis már amikor leülnek hardvert tervezni, akkor az lesz megállapítva, hogy a projekt meg fog bukni. Emiatt megy most ez a chipletelés, hogy olyan projektek készüljenek, amelyek árát ne kelljen 2000 dollárra belőni, így az emberek is meg tudják venni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
A mese így kezdődött: "a nagy monolitikus 7nm-es csipek drágák".
Aztán pár hónap múlva kijön egy vega alterego 7nm-en, kicsit gyorsabb lesz mint az eredeti, nagy valószínűséggel a nagyobb órajel miatt. Mégis egy árban fog menni a most kijövő 2060-akkal, kb 100e vagy alatti kategória.
Akkor kinek higyjen majd a megkavarodott pórnép? Tényleg olyan drága, vagy az amd lesz a mikulás és féláron adja majd, mint ahogy gyártja?A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
válasz hokuszpk #38240 üzenetére
Akkor mondhatjuk hogy 1000 dollár vs 350 a téma?
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Envo_
aktív tag
"mert van egy olyan probléma a 7 nm-es waferekkel, hogy drágák."
AdoredTV-n volt egy ilyen számolgatós videó, amiben a defecteket mutatta, hogy milyen ráhatása van a "szilikonkorongra" (nem tudom hogy hívják pontosan), és hogy mivel a 7nm-en kisebb területű chipeket tudnak tervezni, sokkal kevesebb lesz a defektes chip arány és emiatt olcsóbb. Csak akkor drágább a 7nm ha ugyanakkora területű chipeket akarnak vele gyártani, mint 14nm-en, ha jól értem. Chipletes megoldás már csak abból is sokkal jobb, hogy emiatt olcsóbb, mert egy darab szilikonból több működő chipet tudnak kiszedni.
[ Szerkesztve ]
-
#45997568
törölt tag
A kerdes meg tudjak-e csinalni hogy mukodjon is, meg JOL is mukodjon. Hardveresen. Megkerulve a fejlesztoket. Ha az allitolagos PS5-os szamokat nezzuk, ahol 240FPS 4K volt emlegetve (szep szamok) es ott mukodik, akkor valoszinuleg azt hozzak at a PC-s piacra.
Varjuk a hireket, jovo heten okosabbak leszunk.
Latta mar valaki mashol is lehozni ezt a hirt
-
Abu85
HÁZIGAZDA
Nem csak a hiba a probléma, hanem maga a waferár is. A mostani 7 nm FF nem túl olcsó, de a legtöbb új lapka a 7 nm FF+-t fogja használni, ami már EUV-s, és ezek a berendezésen nem valami hatékonyak. A hatásfokuk alig közelíti az 5%-ot, tehát fogyasztanak, mint a disznók, amihez megfelelő hűtés is kell az üzemen belülre, ami megint fogyaszt, mint a disznó. Eközben a valóban hasznosuló teljesítmény elenyésző, a többi hővé válik. Emiatt a 7 nm-es waferárak az FF+ node-on az egeket fogják ostromolni. Nem véletlen, hogy az AMD a Rome platformnál a nem skálázódó részeket 14 nm-en gyártja. Ezek nem igazán lennének kisebbek 7 nm-en, miközben a gyártási költségük a többszöröse lenne.
(#38246) dergander: A chipletes, illetve a többlapkás megoldások arra kellenek, hogy az új árak ne emelkedjenek. A piac sok mindent elbír, de a 2000 dolláros csúcsmodellt már nem. Már az 1000 dolláros szintért is hőbörgés van, és ez még az egészen olcsónak mondható 12 nm-es node. A 7 nm-es EUV összehasonlíthatatlanul drágább.
Hosszabb távon itt az lesz, hogy a fixfunkciós blokkok, illetve a ROP-ok készülnek 16-12 nm-en, mert ezekre ez egész jó és olcsó, míg a multiprocesszorok tömbösítve mennek 7 nm-re.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Callisto
őstag
Sajnos AMD nem tud felmutatni olyan architektúrát, mint ami az NVidia ellen mehetne egy az egy ellen. Ezért nincs más választásuk.
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
hokuszpk
nagyúr
nem a kihozatal miatt dragabb a 7nm, hanem a bergyarto szemszogebol a szukseges berendezesek koltsegeit vissza kell termelni, az meg nagysagrenddel tobb, mint az elozoeknel.
az NV/AMD szempontjabol meg a lapka tervezesi koltsegek szallnak el. 2-3x tobbe kerul a 7nm -re tervezni, mint 12-re, dragabb a maszk elkeszitese, stb.Első AMD-m - a 65-ös - a seregben volt...
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: HC Pointer Kft.
Város: Pécs
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest