Új hozzászólás Aktív témák
-
paprobert
őstag
válasz
Petykemano #10103 üzenetére
De leginkább annak hatására leszek kiváncsi, hogy fogyasztásban (standby) és késleltetésben milyen változást fog hozni az új chiplet csatlakozás és hogy ez mit fog eredményezni.
A desktop Zen4-Zen5 egy kicsit "el van Threadripper-esedve". Az Infinity Fabric eléggé lerontja a működési karakterisztikát, túl sokat eszik idle- és aktív állapotban is az interconnect.
Si interposert vagy monolitikus lapkát szeretnék látni.
-
paprobert
őstag
válasz
Petykemano #10089 üzenetére
El akarja kerülni az AMD, hogy olcsón bevásárolhass az AM5-be, tekintve hogy a legkisebb CPU is ott kezdődik játékos teljesítményben, ahol az AM4 teteje van.
Ezzel hagyva értelmet az AM4-nek még.#10090 Busterftw
Két Robin Hood szakasz volt. A Zen+ kiszórása (Zen1-nél még próbálkozott felárazni az AMD, bízott abban hogy újdonság, és venni fogják indok nélkül - persze nem vették), majd a Zen2 késői árvágásai.
Mindkettő a kifutó szakaszban történt, és valóban, a Zen3-ra már nem volt firesale, ott inkább az AM4-be korán bevásárlók megfejése ment / megy. -
paprobert
őstag
válasz
Petykemano #9943 üzenetére
"de a v-cache is a "nagy méret" kategória."
Végülis igen.Még egy kicsit csavarva rajta, talán az Intel régebbi node-on gyártott szilícium interposere is beleérthető a méret növelésbe...
Tehát amíg nem látunk egy interposer-re ültetett 3D stacked nagy APU-t integrált IO-val és óriás magokkal, mellette pedig 1-2 c-magos CCD-t a MT teljesítményért, addig húzhatjuk a szánkat, hogy az AMD nem akar igazán versenyezni.
-
paprobert
őstag
válasz
Petykemano #9939 üzenetére
"Ezzel nem azt akartam mondani, hogy az AMDnek a fiókban lapul +40% IPC vészhelyzetre."
Az AMD nem játszotta még ki a nagy méretet. 2x-es méretből könnyen tudna jönni egy erős kétszámjegyű ugrás (40% nem, de a Zen5-tel hiányolt generációs ugrás igen).
Persze ez most nem éri meg, a kényszer nem elég nagy.Vagy a 3D cache-esített APU-kat hozni, akár desktopra is, amivel megint energiahatékonysági kényszerbe tudná zavarni az Intel-t.
30W alatti, bivalyerős, mindenevő CPU-k lennének.Sok labda pattog az AMD-nél, bőven lenne lehetősége fokozni a nyomást, de úgy tűnik hogy jobban megéri kivárni a lassú eróziót.
-
paprobert
őstag
válasz
Petykemano #9859 üzenetére
Ez csak néhány workload-nál jelent gondot, leginkább ott látványosan, ahol érthetetlen regresszió volt kimérhető.
Véleményem szerint egész jó, hogy bár a Zen5 eltér a megszokott proto-CPU-tól, csak néhány százalék mínusz lett a következménye a meglévő kódokkal.
És rengeteg lehetőséget is hordoz magában a jövőre nézve.
Ez az AMD Rocket Lake-je, (sandbaggelve van, hogy mi lesz képes következni belőle), bár annál jobban teljesít már most is. -
paprobert
őstag
Szuper nem lett a Zen5, de el kell ismerni, hogy a mag szélesítését úgy tudta megoldani az AMD, hogy gyorsult a legtöbb dologban.
A Intel-nél a hasonló szerepet betöltő, 14nm-en tartott Rocket Lake ezzel szemben inkább oldalra-hátra lépett, és a fogyasztás is irdatlanul elszállt.
A Zen5 inkább szól az architektúra mélyének az átszabásáról, a teljesítmény pedig már mutatja magát a következő generációban egy node váltással egybekötve.
Illetve az sem utolsó szempont, hogy a pirosaknak nem 250W-ról kell visszahozni a földre az aktív power-t, hanem a TDP keretből akár "költeni" is tudnak ha kell.
#9793 Petykemano
A 4nm-en egy 10% biztos elment. -
paprobert
őstag
válasz
S_x96x_S #9738 üzenetére
Miért szivatja a Zen2 tulajokat az AMD?
https://www.amd.com/en/resources/product-security/bulletin/amd-sb-7014.html
Ryzen 3000 (Zen2)
No fix plannedHa ezt beszívja az ember, utána se BIOS frissítés, se OS újrarakás nem segít, a támadó irányítása marad a gép. (hétköznapi ember nem flashel EEPROM-ot)
Azaz kukázni kell a gépet, már ha tudsz róla egyáltalán hogy letérdeltették.Ezek után vegyen valaki olcsó használt AM4-es gépet/alaplapot...
Tényleg olyan sokba került volna az AMD-nek az AM4-nél meghúzni a támogatási határt?
-
paprobert
őstag
válasz
Alogonomus #9758 üzenetére
Rákerestem, elnézést kell kérnem, csak azonos százalékon álltak a múltban, tizedszázalékkal az AMD volt elöl.
Illetve analyst forecast-ek szóltak a helycseréről csak.
Mindenesetre egy nem kiemelt partner is lehet adott esetben nagyobb ügyfél, mint az AMD, aki kiemelt.
Azaz nem csak az általad felvázolt AMD-maradékért mehetett a foglalás. -
paprobert
őstag
válasz
Alogonomus #9752 üzenetére
És azt a tényt hogyan tudod beilleszteni az elméletedbe, hogy az Intel több pénzt rak a TSMC zsebébe mint az AMD?
-
paprobert
őstag
válasz
Petykemano #9748 üzenetére
Értelmezés kérdése, de a két interjút egyben nézve számomra ez inkább mérnök-politikusi PR mellébeszélés. A komplexitás szó eléggé ködös ahhoz, hogy ne kelljen a fájó részletekbe menni az interjún.
Az összetettség nem akadályozó tényező önmagában, illetve ha ez igaz lenne, akkor lehetetlen lett volna megoldani a korábbi Zen-eknél is ezt.Ami valószínűbb, hogy vagy szétcsapta volna a floorplan-t (bár a kisebb CCD ellentmond ennek), vagy már egyébként is célfogyasztáson kívül volt a dizájn 4nm-re (vissza?)ültetve.
A részletekbe menő fogyasztás miatti Tom'sHW-es fogadkozás, a Zen-ekre nem jellemző erősebb MT órajelvisszavétel, és a PBO melletti tisztes gyorsulás alapján én az utóbbira tippelek.
Vagyis hogy vágni kellett ahol csak tudtak, a fogyasztásból. -
paprobert
őstag
Most, hogy kint vannak az első Zen5 tesztek, eléggé érthetővé teszi az interjúkat.
Pl. a fogyasztás miatti mentegetőzést, vagy hogy eltűnt a no op fusion, de visszajön a jövőben, amikor a kisebb csíkszélesség újra megengedi, stb. -
paprobert
őstag
"Személy szerint jobban örültem volna egyszerűen 8 nagy magnak"
Én is, de be kell látni, hogy notiban, főleg alacsony TDP-vel elég lesz a 4 gyors mag, kb. mindenre.
TDP szempontjából van egy váltópont, ahol már nem éri meg a több nagy mag, nem tudna kellő sebességen futni a lekorlátozás miatt.Asztali CPU-ként használva viszont hiányozna a 2-4 normál mag, ez egyértelmű. Modern játékmotorok alatt már kimutathatóan lassabb egy 4c8t CPU az adott generációban.
-
paprobert
őstag
válasz
Alogonomus #9613 üzenetére
Vagyis félrevezető az átlagolás, mert? ...
-
paprobert
őstag
válasz
Petykemano #9592 üzenetére
"csúsztatni kellert"
Sigmund Freud itt járt
-
paprobert
őstag
válasz
S_x96x_S #9564 üzenetére
"habár tisztán idle tesztet most nem találtam."
Azt észrevettem, hogy a Phoronix tesztekben a fogyasztási listáknak van "min" értéke.
Bár nem lehet készpénznek venni, de gyengén utal az idle fogyasztásra.
Az 1 vs 2 CCD különbség pl. olvasható róla, ahogy a monolitikus előny a chipletes CPU-khoz képest is. -
paprobert
őstag
"Pedig ugye abban is ugyanúgy Infinity Fabric van, csak magon belül."
Igen, amíg szilíciumon belül marad, addig nincs túl nagy baj.Az Intel feltehetőleg ezért lép a Si interposer irányába chipletnél( + így valamire el képes sütni az üresen kongó, low performance - low cost gyártósort)
Ha jól emlékszem, 50W volt a Core2, Phenom2 érában is az üresjárat, vagyis ebben szinte nem volt előrelépés tizen+ éve
-
paprobert
őstag
válasz
Petykemano #9561 üzenetére
A ST erősödése a lényeg kliens processzornál, szerintem ez így jó irány. Teoretikusan bármikor feladnék a 8-ból két magot, ha cserébe egy szálon +15%-ot lehet vele nyerni.
Mint mindig, most is kérdés az idle power és hogy 1 szálnál mennyit eszik pluszban majd az Infinity Fabric.
A lehetőség létezik arra, hogy több adatcsatornán, de alacsonyabb frekvencián menjen az adat (a'la HBM) a részegységek között.Összehasonlításképp, nemrég teszteltem egy 6nm-es AMD lapost, és lenyűgöző, 3-4W idle fogyasztást tudott.
Ez közel Raspberry Pi szint, és egyertelműen mutatja, hogy a különbséget a desktop körítés jelenti.
Remélem hogy ez a hatékonyság megmutatkozik a jövőben az asztali vonalon is, és nem csak a terhelt állapotban... -
paprobert
őstag
válasz
Petykemano #9528 üzenetére
Nem feltétlenül nagy baj ez.
Még az a típusú játék is ritkaságszámba megy, ami 30 képkockát céloz a konzol CPU main threadjével. Ennek következtében PC-n Zen2-vel, vagy egy 2018-as Skylake-kel is nagyrészt kényelmesen el lehet lenni. Van kiaknázatlan tartalék a fejlesztők kezében, a többszálúsítás csak ezután jönne.
Én pedig nagyon vártam, hogy sok új játék Hogwart's Legacy szinten, vagy annál is durvábban fogja beárazni az egyszálas teljesítményt, de a last gen és a Switch megmentette a PC-t ettől.
-
paprobert
őstag
válasz
Petykemano #9495 üzenetére
Van rá esély, hogy menet közben változott a terv, mert 5 éve túl szépet firkantott a rajzlapra Mike, hogy igaz legyen.
De a gaming teljesítményt hiányolni egy szolidabb magszélesítés után, szerintem nem helyes elvárás.
Olvasva a híreszteléseket a Zen5 olyan lehet, kb. mint a Rocket Lake volt. Nem lépett gyártástech-et, szélesedett, de nem eleget, latencyproblémás volt, és ezzel csak egált tudott az aktuális Skylake-hez képest.
Valami hasonló lehet itt is.*Bár modern utasításokat alkalmazó játékokban én előrelépést várok.
Tegyük fel, a kora 2000-res években írt motorokban kikap, valamint a cache spilloveres motorokban az X3D ellép. Naés? Minden másban oda tud verni.*Látni kell a teszteket az objektív értékeléshez, mert jelenleg félinformációkból építünk teóriákat.
-
paprobert
őstag
válasz
Petykemano #9303 üzenetére
A Fortnite +7% és a Metro +38% különbséget nem értem. Egyébként jól hangzik.
A Passmark és az R23 értékei általában elég korrektül mutatják a nem edge-case tendenciát.Ha a fogyasztás is rendben lesz, akkor a Zen5 szépen ellép a 12-13. gen Inteltől.
-
paprobert
őstag
válasz
Petykemano #9233 üzenetére
Egyetértek.
Egyébként a mostani stratégia sem rossz, azaz hogy az AM4 alulról árban, a Zen4 pedig épp felülről fogja harapófogóba az Intel felhozatalát.
Tény, hogy lenne helye a jelenleginél egyértelműbb dominanciának a csúcson. Az Intel kivéreztetésére viszont már a jelenlegi állapot is hatni látszik.Az NPU nekem még mindig csak lufinak tűnik.
Könnyű skálázni, és könnyű marketingelni (bigger number better), de nincs killer feature egyelőre. Illetve ami van, az GPU-n jobban megy, vagy ha a sebesség nem fontos, CPU-n is megoldható.
(Ha eltűnne az NPU a telefonomból holnaptól, észrevenném? Szerintem nem.) -
-
paprobert
őstag
válasz
Petykemano #9145 üzenetére
Felhasználói szempontból, mennyivel kell gyorsabbnak lennie, és mennyivel kell hosszabb üzemidővel rendelkeznie, hogy váltson valaki ARM-ra?
Jó kérdés.Egy prémium ARM SoC - prémium x86 SoC csatának nézünk elébe, de egyelőre még nincsenek tesztek, azaz semmit nem tudunk.
Fontos kérdések, hogy mekkora lapkamérettel tudja ezt? Tenyérnyi szilíciummal, vagy alig nagyobb mint egy mobiltelefon SoC?
Mi az üresjárati és a max fogyasztás?Az AMD mellett a Team x86-ba úgy tűnik betársul az Intel is, lényegében egy időben a QC chippel.
Túl sok kérdésre nem tudjuk még a választ, de annyi biztos, hogy profit az bőven van ebben a szegmensben, azaz lesz mit elversenyezni egymás között.
-
paprobert
őstag
válasz
Petykemano #9137 üzenetére
Az Apple ARM-ra váltásának életképességét látva szerintem mindenki felbátorodott az utóbbi időben.
A QC elsőnek érkezett, de ott az NV, AMD, Intel is, akik a kisujjukból ki tudnak rázni egy működő SoC-t.
Arányaiban kis befektetéssel ők lehetnek a következő 10+ év nagy PC CPU gyártója, ha a váltás végbemegy, ezért érthető a próbálkozás.Most lett polcról levehető, meglehetősen erős ARM mag, és ami talán még fontosabb, AMI BIOS támogatás (a kompatibilitásért).
Eddig ahány chiptervező, annyi összehackelt SoC, custom firmware-rel, önmagában létezett.
Most viszont mintha tényleg kezdene összeállni egy szolid platformmá az eddigi forgácsolt mobilos piac.Busterftw felvetése jogos, a Windows-nak elegánsan hoznia kell egy kompatibilitási réteget, legacy app-okra.
Bár a 2000-res évek végétől egyre több minden ISA-agnosztikussá vált. Compilerek, böngészők, futtatási környezetek mind elfedik HW-t.
Szerintem a legtöbb aktívan fejlesztett projekt meg tudná lépni a váltást, a maradék abandonware-re kell a MS-nak kitalálni valamit. -
paprobert
őstag
válasz
Petykemano #9027 üzenetére
De akkor 3-4 különböző chiplet lesz tervezve?
Oké, már van rá pénz, de eddig arról szólt a stratégia, hogy mindenhova ugyanaz a jól megtervezett változat megy.
-
paprobert
őstag
válasz
Devid_81 #9020 üzenetére
Tehát magon belüli szélesítés + 16 magos CCX
A "low power core option" az mégis mi?
Ez a megfogalmazás talán azt sejteti, hogy a normál magok Rocket Lake-esen túl sokat fognak fogyasztani?Annyit látunk már most, hogy a TSMC 3nm nem mutatkozik annak az aduásznak, amit vártunk. Megtörténhet, hogy a CPU dizájn változtatás miatti energiaigény és az azt kiszolgáló gyártástechnológia előrelépése nem követi le egymást.
-
paprobert
őstag
válasz
Petykemano #8998 üzenetére
"Ha egy sokmagos asztali gépet MT teljesítményre húzol fel, az papíron jól hangzik, de egyrészt a 300W elég nevetséges. (1-2 generáció múlva ugyanezt fogja hozni egy 15W notebook)"
"Nagy" rendszert venni ezzel jár. Az elején jó, de idővel túl nagy, túl sokat fogyaszt, és nem öregszik méltóságteljesen. Azok veszik, akiknek kell az erő, és az is most kell.
A Threadripper vagy az Epyc is, egy mezei PC-hez képest egy traktor hatékonyságát tudja... 150W üresjárat, stb."Hasonló helyzetként lehetne emlegetni a Zen1 betörését, hogy hát ott is feleslegesen jöttek a plusz magok."
Egyetértek. A Zen1/Zen1+ egyetlen dologra viszont megoldást adott, a megjelenés után nem sokkal. Ár/értékben szétverte a 4c/8t konkurenciát többszálú feladatokban. Minden másban hamar öregedett a további fejlődés miatt, de ez az érdem elvitathatatlan."Intelnek ott van a fiókban a titkos új architektúra, amivel majd újra megszégyenítő vereséget mér az MT teljesítménnyel bohóckodó AMD-ra"
Az Alder Lake lett ez az architektúra, 4.5 évvel később, ami nagyon valószínűsíti, hogy a Zen-től megijedve kezdődött el a fejlesztése.És igen, otthoni felhasználásra a MT teljesítmény egy szinten túl már alig számít, számomra ezért nem imponál a Zen-dense vagy az E-core megléte. Értem hogy mi a célja, és mire szolgál, de egyszerűen a nyers number crunching nem mindennapos otthon.
Persze ha sok-sok évig használja valaki a CPU-t, akkor megtörténik, hogy a vásárlás elején parlagon heverő MT teljesítmény egyre több workload-nál használatba kerül, de addigra a ST teljesítmény már rég elavultatta a rendszert, és egy sokat fogyasztó irodai PC lett a gép.
Én sokkal jobban örülnék egy olyan rendszernek, ami a teljes rendszer fogyasztását ~5W-ra tudná redukálni üresjáratban, minden komponenst beleértve.
Ma csak a laptopok tudják ezt. -
paprobert
őstag
válasz
Petykemano #8730 üzenetére
Ha a Samsung még mindig le van maradva, akkor ott van értelme, ahol
dizájn-win van eleve, (GPU biztosan nem, CPU talán beleférhet)
vagy nem teljesítménykritikus alkatrészekre, pl. IO
vagy "nem számít, csak olcsó legyen" termékekre, mint a Mendocino vagy a low-end GPU-k.A TSMC finom zsarolásához sem utolsó szempont a partnerség fenntartása.
-
paprobert
őstag
válasz
Petykemano #8620 üzenetére
Egyetértek a meglátásaiddal.
Az Intel gyártástechnológiai hátránya leginkább abban mutatkozik meg, hogy maximum terhelésen irdatlan magas a fogyasztás.
Meg tudták építeni azt a magot, amit szerettek volna, nem kellett visszavágni az architektúrát, el tudták érni a megcélzott órajeleket, de a működési tartományt vizsgálva a vállalhatatlan kategóriába csúszott padlógázon a termék.Én a találgatások idején a Zen4-re a mag szélesítését vártam volna, de egyértelműen nem ez történt. A Zen4 igazából egy ultra-low latency mag. Ennél sokkal jobbat chipletezéssel már nagyon nehéz elérni.
A kérdés, hogy hogyan fog tudni szélesíteni az AMD a jövőben, hogy ne essen visssza a latency Zen1 szintre?
Illetve mikor hoz olyan hibrid dizájnt, ahol egy low-latency és/vagy throughput-optimalizált és/vagy egy szélesített "nagy mag" CCD fog együtt dolgozni?Ideális esetben a jelenlegi Zen4 fölé és alá is kellene egy új mag család, hogy az egy szálas teljesítmény, és a throughput is javulhasson, 3 szintes hibrid dizájnként.
-
paprobert
őstag
válasz
Petykemano #8505 üzenetére
14nm-en milyen GPU-t gyártana, Polarist, esetleg Vega-t?
Egy dolgot látok, ami miatt ez a hír talán igaz lehet.
Így, ha valami régi dizájnt hoznak, újra kialakulhat a Samsunggal való kompatibilitás, a különbségeket ki tudják tapasztalni, rizikó nélkül.
Ez a TSMC-nek jelzés az AMD részéről, hogy legyen észnél, amikor a nyugdíjas korba lépő 7 és 6nm szerződéseket újítják.És bár a Samsungnál V-cache nincs, de tavalyig bezárólag minden terméknek lenne Samsung-os alternatívája, akár 1-1 node-ot ugorva előre, hogy a termék karakterisztika azonos maradjon.
-
paprobert
őstag
Azt tudjuk, hogy a CDD-k közötti thread dobálás eddig is okozott kisebb lassulást a 7950X esetén 0.1% képkockaszámban.
Ha most még órajel és cache differencia is lesz a két oldal között, érdekes lesz látni, hogy hova jön ki az átlag.
Pl. Mi lesz, ha egy modern, spagetti motor, valamilyen adatot mégis a V-cache nélküli CCD-ről kérne.
Vagy egy legacy motor, ami csak az órajeltől gyorsul, átcsúszik a V-cache bufferbe, akkor tenni kell egy IO-die kört, valamint addig 5.0GHz-re visszaesik a sebesség, mi lesz az vége kiegyensúlyozottságban.Illetve az is érdekelne, hogy nő-e a CCD crosstalk számossága az asszimetria miatt, vagy victim cache jelleg miatt nem lesz ebben változás.
-
paprobert
őstag
válasz
Petykemano #8284 üzenetére
Mindig kell egy hihető gumicsont indok, amivel meg lehet magyarázni, hogy vásárlóként el kell elfogadnod azt, hogy szar lesz neked.
Amíg pénzt hoz a cég konyhájára az áldozat szerep, és a problémák tízszeresére nagyítása, addig ez menni fog. Céges, akár CEO szinten is. -
paprobert
őstag
válasz
Petykemano #8099 üzenetére
Ez az egyik legjobb hír, amit az utóbbi időben olvashattam. Eltérő magszámok egyes csoportokban, és eltérő magok.
A "felesleges a hibrid dizájn, mert egyébként is takarékosak a magok" önámításnak hamarosan vége kell hogy legyen, itt a fórumon is.
Ennek köszönhetően végre elmehet az AMD a falig, egy egyáltalán nem tranzisztor-takarékos dizájn felé, és nem kell kukáznia sem a throughputot, sem az energiahatékonyságot cserébe.
-
paprobert
őstag
Windows Update-re kötött Pluton chip van a Ryzen 7000-ben is...
-
paprobert
őstag
válasz
Petykemano #7937 üzenetére
"Érdekes egyébként, hogy több helyen megjelent az a vélekedés, miszerint a Zen4 teljesítménye jelenleg azért tűnik kissé laposnak, mert a mérések valójában GPU limitesek és majd az RTX 4000 / RDNA3 kártyákkal fogja megmutatni a teljes potenciált."
A 720p-ben mérés erre lett kitalálva. Megmutatja a relatív különbséget játékokban.
A computerbase mérései mutatják, hogy elég jó lett a Zen4 játékban. -
paprobert
őstag
válasz
Petykemano #7771 üzenetére
-
paprobert
őstag
válasz
Petykemano #7684 üzenetére
Eméletileg a Zen4-hez képest a Raptor Lake gyorsabb lesz egy és több szálon is, az elszállt fogyasztás árán. Az eddigi szivárgások ezt sugallják.
Egy szálon 20W vs 40W
Több szálon 230W vs 350?WEngem az érdekelne, hogy előállhat-e egy olyan helyzet, hogy:
annyival gyorsabb a Raptor Lake több szálon, hogy van olyan beállítható TDP limit, amivel már kevesebbet fogyaszt a Zen4-nél, de még mindig megveri renderben. -
paprobert
őstag
válasz
Petykemano #7637 üzenetére
Az előadás elég meggyőző volt. Ez alapján már értjük, hogy sandbagging volt korábbi hivatalos nyilatkozat.
Az egy szálas eredménnyel vigyáznék egyelőre, mert Geekbench, ami tud furcsaságokat produkálni.
Az AM5 elköteleződés 2025-ig, azaz ~2.5 - 3 évre szól.
"amikor épp jobb volt az AMD Cinebenchben, akkor az Intel aszonta nem releváns"
Amikor multi-thread throughput-ban erős a processzor, akkor Cinebench, ha memória-sávszélességben, akkor Geekbench. Ez már csak így megy ezeknél a cégeknél. -
paprobert
őstag
Ebben a lapok felszereltsége is vaskosan benne van. Pl. egy A320, rendre kevesebbet fogyaszt mint egy *70 lap.
A másik súlyos idle fogyasztó az asztali gépeknél, az az XMP bekapcsolása. Nem gondolná az ember, de a RAM-ok simán megkajálnak egy idle notebook fogyasztásnyival többet ha be van kapcsolva.
Ryzen esetében ez igen fájó, mert gyakorlatilag kötelező, hogy működjön rendesen az IF.Az érkező iGPU várhatóan 5-15W-ot le tud faragni, szóval egyetértek, üdvözlendő hogy lesz.
-
paprobert
őstag
válasz
Petykemano #7353 üzenetére
Szondázás.
Bár, ha az Alder Lake alá érkezik csak egy szálon, akkor nehéz lesz prémium árat kérni érte.
-
-
paprobert
őstag
https://www.realworldtech.com/intel-4/
Több oldalas, mélyebb elemzés az Intel házon belüli fejlődéséről, sok érdekességgel.
Vannak apró utalások arra, hogy az AMD milyen eszközöket tud bevetni a közeljövőben a TSMC-nél. -
paprobert
őstag
válasz
Petykemano #7050 üzenetére
Memória, IF, vagy egyéb mag körüli rendszerek okozhatnak bottleneck-et. De akár magon belüli, saját órajelszabályzással rendelkező részegységek is lehetnek.
De ez csak feltételezés a részemről, ilyen komoly órajel-teljesítmény differenciát általában csak LN2 OC-nál látunk, normál használatnál nem, vagyis Occam borotvájával élve az eredeti számolások azért jóval valószínűbbek.
-
paprobert
őstag
válasz
Petykemano #7009 üzenetére
Bár még nincs elég adat, de mi van akkor, ha a sebességnövekedés nem követi szorosan a magas órajeleket?
Arra gondolok, hogy az AMD szélesített a magokon, de a fogyasztás kordában tartása érdekében lazított a belső időzítéseken sok helyen. Pont annyit lazított, hogy szerver workload és szerver frekvenciatartomány(4Ghz?) esetén egyensúlyban maradjon a termék.
És bár a magok képesek magas órajelen pörögni az 5nm-nek köszönhetően, ez a felső órajel-régióban már nem ad hozzá annyit az effektív sebességhez.Mindez csak feltételezés a részemről, de magyarázná a jelenséget.
-
paprobert
őstag
A Digital Foundry is elkezdett aggódni a next-gen CPU terhelés miatt:
https://www.youtube.com/watch?v=9SZLIGTFqiQ?t=2280Egyelőre még inkább az UE5 nyakába varrná a probléma forrását Alex Battaglia, de pl. John Linneman említi, hogy a "az old-school PC felé tartunk, mert a PC gaming régen pont ilyen volt", sejtetve azt amiről korábban beszéltem, hogy bajban lesz a PC.
Kiemelték, hogy egy szálon komoly falba ütköztek. Egy 12900K pl. a legtöbb amit tud, az 65 képkocka egy-egy pillanatig, vagy kevesebb. -
paprobert
őstag
válasz
S_x96x_S #6825 üzenetére
A Matrix demo tényleg nem tökéletes példa. Nincs benne néhány további extra, ami egy valódi játéknál nyúzza a CPU-t. Network stack, jó UI, speciális AI, game logic stb.
Szóval akár még rosszabb is lehet a helyzet, mint amit a demo fest."és ha az UE5 -nél az 1 szálas hard limit probléma lennem, akkor a ZEN2-es konzolon még inkább az!"
Amilyen arányban van a konzol Zen2@3.5GHz-e az aktuális CPU 1 szálas teljesítményével, annyira okoz gondot.
Egyszerű kiszámolni, hogy a Zen3 vagy az Alder milyen fps range-be esik, ha a konzol a 30. -
paprobert
őstag
"Szóval mindig relatív mihez képest versenyképes és hogy mennyiért."
Akkor vegyük ki a relativitást a képletből, egy egyszerű kérdéssel:
Vinni fogja-e a PS5-re és XSX-re megjelenő játékokat, legalább 60 fps-sel?A válasz erre az, hogy a konzolon 60 képkockát célzó játékokat vígan, míg a 30-at célzóak egy részét biztosan nem. Lásd, Matrix demo, első fecske.
#6819 HSM
Hogy ma megállja a helyét, abszolút egyetértek. A jövővel kapcsolatban vannak nem alaptalan kétségeim.#6821 S_x96x_S
Csak arra hívtam fel a figyelmet, hogy a jelenlegi igények fölé vásárolni az aktuális sorozatból, jövőbiztosítás céljából gaming-re értelmetlen. Hiába lett olcsóbb a top-end, ehhez nem elég jók ma a hardverek.
Egyéb, MT-et igénylő feladatokra persze lehet jó ajánlat, bár abban is jelentős fejlődés van kilátásban, szóval csak ésszel. -
paprobert
őstag
Csak annyira lesz hosszú életű, mint amennyire manapság egy Zen1 az. Jó-jó bizonyos dolgokra, de az egyszálas teljesítményét látva húzod a szádat.
Most dinamikusan fejlődik mindkét gyártó. A node-ok készek (TSMC), ill. készülnek(Intel), és az architektúra roadmap is le van fektetve.
Gaming szempontjából pedig a Matrix demo hozta azt az első mélyütést, amiről beszéltem úgy 2 éve, hogy a konzolok mit is jelentenek a kurrens PC CPU-knak. Szimplán, még messze vagyunk a Zen2@3.5GHz*2-től, a 60 fps-ért küzdve.
-
paprobert
őstag
Na igen, bár inkább arra akartam rámutatni, hogy nem az anyagköltséget követi a piaci ár, hanem önkényesen van megszabva piaconként, a kartell aktuális állapotának megfelelően.
Egy ilyen APU esetén a CPU és GPU rész hasonló mértékben lenne jelen a termékben, emiatt dobtam fel, hogy vajon melyik oldal lenne a mértékadó. -
paprobert
őstag
"Normális teljesítményű (=nem belépő szintű asztali) IGP-t majd akkor fogunk látni, ha az AMD végre rászánja magát az Infinity Cache beépítésére IGP-be."
Ez vajon GPU árban menne ajándék CPU-val, vagy CPU árban ajándék GPU-val?
Manapság, sajnos, van különbség a kettő között, pedig ugyanarról van szó.
-
paprobert
őstag
válasz
Petykemano #6699 üzenetére
Ha elkezdődik valami az NV és az Intel között, akkor először kicsiben, mondjuk egy GT 710 utód jönne szerintem, akár most elérhető Intel node-on.
Az Intel TSMC-nél gyártása tudtommal nem kapacitáshiányra vezethető vissza, hanem arra a termékbevezetési stratégiára, miszerint a gyenge architektúra + gyenge node páros senkinek nem fog kelleni. Így erővel vásárolnak maguknak plusz 30-40% teljesítményt.
"Elképzelhető, hogy a döntés mögött az a háttér, hogy végső soron épp ezért az Intel 1-2 év múlva már jobb kínálattal fog rendelkezni, mint a Samsung."
Az Intel két kézzel szórja a saját és a különböző államok pénzét beruházásokra. Jól látod, Jensen kiszagolta ezt a pénzt, és megy utána.
Az Intelnek nagy ügyfelek kellenek, hogy a felfuttatási időszak anyagilag stabil legyen, az NV pedig az alacsony árakra hajt. -
paprobert
őstag
válasz
Petykemano #6633 üzenetére
Az ígéret ingyen volt 2017-ben a teszteletlen platformjukra. Az ígéret betartása pedig pénzbe kerülne most, ezért hátráltak ki belőle.
Illetve az AMD azzal is kalkulál, hogy egy B350-es lap üzemben tartásával elesik egy 500-as lap 10-20-30-40 dolláros chipset jutalékától. Már vastagon fog a ceruza a partnerek felé is.
-
paprobert
őstag
válasz
S_x96x_S #6302 üzenetére
Zen2 magok vágott gyorsítótárral? Másképp fogalmazva még több cache miss, és CCX-CCX-RAM közti latency penalty-vel.
Kérdés hogy a Renoir X mennyivel lehet jobb az E magoknál, tekintve hogy azok architekturálisan néha desktop Zen2 szint körül teljesítenek, itt pedig a méretes L3-ra sem lehet támaszkodni.
Irodai használatra mondjuk elég lesz, de arra mi nem...
-
paprobert
őstag
Szerintem nem kell nem létező termékek után kutatni. Vagyis amit kerestek piacon van már, csak hát éppen az ára nem annyi, mint amennyiért keresitek, jéé...
Az AMD jelenleg nem gyárt 300 dollár alatt normális CPU-t, teszik ezt előre megfontolt szándékkal. Bármiféle szívfájdalom nélkül belefér náluk ez a fogyasztóellenesség, hogy nem szolgálják ki az igényeket.
Egy ideális állapotban a Zen2 lenne dömpingáron hadba fogva az Intel olcsóbb CPU-i ellen. Az R5 3600-nak valahol 50e körül, vagy alatta kellene ma lennie.
Az AMD eljátszotta a 2017-től 2019-ig összeszedett pozitív PR-pontokat. A legutolsó pozitív lépés az AMD háza tájáról a Zen1,Zen+ raktársöprése volt. Azóta CPU és GPU szinten is csak a vásárlók megerőszakolása zajlik, egyre polgárpukkasztóbb ajánlatokkal.
Eljutottunk oda, hogy az AMD két CPU ajánlata közül az kedvezőbb árfekvésű az "elavulásban lévő architektúrát kétszer annyiért mint korábban", és ennek örülni kellene.
-
-
paprobert
őstag
Az AMD elég nagy változások előtt áll. Eddig viszonylag könnyű volt a fejlődés, ám ez megváltozik, ugyanis topológiailag a CCX most elérte a bővíthetőségi maximumát (8), ami felfogható a ringbusz természetes határának.
Ha ennél több kerül egy chiplet-re, akkor már a teljesítmény romlik, és/vagy a hatékonyság, egyre drasztikusabb ütemben az végpontok hozzáadásával.
Ez nagyon hasonló tervezői dilemma, mint az Intel szerver processzorainál az elmúlt 8-10 évben. 12-16 mag felett már hálós interconnect kell, ami desktop-ra lassú.Mike Clark két dolgot említett az Anandtech interjúban, ami tervben van. Azt nem említette, hogy pontosan mikor érkeznek.
1. Szélesíteni fogják a magokat. Ez méret és fogyasztásnövekedéssel jár. Pont mint a Golden Cove. (Érdekes, hogy előre védekezett, hogy a szoftverek nem lesznek készen rá, azaz nem minden gyorsul.)
2. Növelni fogják az L2 méretét, cserébe vissza tudnak vágni az L3-ból. Ez az L2 lassulásával jár, de kisebbé válhat a mag. Mint a Golden Cove.Szóval az AMD is abba az irányba halad, mint az Intel, legalábbis a nagy magok szintjén. Ha tippelnem kellene, ez a Zen5 nagy magja lesz.
Ez összecseng az Abu által itt felvázolt L2 növeléssel, de kizárja azt, hogy ezek "csak normál magok extra képességgel" lesznek. Ha a Zen5 kis magja csak egy megvágott Zen4, a nagy mag pedig ez az új, széles, óriás mag, akkor a különbség már-már Alder Lake-i magasságban van.
-
paprobert
őstag
válasz
Petykemano #5850 üzenetére
A chiplet három dolgot dolgot oldott meg. Az skálázhatóságot extrém magszámig, az olcsón skálázhatóságot, és azt, hogy az aránylag pénzhiányos cégnek csak 1 jól összerakott dizájnra kellett fókuszálnia.
Ha viszont a node már olcsó (már az), és nincs anyagilag megszorulva az AMD (már nincs), akkor több mozgástere van a cégnek hogy elkészítsen akár több monolitikus dizájnt, vagyis már nincs olyan erős kényszer az alsóbb szegmensbe tukmálni a chipleteket.
Amíg az interconnect képes megfelelni a teljesítmény és fogyasztási elvárásoknak egy adott terméknél, ott maradni fog. Ha viszont az IF valahol inkább csak belerondítana a rendszer működésébe, oda már van lehetőségük monolitikus lapkát hozni.
Az Infinity Fabric itt van velünk már vagy 20 éve, csak korábban HyperTransport néven futott, mégsem volt mindig bevethető. Most a gyorsítótár növeléssel kompenzálva vannak a hiányosságai, de kérdés hogy meddig lehet ezt folytatni.
-
paprobert
őstag
9 év AMD fejlődés
(youtube)Kár hogy Vishera, és nem Bulldozer.
-
paprobert
őstag
válasz
ShiTmano #5525 üzenetére
Szilíciumban való jelterjedés sebességével van összefüggésben a dolog.
Ha kitalálod, hogy holnaptól kétszer akkorát raksz a processzorodba, annak meglesznek a trade-offjai elérhető órajelben, késleltetésben, fogyasztásban, illetve abban, hogy esetleg nem illik az eddigi dizájn-filozófiához, és csak a negatívumokat teszed zsebre.
Vagyis a fizika nagyon behatárolja a lehetőségeket.
A RL felemássága is ennek tudható be, pl. azonos órajelen való gaming hátrány a 10. gen-hez képest. -
paprobert
őstag
válasz
ShiTmano #5516 üzenetére
"And lastly a larger L1 and L2 cache may also come with Zen 4 because the less time you spend trying to access data the more time you can spend working on data."
Jim Keller egy videóban említette, hogy azt a 6-8%-ot, amit egy nagyobb L1 cache-sel nyersz, el is veszíted latency-ben. Nem véletlenül van kőbe vésve már évek-évtizedek óta az L1, de az L2 mérete is. A bejárás szám nő csak.
-
paprobert
őstag
válasz
Petykemano #5387 üzenetére
A mostani konzolgenerációban a PC-s játékoknak elméletben (7 mag + SMT miatt) 14 mag kellene, ami elméletben még skálázódna. Valamint a flegmán mellé dobott PC-s overhead, csak tippelni lehet hogy mennyi lesz, címenként eltérően, + maga a Windows.
Szóval értelme lesz a 8+ magnak, de valóban, egyre kevésbé fog megtérülni.
Nincs még Zen2@3.5GHz-et 30-60 fps-re taksáló cím a piacon, mert ahhoz át kell szabni a játékmenetet is, úgy néz ki. Az első kóstoló a next-gen elvárásokból talán a Battlefield 128-as multiplayer részlege lesz.
-
paprobert
őstag
válasz
Petykemano #5313 üzenetére
A moduláció típusa, a vezeték két végén lévő en- és decoder karakterisztikája, ill a vezetékek száma adott esetben, mind tud fejlődni. Networkingnél látjuk, ami ennek az élvonalában halad, hogy rengeteget volt a fejlődés azonos fizikai médiumon keresztüli adatátvitelben az elmúlt években, azaz van tér a fejlődésre.
Vagy másik példa erre a PCIe, amely alatt az összes cég, ill. konzorcium próbálja propagálni a saját zárt(abb) szoftverrétegét.
Vagy pl. kis csúsztatással a GDDR6X is emiatt gyorsult."De ezzel arra utalsz, hogy az AMD nem fogja használni a TSMC packaging technológiát, hanem sajátot fejleszt?"
Csak arra utalok, hogy az AMD akkor fogja használni a TSMC polcról levehető, pénzbe kerülő technológiáját, ha kikerülhetetlen falba ütközik a további skálázásban a saját rendelkezésre álló eszközeivel.
-
paprobert
őstag
válasz
Petykemano #5310 üzenetére
Az IF törvényszerűen követi az egységnyi idő alatt egy vezetéken átküldhető adatmennyiség rekordját, tisztes távolságból. Ha ebben fejlődés van, minden interconnect képes gyorsulni.
"Lehetséges volna, hogy a zen4-be kerüli AVX512 támogatás magával hozza a IFOP cseréjét LSI-re?"
Szerintem az AMD meg akarja úszni hogy TSMC-only technológiára építse fel az egész portfólióját, annak ellenére hogy egyébként szimbiózisban vannak jelenleg. A 3D cache egy viszonylag kockázatmentes projekt ehhez képest.
Az új foglalattal lesz új tracing topológia is, azaz ha nagyobb sávszélességgel terveznek, a lehetőség meglesz a kiépítésére házon belül is. -
paprobert
őstag
Abban a termékszegmensben, ahol az egyre jobb termékek már 200-300 dollárokkal lépkednek felfele árban, kigazdálkodják valahogy.
Nyilván azért csinálják, mert megéri csinálni.
Egyébként lassan vége a kapacitáshiánynak.
CPU-ból már túltermelés van, és amint az eladatlan termékeken realizálódó kieső profit egyenlőséget tesz a GPU részleg eddigi 30%-os dollár/mm2 hendikepje között a CPU-hoz viszonyítva, a GPU termelés is helyre fog állni.
Gyakorlatilag mindegy lesz anyagilag, hogy melyiket gyártja majd az AMD. -
paprobert
őstag
-
paprobert
őstag
válasz
Petykemano #5164 üzenetére
Értem én, hogy keresletnövekedés, na de miért csak késő ősszel, azaz 8-10 hónappal a lezárások után tűntek el a hardverek a polcokról, miért nem rögtön februárban?
Példaként a webkamerák, laptopok hamar el lettek kapkodva, hiánycikkekké váltak a home office rush alatt, kb. a WC-papírral egyidőben, míg desktop hardvert normál áron, normál elérhetőséggel lehetett venni szinte végig. (kivéve 2080Ti)
Aztán eljött az új generáció ősszel, és hopp, se GPU, se CPU.
Szóval a dolgok időzítése nekem bűzlik egy kicsit.
-
paprobert
őstag
válasz
Petykemano #5150 üzenetére
Tökéletesen összefoglaltad.
-
paprobert
őstag
válasz
Petykemano #5033 üzenetére
Csak arra reflektáltam lazán kapcsolódva, hogy mi jön új node-on, vagy marad, illetve mennyire fontos az új CCD.
-
paprobert
őstag
válasz
Petykemano #5023 üzenetére
"A 7nm megtartása mainstream/budget vonalra szerintem továbbra értelmes, logikus döntés lenne. Az 5nm-es gyártás biztos drágább és biztos van annak jobb helye is. Arról nem is beszélve, hogy abu mindig azt mondja, hogy a szerverpiacon sok évre előre kell vállalni azt, hogy adott lapkát fogják gyártani."
Ha csak a fogyasztási karakterisztikát nézed, látod hogy a szerver TDP keretbe erősen beleharap az IO die. Ha ennek a rendszernek a DDR5 közel dupla sávszélességével kellene megbirkóznia, az TDP katasztrófa lenne.
Biztos vagyok benne hogy itt változtatás lesz rövid távon. Szerverben ez talán még fontosabb is, mint egy hatékonyabb CCD.
Az eddigi évekből az rajzolódik ki kimondatlanul, hogy az AMD szerver irányvonala határozza meg hogy mi jut desktopra, és az általad említett mainstream a legkisebb prioritású. -
paprobert
őstag
válasz
Mumukuki #5028 üzenetére
Ez így van, de a cégek mindig kalkulálnak az arch+node párossal. Ha az elköltendő pénz jobban megtérül az architektúrára fordítva, akkor abban lesz nagyobb fejlődés.
Az AMD szempontjából jelenleg ez nem óriási gond. A legújabb node a profitba is belevág, illetve nem jelentene akkora előrelépést, hogy a jelenlegi méretkorlátok mellett a magok duplázását meg lehessen tenni.
Persze ki tudja hogy az AM5-tel és a szerver socket-tel milyen irányba mennek tovább. El tudom képzelni, hogy nagyobb szubsztrát alapterületet hagynak maguknak annak érdekében, hogy egy kevésbé sűrű node-on is el lehessen érni a kívánt magszámot. (a pletykák az LGA-ra váltásról is erre utalnak)
Érdekes lesz látni.
-
paprobert
őstag
válasz
Mumukuki #5026 üzenetére
"Ha nem sikerül Amdnek és főleg az intelnek sávszélességgel versenyezni a közeljövőben az apple lefoglalt gyártással , akkor itt már kevésbé lesz verseny"
Egy egy node-os gyártástechnológiai előny mióta jelent behozhatatlanságot? Tudjuk hogy ezek általában mit jelentenek. 40% sűrűség, vagy 15% teljesítmény vagy 30% fogyasztás.
Inkább az van, hogy az Apple-nek szó szerint bármi áron meg kell mutatnia, hogy mennyire potens az ARM-os jövőképük, és ne csak mindenki kiröhögje őket. Ehhez pedig most a legjobb node kell, még ha égetik is a pénzt jelenleg. Van miből.
-
paprobert
őstag
válasz
Petykemano #4875 üzenetére
Ez szöges ellentétben van a mendemondákkal.
Az milyen már, hogy az NV 2020-ban, a 7nm-es Ampere compute kártyáira(+ a kifutó Turing-ra) többet költött, mint az AMD a Navi, Zen2, Navi2, Zen3, kétféle Xbox és Playstation chipekre összesítve, vagyis a komplett portfólióra.
-
paprobert
őstag
válasz
Petykemano #4857 üzenetére
Kezd helyrerázódni az ellátás, az 5600X-et már akciózzák az USA-ban, $279 a Microcenter-ben.
-
paprobert
őstag
válasz
Petykemano #4350 üzenetére
Köszönöm hogy mutattál forrást. Igen, nagyjából erről van szó.
Pusztán a multicore teljesítmény alapján a 16 magos 5950X tud valamivel több mint kétszeres throughput-ot, azaz elméletben ott van esély 60 fps-re, amikor a konzol már csak 30-at tud. Ehhez kell jól skálázódó motor is.
Egy szálon viszont nem tud kitolni dupla annyi frémet, így ha a szál-limitált motor 30-at teljesít konzolon, és nem skálázódik, akkor sub 60 lesz az eredmény PC-n.
A ma kapható 6, 8 magosak sem single, sem multithread-ben nem tudnak kétszeres teljesítményt szolgáltatni.Az elavulás üteme, és az hogy mennyi ideig tudnak garantálni a mostani PC-s hardverek 60 képkocka feletti futást, csak azon múlik, hogy milyen gyorsan váltanak a fejlesztők.
Rossz kimondani, de vásárlóként a fejlesztők markában vagy, a hardverek számai le vannak mérve, látjuk hogy mit tudnak. -
paprobert
őstag
válasz
Cathulhu #4344 üzenetére
#4332 -t olvasd el újra szerintem.
1. helyzet: A legelső játékok, úgy az első 1-2 évben biztos hogy csak az RDNA2-t használják ki teljesen. Azaz az általad is említett GPU limit lesz eleinte konzolon.
2. helyzet: Azonban ne légy naiv, + egykét év eltelik, és vegyes limit irányába fognak haladni a fejlesztők az érkező új motorokkal a konzolon.1. helyzet: RDNA2 a 30fps mérce-> már most van sokkal gyorsabb GPU PC-re, nem lesz túl nagy gond PC-n a grafikával. (a Jaguar szintet már bőven meghaladtuk.) Mindenki boldog.
2. helyzet: Zen2 CPU és RDNA2 GPU is 30fps mérce egyszerre-> gond lesz PC-n a processzorlimittel, hiába lenne erős GPU elérhető, 60 alatt marad az fps számláló, bármilyen GPU-t raksz mellé bármilyen felbontáson. -
paprobert
őstag
válasz
TESCO-Zsömle #4341 üzenetére
Azt mondod, 10 év kell a fejlesztőknek, hogy hozzák az új motorjaik és elköltsék a 4x teljesítményt?
Én ebben nem lennék annyira biztos.
A múltban a konzol megjelenését követő 2-4 évben bevetették ezeket.Szerk.: #4343 Valahol valamit féleértettél, mert nem egyről beszélünk. A Zen3 jövőjéről van szó.
-
paprobert
őstag
válasz
Cathulhu #4338 üzenetére
A multiplatform játékokat a Jaguar-limit figyelembe vételével tervezték meg eddig. Ezentúl ez egyre többször nem így lesz.
Vizsgáld meg a single- és multicore eredményeket a tesztelt CPU-knál, vesd össze az Athlon 5150-nel, akkor megérted miért futhatnak itt-ott jól a címek.
Nextgen-ben a Zen2 lesz a mérce, az lesz a 30 fps nagyon sok esetben. Call of Duty-ban, ahol a 60 a minimum mindig, ott rendben lesz a PC. Lassabb játékmenetű, 30 fps-re készült, CPU-heavy címeknél viszont esélytelen.
Most nem az alig észrevehető X360 - Jaguar átmenetről van szó, hanem egy közel 10 éves ugrás lesz technológiában.Lesz itt meglepődés, úgy gondolom.
#4339 TESCO-Zsömle
Na igen, de amikor 720p-ben is 30-60 fps között teljesít a géped, az onnantól egy kikerülhetetlen probléma. -
paprobert
őstag
válasz
TESCO-Zsömle #4335 üzenetére
PC hardverről beszélünk még mindig.
A grafikát oda állítod magadnak, ahol jónak érzed. A CPU limit viszont nagyrészt állandó.#4336 Pinky Demon
2 magos CPU-n ma csak a 0 processzorigényű játékok futnak jól, mint a Forza, R6, stb.
Olyan címekben amelyeket limitál a Jaguar, nem tudod, vagy nem akarod elindítani 2 maggal. -
paprobert
őstag
Már hogyne kéne?
A másik topicban Pug is értetlenkedett... Tényleg olyan nehéz elképzelni hogy a fejlesztők elhasználják a konzolokban található négyszeres CPU teljesítményt?
Néhány dolgot említek, amire fel lehet használni az ölükbe hullott CPU erőt:
-Van olyan RT implementáció, ami kéri a CPU-t.
-Nagyobb pályák, több asset.
-Összetettebb AI.
-A mostani 64 fős multiplayer helyett 250+ fő a jelenlegi kóddal.
Vagy egyszerűen csak váltanak egy flexibilis, kényelmes, de viszonylag pazarlóan futó script nyelvre C helyett, hogy gyorsabb legyen a fejlesztés.
Máris elfogyott a ~négyszeres teljesítmény.Ahhoz hogy 30-ból 60 fps legyen a CPU és a GPU feladatait is 33 milliszekundomról 16.6 ms-ra kell levinni. Azaz felezni kell a terhelést.
Ne kelljen már CPU- GPU-limit alapismeretekig lemenni hogy átmenjen... -
paprobert
őstag
Nézd, az általam felvázolt elméleti "Zen2 7GHz", vagy kétszer annyi mag csak irányszám a 60 fps eléréshez, amikor a konzol már csak 30-at tud.
De az holtbiztos hogy ugyanaz a hardver, vagy ugyanaz a hardver + 20% IPC nem lesz kétszer gyorsabb PC-n.
Arról már ne is beszéljünk, hogy a konzolok közvetlenebb elérését beleszámolva még több is kell majd...
-
paprobert
őstag
-
paprobert
őstag
A kérdés úgy fog előjönni, hogy:
7db 3.5GHz-es Zen2 mag éppen elég 30 fps-re a konzolban. Akkor mi lesz elég a 60-ra PC-n?Nagyon tökéletesen skálázódó motorok kellenek, hogy legyen 60 fps 16 maggal. Ha a motorok nem ilyenek lesznek, akkor várhatunk majd az elméleti "7GHz Zen2"-nek megfelelő órajellel és IPC-vel rendelkező asztali CPU-k megérkezésére.
-
paprobert
őstag
válasz
Petykemano #4077 üzenetére
Ezzel gyakorlatilag azt kérdezed, hogy miért nem csinál az AMD egy "nagy" magot.
Jó kérdés. Szerintem leginkább azért, mert a nagy mag DNS-e, illetve amit az AMD nagyjából tudna hozni, az javarészt benne van már a Zenben.(#4084) Yutani
"Gyengébb volt egy 8 magos Dózer egy i7-nél? Igen. Sokkal olcsóbb is volt? Igen. Akkor meg?"
A Bulldozer ellenfele azokban az időkben az i5 volt. Jóval gyengébb single core teljesítmény, nagyon gyenge gaming teljesítmény (majdnem fele minimum fps...), +20-30% multithread teljesítmény, 10%-kal olcsóbban mint az i5, kétszeres fogyasztással. Nem volt jó vásár. -
paprobert
őstag
válasz
Petykemano #4006 üzenetére
A 3600 199 dolláron nyitott.
Vagyis 6 magon +50%-os az áremelkedés.
Új hozzászólás Aktív témák
Hirdetés
- Új Apple iPhone 16 Pro Max 256GB, Kártyafüggetlen, 3 Év Garanciával
- Csere-Beszámítás! Asus Dual RTX 4060Ti 8GB GDDR6 Videokártya!
- BESZÁMÍTÁS! Sony PlayStation4 PRO 1TB fekete konzol extra játékokkal garanciával hibátlan működéssel
- Használt és ÚJ Gamer Monitor Felvásárlás Gyors és Korrekt Ügyintézés!
- HPE Apollo 4200 Gen9 2U rack szerver, 1x E5-2620v4, 64GB RAM, 24x3.5" 2U-ban! ÁFA-s számla, garancia
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest