Hirdetés

Új hozzászólás Aktív témák

  • Cifu

    nagyúr

    válasz Yutani #25549 üzenetére

    Ha az AMD belövi a közvetlen konkurens alá árban a kis Navit

    Itt jön, jöhet ki az a probléma, hogy az nVidia a GTX 1660-asokat 12nm-en gyártatja, míg az AMD a Navi-t 7nm-en. Ami feltehetően drágább. Ehhez képest az RX5700(XT) vs. RTX 2060 Super és 2070 Super tesztek alapján hiába a 7nm, az AMD Navi teljesítmény/fogyasztás terén nem igazán alázza a porba a Turingot. Ami nagy blama. Ezek alapján nem hiszem, hogy az AMD árversenybe tud fogni...

    Ennyire bízik az NV a brandjének erejében.

    Ha innen nézzük, akkor az AMD-nek először a brandjét kellene rendberaknia...
    Az meg úgy menne, ha futószallagon jönnének a Navi-k jó teljesítmény / ár aránnyal, normális hűtéssel és roskadoznának a polcok tőlük. Ebből melyik valósult meg? Amennyire én látom, semelyik...

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • b.

    félisten

    válasz Cifu #25551 üzenetére

    Nvidiánál az a probléma a Turinggal, hogy kizárólagos nekik készített gyártósort használnak- direkt nekik készítette a TSMC ezt a csíkszélt és sort, senki más nem gyártat rajt.
    Elméletileg az volt a pletyka anno, hogy a Turing a Samsung 10 nm re volt tervezve aztán ( gondolom a hatalmas méretű GPU-k miatt, amiben nincs tapasztalata Samsungnak még, legalább is Abu szerint) maradtak TSMC nél, akik horror összegért oldották meg a problémát- állítólag.
    Szóval az egésszel azt akarom kinyögni, hogy az Nvidia Turing gyártása is kb annyiba kerülhet, vagy még akár többe is, mint a 7 nm AMD nek és ez mellé még jön az a dolog, hogy a Turing GPu-k hatalmas méretűek.
    Szóval AMD nek a Navi akár olcsóbb is lehet, mint Nvidiának a Turing.
    Az viszont a zöldeknek minéképpen jó hír, hogy Samsung alá ígért TSMC nek, a másik fele meg hogy elméletileg a most használt csíkszélhez képest ha semmit nem csinálnak a Turinggal csak átreszelik 7 nm re akár 50 % előrelépés is lehet. De Nvidianál általában azért áttervezi a GPU kat szóval szerintem a 7 nm nagy ugrás lesz neki, ha egy 14 nm gyártáson( mert a TSMC 12 nm az igazából 14 nm +) erre képesek.

    Samsung a saját 10 nm gyártására azt nyilatkozta, hogy 20 % gyorsulást képesek vele elérni akár 40 % fogyasztáselőnnyel a 14 nm hez képest. Most akkor ezt rávetítve a 14 nm vs 7 nm re ez a szám még szebb lehet.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • paprobert

    senior tag

    válasz Cifu #25551 üzenetére

    Ne felejtsük, a most tervezett AMD kártya a GT 1030 kategória méretben. Piszok olcsó lesz gyártani, de egy tierrel magasabban van eladva.

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

  • Z10N

    veterán

    válasz Yutani #25549 üzenetére

    Az a baj, hogy meg arcsokkentessel se ernenek el sok mindent. Mint ahogy a $379-rol $349-re csokkentes se ert sok mindent. Tegyuk fel, hogy kap megint arcsokkentest eleve "olcsositva" kezd es az 5600XT kap egybol $30 vagast $219-ral, azaz a 1660 ellen menne arban. Az meg mindig draga ar ertek arany (Rx570).

    Miert is foglalkoznanak vele. Sok sku-val lefedett palettajuk van. Az arazas az mar mas kerdes...

    A brandet/RT-t most ne keverjuk ide. Csak azzal az egyszeru tennyel foglalkozzunk, hogy van kartyajuk ebben a szegmensben es erre jon meg a 1660 Super (1650Ti), amit korabban rosszul mondtam, mert kozelebb lesz a 1660Ti-hez a 14Gbps memoria miatt (1660 Ti 12Gbps).

    Az Rx570 szep es jo, foleg $120-ert verhetetlen (hasznaltan meg $60-70-ert). De ez mar harom eves uarch.

    # sshnuke 10.2.2.2 -rootpw="Z10N0101"

  • Z10N

    veterán

    válasz Cifu #25550 üzenetére

    Meglehet. Azzal validalna a leaket is. De se cpu, se gpu bejelentes nem volt...

    # sshnuke 10.2.2.2 -rootpw="Z10N0101"

  • b.

    félisten

    [LG’s 2019 OLED TVs are getting Nvidia G-Sync support]
    HDMI 2.1 :)

    Egyébként 182$ fölött van a részvényük :)

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • X2N

    senior tag

    válasz b. #25556 üzenetére

    Akkor megvan a következő monitorom. :))

    [ Szerkesztve ]

    Launch code for russian nukes: 97 99 116 105 118 97 116 101 32 100 101 97 100 32 104 97 110 100

  • b.

    félisten

    válasz X2N #25557 üzenetére

    lehet jó lesz olcsóbb is hozzá, nem kell feltétlenül LG OLED :)

    [link]

    "If you don’t own a LG TV, but do own a display or TV that only supports Variable Refresh Rates via HDMI, you can try enabling HDMI VRR when the aforementioned driver is released. As these displays and TVs haven’t yet been through our comprehensive validation process, we can’t guarantee VRR will work, or work without issue."

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Dyingsoul

    veterán

    Sziasztok!
    Kicsit visszaolvasgattam és nem láttam ezért érdeklődnék:
    Van már valami hír a 3000-res szériáról vagy még mindig a GTX 770-970 szintű kártyákból adogatják ki az MZ/X változatokat?

    [ Szerkesztve ]

    - Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul

  • Cifu

    nagyúr

    válasz Dyingsoul #25559 üzenetére

    Nincs semmi komolyabb információ. 7nm-en fog készülni, feltehetően részben a Samunál, várhatóan 2020 közepén jelenthetik be, és kb. ennyit tudni. Amíg az AMD és az Intel nem fenyegeti őket (és 2020-ig várhatóan nem fogja), addig nem kell kapkodniuk...

    Az AMD Arcturus (RDNA2) és az Intel Xe / Artic Sound (mindkettő hardveres Ray-Tracinggel) 2020-ra várható. Mondjuk az előbbivel kapcsolatban vannak kétségeim, hiszen az RDNA1 paletta is iszonyatosan foghíjas még mindig, az Intel Xe / Artic Sound pedig "csak" 10nm-en fog készülni állítólag.

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Dyingsoul

    veterán

    válasz Cifu #25560 üzenetére

    Köszönöm! :R

    - Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul

  • FragMaster

    addikt

    válasz Cifu #25560 üzenetére

    Legújabb szóbeszéd szerint nem úgy van, hogy az Arcturus az valami Vega-alapú professzionális kártya lesz?

    "FragMaster felhasználónak 11 pozitív és 0 negativ értékelése van a fórumon!": http://goo.gl/vYc6Ml

  • Cifu

    nagyúr

    válasz FragMaster #25562 üzenetére

    Ezt is és azt a verziót is olvastam. Szóval lehet, hogy tévedek, és neked van igazad...

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Petykemano

    veterán

    MWC keynote

    Volt valami NVidia android/arm készülék shipment log. DE nem találom.

    Készül valami tegra?

    Találgatunk, aztán majd úgyis kiderül..

  • b.

    félisten

    válasz Petykemano #25564 üzenetére

    valószínűleg az új shield( ben) lesz az.

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • b.

    félisten

    Abu85 : Csak egy halk kérdés: komolyan megvárjátok a kisebb Turing kártyák tesztjével az 5600 megjelenését? Addig nem teszteltek Nvidia terméket, még ha fél éve a piacon is van és nálatok van hónapok óta,amíg nincs egy olyan AMD kártya ami mellé betehetitek és az gyorsabb nála, persze first day teszttel?

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Abu85

    HÁZIGAZDA

    válasz b. #25566 üzenetére

    Nem tudom. Most én szabin vagyok. De eleve nem veszek részt a tesztek szervezésében. Csak segítek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • imi123

    őstag

    válasz Abu85 #25567 üzenetére

    Jó pihenést főni. :)

    Tévedni emberi dolog, de állati kellemetlen.

  • Locutus

    veterán

    válasz b. #25566 üzenetére

    Gondolj bele egy ilyen teszthez mennyit kell agyalnia synthwave-nek, hogy kitaláljon 64 ezer db izzadtságszagú szinonímát, amivel megfelelően hozza a 10 éves vérpistikék fogalmazási színvonalát :) Azért ebben munka van ám, ahhoz meg idő kell... ;)

    Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html

  • b.

    félisten

    válasz Jacek #25570 üzenetére

    Ez egy béna érv, ezt érzed.
    A részemről meg már annak is örülnék , ha lenne . De nincs. 6 hónappal a megjelenésük után+ ott a hardver náluk.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • b.

    félisten

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Jack@l

    veterán

    válasz b. #25572 üzenetére

    Valószínű csak akkor váltanak ha már szinte minden játék RT-t használ.

    A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

  • b.

    félisten

    1650 Ti Október 22 ? [link]
    155$ átszámolva,de szerintem több lesz az. 180$ körül?

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • X2N

    senior tag

    Launch code for russian nukes: 97 99 116 105 118 97 116 101 32 100 101 97 100 32 104 97 110 100

  • smc

    addikt

    válasz X2N #25575 üzenetére

    Áprilisi videó. :F

    5600X 2x16GB 6800XT | i5-3570 2x4GB 1050TI | MS Surface Book | iPad Pro 12.9 | iPhone X | iMac e2008

  • Cifu

    nagyúr

    Radír találgató topicból, @Abu85: Az NV-nek viszont nincs semmije, amivel a piac kis méretét ellensúlyozni lehetne, így azokon az árakon, amik most vannak, egyszerűen nem éri meg. Ha lenne PC-s processzoruk, vagy akár az okostelefonpiac egy részét uralnák, akkor megérhetné, mert a GPU-k gyenge nyereséghányadát kompenzálná más termék.

    Itt a matek sehogy sem jön ki, ha csak a 2019Q2-őt nézzük is, az nVidia több, mint 10x akkora nyereséget realizált, mint az AMD. Ha bevétel oldalon nézzük, akkor az nVidia kétszer akkora forgalmat csinált, mint az AMD.

    Gyenge nyereséghányad? Az nVidia a 12nm-es Turing-al megoldja azt a teljesítmény/fogyasztás és nagyjából a teljesítmény/ár szintet, mint az AMD 7nm-el. Ilyen feltételek mellett rohadt könnyű nyereségesnek lennie a zöldeknek, mivel (elvben) olcsóbb a gyártás. Erre volt az a reakció korábban (talán b.-től), hogy az nVidia rohadt drágán gyártat a TSMC-nél, mert hogy speciálisan nekik lett egy gyártósor felállítva.

    Most erre az a szöveg, hogy az nVidia nem tud (?!?) versenyezni az AMD-vel és a Qualcomm-al a TSMC 7nm-es gyártáskapacitásáért, mert utóbbiak sokkal nagyobb szereplők? Hát a Qualcomm mennyiségre és bevételre lehet, hogy többet produkál, de nyereségre még mindig sehol sincsenek az nVidia-hoz képest. Az AMD meg a kanyarban sincs hozzájuk képest, még mindig... :(

    Más szóval, nehezen hiszem el, hogy adott esetben az nVidia ne tudna árversenybe bocsátkozni az AMD-vel vagy a Qualcomm-al, ha kellene... Inkább az lehet a realitás, hogy nem űzi őket a tatár, egyszerűen kényelmesen elvannak a Turing-al így is... Sajnos... :(

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Abu85

    HÁZIGAZDA

    válasz Cifu #25577 üzenetére

    Nem tud. A TSMC-nél meg kell érteni, hogy a gyártósorokért licitálni kell. Az NVIDIA-nak nincs olyan piaca, amivel olyan jó liciteket tudnának leadni, mint a Qualcomm, az AMD, vagy az Apple. Az AMD például biztosan nem gyártanak 7 nm-es GPU-kat, ha nem gyártanának ott CPU-kat is. Egyszerűen a GPU-k piacát tekintve nem elég jó a waferár, viszont a CPU-k piaca négyszer nagyobb, és a nyereséghányad is több. Emellett a CPU-s szerverpiac, ahol rengeteg pénz van, méretben nagyjából a százszorosa annak, mint a gyorsítók piaca a szervernél, tehát pusztán emiatt megéri drágán gyártatni, mert célozni tudnak egy nagyon masszív nyereséget biztosító piacot, ahol ráadásul pár százalék részesedésük van jelenleg, és a konkurensük is azt prognosztizálja, hogy 20% fölé kerülnek, hiszen az a fő terv, hogy ezalatt kell tartani őket. Az NVIDIA lehetőségei ezeket nem engedik meg, ha megengednék, már rég lenne 7 nm-es GPU-juk, mert egyszerűen csak több pénzt kell kínálni a versenytársaknál, de egyszerűen ez nem fér bele.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Petykemano

    veterán

    válasz Abu85 #25578 üzenetére

    Szerintem ezt sokan nem értik. Pont azért, mert az nvidiának ott rengeteg nyeresége, amiből tudna licitálni, az AMD-nek meg nincs nyeresége.

    Értjük, hogy egy eladott szerver CPU-n sokkal vastagabb a nyereség, mint egy eladott GPU-n, de ezzel azt akarod mondani, hogy az AMD-nél úgy áraznak és úgy számolják a gyártási költségeket, hogy az összes eladott lapka bevétele minusz összes wafermegmunkálási költség - és nem pedig terméktípusonként?

    Jó lenne, ha példákkal tudnád illusztálni

    Találgatunk, aztán majd úgyis kiderül..

  • Cifu

    nagyúr

    válasz Abu85 #25578 üzenetére

    Nézd, dőlj egy kicsit hátra, és gondolkodj az nVidia fejével. Mi a fenének nekik most 7nm?

    A 12nm-es Turing simán hozza a 7nm-es Navi teljesítmény/fogyasztás szintjét az 5700(XT) kategóriájában.
    Ha valóban éles verseny lenne a dGPU piacon, akkor valószínűleg bevállalták volna a 7nm-et, és nem az RTX 20x0 Super szériával foglalkoztak volna. De a Navi ellen még a Turing is bőven elég, azt látjuk...

    Élek a gyanúval, hogy az nVidia pénzügyi jelentése tehát 2019Q3 és Q4-ben is milliárd feletti nyereséget fog produkálni, az AMD meg legfeljebb a töredékét...

    Az nVidia az Ampere esetében már 7nm-el jön, ez eldőlt már egy ideje. Ha ott esni fog az nVidia nyeresége, akkor elhiszem, hogy ennyire gázos az nVidia helyzete, de a jelek most ennek ellenkezőjéről szólnak, és nehezen tudom elhinni, hogy az AMD inkább belicitál a nVidia ellenében úgy, hogy a nyeresége sehol sincs az utóbbihoz képest...

    [ Szerkesztve ]

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #25579 üzenetére

    Amikor ilyen döntéseket hoznak, akkor a piac nagyságát nézik. Ha nem elég nagy a piac a megfelelő nyereséghányad realizáláshoz, akkor csak nagyon indokolt esetben éri meg az új csíkszélességre való átállás. Mint írtam, ha az AMD nem gyártatna ott CPU-kat, akkor GPU-kat sem csinálnának 7 nm-en. Egyszerűen nem érné meg anyagilag. De azzal, hogy a CPU-k kompenzálják a GPU-k, piacból eredő specifikus problémáit, már megéri. Az NVIDIA viszont nem tud mivel kompenzálni.

    (#25580) Cifu: 7 nm-re átállni nem egyszerű. Minél hamarabb kezded meg, annál több lesz a tapasztalatod, és annál jobbak lesznek a lapkák. Nem véletlen, hogy az AMD is csinált rá egy pipe-cleanert a Vega 20-szal. Ez nagyon kritikus tényező volt ahhoz, hogy a többi lapka jobb legyen. Ráadásul az EUV még nehezebb az átállás szempontjából, mert több berendezés új, tehát egy sokkal több ismeretlennel rendelkező egyenletre dolgozol. Ez nem csak a nyereségről szól. Ha csak arról szólna, akkor senki sem váltana 28 nm-ről, mert arányaiban ott a legolcsóbb a gyártás, viszont számtalanszor bebizonyította már a történelem, hogy hamarabb lépni előny, ahogy egy pipe-cleaner is, mert van mit tesztelni.

    Mint írtam fentebb maga a piacnak óriási jelentősége van. A GPU-piac nudli a CPU-hoz képest, tehát csak a GPU-piacért nem éri meg váltani. Nincs benne az eladás és a hozam, hogy megérje egy olyan drága node, mint a 7 nm. Meg kell várni amíg a TSMC kiépít egy rakás gyártósort, és akkor sokkal olcsóbb lesz a wafer, vagy el kell menni a Samsunghoz, legalább részben, az olcsóbb lapkákkal, mert azon is sokat lehet spórolni. Ezzel a lehetőséggel egyébként úgy tudom az AMD is szemez, nyilván a Samsungnak nincs nagy tapasztalata a nagy lapkákkal, de kis lapkákat tekintve elég jól gyártanak, tehát megéri oda vinni ezeket, mert többet nyersz az alacsony waferárral, mint amennyit a TSMC jobb gyártási eljárásával.

    Egyébként ettől a nyereség nem fog csökkenni. Pont az a lényeg, hogy ne csökkenjen, addig várnak, amíg a node annyira elérhető árú nem lesz, amíg ezt el nem lehet érni. Ha mondjuk jó lenne, hogy a nyereséget megfelezik, akkor már ott lennének rajta.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Cifu

    nagyúr

    válasz Abu85 #25581 üzenetére

    Minél hamarabb kezded meg, annál több lesz a tapasztalatod, és annál jobbak lesznek a lapkák.

    Én ezt el tudnám fogadni, de akkor a Navi-nak a sárba kellett volna tipornia a Turingot. Ez nem történt meg. Mivel egy teljes gyártástechnológiai lépcsővel előrébb jár az AMD, erre egy logikus válasz lehet: a Navi egyszerűen kevésbé jó (versenyképes) technikailag, mint a Turing...

    Ez nem csak a nyereségről szól.

    Nyilván nem, de ha az nVidia veszélyben érezné magát, akkor a nyereségből többet fordítana az R&D-re, és esetleg még előre is hozta, hozhatta volna az Ampere-t, akár csak egy teszt-megoldással (mondjuk egy RTX Titan 2-vel).

    A GPU-piac nudli a CPU-hoz képest, tehát csak a GPU-piacért nem éri meg váltani.

    Továbbra is: ha a GPU piac nudli, akkor az nVidia-nak miért volt csak Gaming GPU-kból akkora forgalma 2019Q2-ben (1,8 milliárd $), mint az AMD-nek kompletten, CPU-stól, GPU-stól, Semi-Customostól (1,53 milliárd $)? :F

    Persze, éppen a Zen2 előtti időkről beszélünk, mert július már Q3, de nagyon kíváncsi leszek a számokra. De ha az igaz, amit állítasz, akkor az AMD forgalmának meg kéne minimum duplázódnia, hogy értelme legyen. És akkor is csak akkora forgalma lesz, mint az nVidia-ának, várhatóan (bár ott meg jöttek a Super kártyák, tehát....).

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Abu85

    HÁZIGAZDA

    válasz Cifu #25582 üzenetére

    Mert nem néztétek meg az architektúra komplexitását, és a Navi eléggé regiszter és gyorsítótár-monster, illetve az egyszálú teljesítményre van kigyúrva, míg a Turing még nem igazán mozdult el ebbe az irányba. Nincs meg a regiszterbüdzsé az NV-nek, hogy ezt bevállalják. Majd 7 nm-en ők is megteszik ezeket a lépéseket, amikor már nem kell szűkre szabni a regisztereket és gyorsítótárakat, így az egyszálú teljesítményre is tudnak gondolni. Ez igazából ma még nem számít, mert a Microsoft csak nemrég tette elérhetővé a variálható wave-méretre vonatkozó változásokat a shader modellben. Azt nyilván le kell majd fedni hardveresen az NV-nek is, ahogy az AMD megtette a Navival.

    Itt a gyártásra kellene többet fordítani. Az R&D így is megvan.

    Mert olcsó a 12 nm-en gyártatni. Pont ugye az a lényeg az átállás mellőzésével, hogy magas legyen a nyereség. Persze ez majd akkor visszaüthet, amikor jön a 7 nm-es fejlesztésük, és kevés a tapasztalat rajta, mert arányaiban nem érte meg drágán beleugrani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • b.

    félisten

    válasz Cifu #25582 üzenetére

    Mindent pontosan megfogalmaztál ami bennem akkor és most is felmerult. Nem akartam ezt a témát ott tovább boncolgatni, Mert könnyen jön a troll jelző rám.

    Azt sem értem ha volt 7 nm pipecleaner amit Abu ír abból nekem azt jön le, hogy Nvidia azé nem állt rá többek között, mert az "nem olyan egyszerű ám".
    Abban biztos vagyok hogy amire képesek AMD nél, arra képesek a zöldek is.
    Az is biztos, hogy attól, hogy nem durrogtatnak a levegőbe, hogy most itt az első 7 nm satobbi, kidolgozott koncepciójuk van legalább 2 generációra, amiben benne van a gyors reakció lehetősége, lásd 1070 TI, RTX szuper széria. Jensen mikor azt nyilatkozta, hogy ez a verseny a tervező asztalon dőlt el, nem a csíkszélen(Radeon 7 megjelenése után) akkor nem beszélt félre.
    Arról ne is beszéljünk, hogy Nvidia úgy jött ki 12 nm-n a Turinggal, hogy előtte nem volt semmiféle Pipecleaner és senki nem gyartatott rajta TSMC nel.
    Ha akarna versenyeznek a 7nm re és tudna annyit fizetni, ebben biztos vagyok, de a profit és a teljesítmény magáért beszél, a többi pedig marketing tapasztalat nélkül is józan paraszti ész kérdése lenne.

    Abu.:Hányszor lvastam,higy a zöldeknek kell felzarkoznia az éppen megjelenő AMD hez tőled. Soha nem lett igazad.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Abu85

    HÁZIGAZDA

    válasz b. #25584 üzenetére

    Pipecleanerje azért volt az AMD-nek, mert nem eléggé egyértelmű a 7 nm-es node ahhoz, hogy pipecleaner nélkül kis kockázattal megoldható legyen. Nem mindig éri meg a pipecleaner lapka, régen is volt már, amikor ezt alkalmazták, de a 7 nm-re erősen ajánlott. Rendkívül nagy kockázat megcsinálni a váltást pipecleaner nélkül.
    A pipecleaner lapkák egyébként akkor jönnek elő, amikor az adott tranzisztorstruktúra a végéhez közelít. Például 40 és 28 nm-en. Viszont amikor bejött a FinFET, akkor ez megszűnt a gyártók részéről, mert egyszerűen működött a dizájn. Viszont most a FinFET is a végét járja, így újra jönnek a pipecleanerek. Amikor majd jön GAAFET, akkor megint szükségtelenné válnak, majd a GAAFET-nek is lesz egy végpontja, ahol ismét kellenek pipecleanerek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Cifu

    nagyúr

    válasz Abu85 #25583 üzenetére

    Mert nem néztétek meg az architektúra komplexitását, és a Navi eléggé regiszter és gyorsítótár-monster, illetve az egyszálú teljesítményre van kigyúrva, míg a Turing még nem igazán mozdult el ebbe az irányba.

    Javíts ki, ha tévednék, de már csak azért sem ennyire egyszerű, mert az AMD Vector ALU-kat használ (ill. 32db INT32/FP32 vector ALU és egy INT32 skalár ALU) , míg az nVidia skalár ALU-kat (16-16db FP32 és INT32, plusz két FP64 ALU, a Tensor magok meg mátrixban számolnak, de a játékoknál eddig nem sok mindenre jók).

    Más megközelítés, így a regiszterek és gyorsítótárak terén sem biztos, hogy jó ötlet egymás mellé venni őket. BTW ha jól rémlik mondjuk az 5700XT és a 2070 Super meglepően hasonlít egymásra e téren is, és nem áll rosszul a Turing.

    Navi 10: 2 CU megosztozik egy 32 KB utasítás L0 cache-en és egy 16 KB skalár adat cache-en, de mindegyik CU-nak van egy saját 32 KB vektor L0 cache-je; amelyek mind egy 128KB-os L1 cache-hez csatlakoznak, amely egy 4MB-os L2 cache-ből van táplálva.

    Ha innen nézzük, akkor 32(?)+16+32 = 96 KB L0 (noha nem adható össze, most vegyük így), majd 128KB L1, majd 4MB L2.

    Turing TPC: Mindegyik SM-nek négy végrehajtó egysége van, egyenként 64KB-os regiszterrel, amelyek végén 4x 96 KB osztott L1+megosztott memória van (32+64 vagy 64+32KB e téren). Ezek 6MB L2 cache-hez csatlakoznak,

    Ha innen nézzük, akkor 4x 64KB L0 (bár ez nem igazán helyes hasonlítás), majd 4x 96KB L1 (megint nem teljesen analóg a NAVI L1-el) és végül 6MB L2.

    Szóval én nem igazán látom azt, hogy a Navi regiszter- és gyorsítótár-monster lenne, legalábbis a Turinghoz képest. Alapvetően egyik sem viszi a prímet, a programozás oldalról nagyon fontos, hogy kezelik mindezt, minden esetre ugye az AMD azt állítja, hogy a Navi felépítése kevesebb adatmozgatást igényel és állítólag alacsonyabb a késleltetés...

    Ez igazából ma még nem számít, mert a Microsoft csak nemrég tette elérhetővé a variálható wave-méretre vonatkozó változásokat a shader modellben.

    Ha a wave (nVidiául: warp) variálható lesz, az hol fog előnyt jelenteni?
    Ha nem tudja feltölteni a wave-et adattal, akkor fél wave-et indít majd? Vagy mi?

    Azt nyilván le kell majd fedni hardveresen az NV-nek is, ahogy az AMD megtette a Navival.

    Megint ott vagyunk, mint anno a GCN esetében, ahol elviekben marha jó a CU felépítés. Gyakorlatilag meg azt láttuk, hogy ott jó csak valójában, ha erre kondicionált feladatokat kapnak. A Mantle / Vulkan tök jó, de DX12-ben már korántsem egyértelmű. Csak éppen maroknyi Mantle / Vulkan játék jött, DX12-es meg sokkal több....

    Itt én megint azt látom, hogy a fejlesztőktől fog függeni, melyik megközelítés lesz előnyben. E téren volt az nVidia eléggé erős eddig is, mert masszírozták a fejlesztőket a saját megoldásaikkal. Mi a garancia arra, hogy ez most másképpen lesz? Ne mond, hogy azért, mert a konzolokon az AMD féle megközelítés működik, és a fejlesztők nem fognak szórakozni vele, mert ez a GCN / XBox / PS4 esetében is be volt lengetve, aztán ehhez képest korántsem azt láttuk, hogy a GCN kártyák hülyére verték a konkurens nVidia kártyákat a játékokban... :U

    [ Szerkesztve ]

    Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.

  • Abu85

    HÁZIGAZDA

    válasz Cifu #25586 üzenetére

    Ennél bonyolultabb. Maga a vektor és skalár felállás az etetés szempontjából mindegy, mert ugyanúgy SIMT mindkét rendszer. Az eltérés oka sokkal inkább a régebbi döntésekből következik, és mivel nem éri meg nulláról újratervezni, azért egyszerűen csak elfedik egy réteg alá az ALU típusát, felette pedig ugyanúgy etetik őket. Ez könnyebb, mint nulláról újracsinálni mindent. Régen ez számított, amikor még nem SIMT-ek voltak a hardverek, de ma már igazából lényegtelen. A vektornak csupán annyi előnye van, hogy sokkal könnyebb rá több precizitású, több adattípust támogató módot tervezni, ezért használ az NVIDIA külön ALU-kat az eltérő precizitáshoz és adattípushoz, míg az AMD egyszerűen csak beletervezi az egészet a vektorba, mivel nekik ez sokkal könnyebb. Az NV is megtehetné ezt a skalárra, csak annak az a hátránya, hogy amíg az AMD egy vektorra csupán egyszer építi be a multipreciziót biztosító hardvert, addig az NVIDIA-nak ugyanezt 16-szor kell megtenni, hogy hozza ugyanazt a működést, és így már ugye a tranzisztorköltség nem mindegy. A játékokban viszont ezért nem jók sok mindenre az extra magok, mert ezek nincsenek az API-n belül definiálva. Ehhez pont multipreciziós ALU kellene, hogy vektor vagy skalár az mindegy, de persze tranzisztorköltségben jobb a vektor.

    A regiszterek és a gyorsítótárak tekintetében szintén eléggé mindegy, hogy milyenek az ALU-k. A mai GPU-k már nem úgy vannak felépítve mint régen, hogy egy ALU-hoz fix regiszter tartozik. Sokkal inkább van egy vagy több regisztertömb a multiprocesszoron belül, és azon osztoznak a feldolgozók. Ha megnézed, akkor az NVIDIA és az AMD is ugyanúgy egységes SIMT-hez köti a regisztert. Ennek nagyon prózai oka van: így hatékonyabb.

    Azért nagyon sokban különbözik a Turing és az RDNA multiprocesszora. [link] - ebben pont össze van hasonlítva az RDNA, a GCN és a Turing. Elég bonyolult téma, de körbejártuk annyira, amennyire lehet.

    Az API-kat felesleges idevenni. A Vulkan valójában kedvezőbb az NVIDIA-nak, mint a DirectX 12. Ami miatt azt látod, hogy nem az, az a driver, illetve az a probléma, hogy PIX-hez hasonló képességű debug+profilozó képességeket a Renderdoc+RGP ad, tehát amikor egy Vulkan port készül, azt nem igazán lehet jól profilozni NVIDIA és Intel hardveren. Ezen szerencsére dolgoznak, de óriási hátrány, hogy az Intelnek és az NVIDIA-nak nincs Renderdoc-kal interoperabilis profilozója, mert amíg az AMD-nél egy kattintás ellenőrizni valamit, addig az Intel és az NVIDIA GPU-kon egy rakás extra munka. DirectX 12-n azért nincs ilyen gond, mert a Microsoft fejlesztőeszköze, vagyis a PIX eléggé átfogó mindhárom gyártóra vonatkozóan, így hasonlóan egy-két kattintás ellenőrizni a kódot gyártótól függetlenül. Tehát a Vulkan API-n futó játékokon egyáltalán nem azt látod, hogy a hardver rossz lenne, hanem azt, hogy az NVIDIA-nak kell 3-4 hónap, mire rendbe rakják a kiadott kódot. Aztán most már látod, hogy megy a World War Z, illetve a Strange Brigade is, csak kiadáskor ebből gond van, mert a fejlesztő számára nincsenek megadva azok a profilozási lehetőségek, amiket az AMD fel tud kínálni, így aztán persze, hogy lassabb lesz a kiadott kód. De ennek semmi köze ahhoz, hogy a hardver mire alkalmas, és legkevésbé a GCN/RDNA előnye ez a Turinggal szemben. Színtisztán az AMD szoftveres háttere az explicit API-ra driverestül és profilozóstól jobb. Itt még mindig azt nyögi az NV, hogy nem volt Mantle-jük, így évekkel később tudták először kipróbálni, hogy mire van szükség explicit API-val. De a hardver tekintetében már egyáltalán nincs problémájuk. Szoftveresen persze le vannak maradva, de az AMD négy évvel korábban kezdte meg ezt az egészet. Persze, hogy az a négy év érződik a szoftveres háttér minőségében, de még egyszer hangsúlyozom, a hardvernek ehhez semmi köze. Ugyanúgy a No Man's Sky-t is rendbe fogják rakni, csak szükségük van az adatokra, amiket az NV ki tud nyerni, de önállóan egy fejlesztő nem biztos, hogy hozzájut megfelelő fejlesztőeszköz nélkül. Kb. ugyanaz a sztori, mint a World War Z esetében, 3-4 hónap múlva majd jön egy driver+patch, amivel lesz sebesség és stabil lesz a játék GeForce-on.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • b.

    félisten

    válasz Abu85 #25585 üzenetére

    Pipecleanernek elfogadható lesz mondjuk egy pletyka szinten lengedező új professzionális kártya, 7 nm-n csak kérdés melyik gyártótól. Most ha meg akarják mutatni a délkoreaiak, akkor Samsung lesz EUV val. De Én még mindig elképzelhetőnek tartom, hogy a következő generáció nem 7 nm fog jönni, hanem valami fél NOD bevetésével.(8nm?)
    Főleg, hogy egy hete megint 182 dollár fölött volt a részvényük,megint osztogatják búsan a jutalékokat, úgy gondolják ráérnek.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Abu85

    HÁZIGAZDA

    válasz b. #25588 üzenetére

    Persze. A pipecleanert nem kell nagy mennyiségben gyártani. Az kvázi egy éles teszt. Onnan, hogy gyártják, már mérhetők az eredmények, és ez már segít az új lapkákra vonatkozó döntésekben.

    Szám szerint a 8 nem hangzik rosszul, de ez tényleg csak egy szám. Valójában a 8 nm az nem igazán előrelépés a 12 nm-hez képest, hiszen az csak egy 10 nm-es half-node. Attól, hogy a 7-es csak eggyel kisebb a 8-nál, a valós különbség még sokkal-sokkal nagyobb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • paprobert

    senior tag

    válasz b. #25584 üzenetére

    Azért nem állt át új gyártástechre az NV, mert egyelőre semmi nincs ami miatt a fülük botját is mozgatniuk kéne.
    Az Turing hasít régebbi node-on is, hiába nagyok a lapkák, a régi gyártástech miatt így is egész olcsó. Csak rajta kell tartaniuk a nagy piros GYÁRTÁS gombon az ujjukat, és dől a pénz.

    Szinte érzem hogy az NV a nagy Navi piacrakerülésére időzíti a frissített node-os új generációt.
    Hogy melyik node-ot választották? A jó ég tudja, de biztosan egy olcsósított, kifejezetten nem nem élvonalbeli, csak good enough megoldást választottak. (gyakorlatilag bármit a Samsungtól)

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

  • b.

    félisten

    válasz Abu85 #25589 üzenetére

    Köszi az infót :DDD :DDD

    ezzel tisztában vagyok, csak a mostani Turing 12 nm meg valójában 14 nm( Ami így még jobb színben tünteti fel a fogyasztási eredményeket és a Turing tervezési sajátosságait egyébként) Samsung a 10 nm re 10 % óraelemelkedést és 10 % kal kisebb fogyasztást abszolvál kb a TSMC / NV 12 nm Hibrid NOD hoz képest első sorban aminek a második fázisa már 15 % kal kisebb fogyasztást eredményez,de ezt engedjük el mert erre szerintem felesleges váltani 12 nm ről.
    Nézzük a 8nm fél NOD ot, amire Samsung azt nyilatkozta, hogy a 10nm+ hoz képest 10 % kal kisebb lapkákat tudnak gyártani 10 % fogyasztáselőnnyel.

    Ez rávetítve a 12 nm re azt jelenti, hogy a 8 nm hozna a Mostani Turingon 20-25 % kal kisebb lapkákat 15 % ólrajemeléssel és kb 25 % fogyasztáselőnnyel ami már elég jól hangzik,de azért egy genhez kérdőjeles. Ha ehhez hozzávesszük , hogy át is tervezik a Turingot és az Ampere / Turing refresh valóban dupla RT maggal jön és hoznak architekturális módosításokat( tegyünk rá 5 % előrelépést mondjuk) így kb 30 % előrelépést jelenthet a mostani genhez képest 8 nm-n.

    Ha ezt 7 nm re nézzük, ott 20 % órajelemelést akár 40 % fogyasztáselőnyt is eredményezhet ugyan ennyi méretcsökkenéssel, így kb a mostani1660 Ti méretében és fogyasztásában tudnának hozni 2080 teljesítményt ,azaz kb ezt várnám el az Nvidia 7 nm től.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Loha

    veterán

    válasz Cifu #25577 üzenetére

    Jól látsz mindent,
    Abu85-től meg mindig kérjél forrást, mielőtt bármit elhiszel neki... ;]

    A PC gaming soha nem olyan erős és akkora piac mint most, csak nagyon nehéz mérni, de pl. a játék eladások elég jó indikátor (PC passes PS4 to become Ubisoft's top revenue generator), meg sok gaming cucc, amiket vesznek is a népek.

    A TSMC 7nm-én az NV-nek ellátási gondjai lennének, ahogy az AMD-nek is vannak a 7nm-re való nagy kereslet miatt, de az AMD-nek nem volt választása az NV-nek meg igen.

    "The lead time for production of 7nm chips at Taiwan Semiconductor Manufacturing Company (TSMC) has extended to nearly six months from the previous two months because of strong demand, according to industry sources."

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz b. #25591 üzenetére

    Jó, csak azt is vedd számításba, hogy a Samsung és a TSMC is gyűrűs oszcillátorhoz méri az előrelépést. Ennek persze jó oka van, ez kellően egyszer ahhoz, hogy valóban a valós javulást adják vissza, csak pont emiatt meg nem sokat számítanak a százalékos számok egy valós lapkánál. :)

    Jó eséllyel 5%-ot sem jelentene a 8 nm-re való átállás a 12 nm-hez viszonyítva teljesítmény/wattban, mert ez egy új és ismeretlen node az NV számára, míg a 12 nm az már ismert. A 7 nm viszont kellő előrelépés technológiailag, az mindegy, hogy a Samsung vagy a TSMC megoldásáról van szó, igazából eléggé közel vannak papíron egymáshoz.

    A dupla RT mag felesleges. Egyrészt ez egy fixfunkciós egység, és ebből egyet támogat az API. Ha raknak bele még egyet, akkor nem történik semmi, nem tudja megcímezni az API. Meg amúgy is semmi értelme, mert a memória-sávszélesség a limit. Ha megnézed, akkor az NV a saját számait koherens sugarakkal, shading nélkül méri. Maga a fixfunkciós motor nem koherens sugarakkal és shadinggel is ugyanannyit tud, csak a memória sebessége nem tudja etetni, így a teljesítmény 1-2 GRays/s alá esik, hiába tud a fixfunkciós egység többet. Ha most ezt a számot mondjuk 20 GRays/s-re növelik, akkor sem lesz semmi, mert a gyakorlatban a sugarak nem koherensek, és az effektek többsége árnyalást is igényel. Amit lehetne csinálni az egy koherenciamotor, ami megpróbálná csoportosítani a sugarakat, hogy az adatelérés kevésbé véletlenszerű legyen. Ennek viszont a tranzisztorköltség a nagy hátránya, és jelenleg egyszerűbb 1-2 TB/s-os memóriasávszéllel megkínálni a GPU-t. Ugyanakkor az Imagination Wizard például úgy tudott nagyon hatékonyan sugárkövetést csinálni, hogy a hardverben igen hatékonyan koherenssé tették a feldolgozást, csak ez nem kellett senkinek, mert maga a koherenciamotor akkora volt, mint a teljes IGP.

    (#25592) Loha: Ha licitálnak hamarabb, akkor a gyártósorok, amiket például az AMD bérel, most az NV-nél lennének, csak nincsenek jelen olyan piacon, aminél megérné nekik sokat fizetni ezekért. A TSMC egyébként ezeket nem veszik el a gyártóktól. Tehát annyira ez nem érinti a már bérelt gyártósorokat. Az új gyártósoroknál nőtt meg a teljesítés ideje. Ez ettől még persze baj a piacnak, mert így az új gyártók lassabban tudják kiadni a fejlesztéseiket, hiszen a TSMC is lassabban tudja csak legyártani őket. De ez mondjuk az Apple-t, a Qualcommot, az AMD-t, meg a többi, már komoly gyártókapacitást bérlő partnert nem érinti, hiszen ők ugye eleve nem nagyon pályáznak új gyártósorra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • b.

    félisten

    válasz Abu85 #25593 üzenetére

    Nem értem ezeket a kijelentéseket. Elismerem a tudásodat,de nvidiánál úgy gondolom nálad okosabb emberek és tervezőmérnökök dolgoznak olyan tudásnak és lehetőségeknek a birtokában amiről te nem tudsz vagy még fogalmad sincs. Kizárt hogy ezt így kijelentsd egyértelműen merre kell fejlődniük a VGA -knak és milyen lehetőségek vannak az RT gyorsítókban vagy hogy Nvidia mit tervez és mit lát abban hogy tudna egy dupla gyorsítótárat használni.( amiről azt sem tudjuk milyen felépítésű és jellegű lesz, ha lesz, lehet nem is RT gyorsításra használják.) Ez nem azt jelenti, hogy ez fixen lesz a következő genben, hanem mint feljebb is linkeltem pár hónappal ezelőtt, megjelent a neten egy dizájn amiben egy dual gyorsító van( lehet , hogy RT lehet hogy tensor) és állítólag ez vagy az Ampere vagy pedig valami más lesz,a felső kategóriában.

    AZ tök mindegy hogy gyűrűs oszcillátoron adják e meg az előrelépést mert a százalékot szintén ahhoz mérik, az előző gyártástechnológiára alapozva. Amiről te beszélsz az a 10nm vs14 ( 12 nm ) de még az sem. nem pedig a 8nm. az között nem 5 % ról beszélünk, ebben biztos lehetsz.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Abu85

    HÁZIGAZDA

    válasz b. #25594 üzenetére

    A netem sok dolog megjelenik, az is például, hogy a védőoltások károsak. Elmondom, hogy mi a sugárkövetés problémája. Ugye a sugárkövetés és a raszterizáció is egy mintavétel. A különbség annyi, hogy amikor kilövöd a sugarakat a raszterizációnál, akkor azok eltalálják valahol a felületet és meg is van a minta. A dolognak a pokoli előnye itt az, hogy az egymás melletti pixelek, az egymás melletti felületeket találják el, vagyis ha egy texelcsoportból kell egy szűrt minta, akkor okkal lehet arra számítani, hogy hamarosan a mellette lévő texelcsoportból is kell ugyanez, így pedig egy elég jól cache-elhető modell áll össze, vagyis az esetek többségében a textúrázóhoz tartozó cache-ben ott az adat, ami kell a mintához. A sugárkövetésnél nincs így, ugyanis a sugár visszaverődik a felületről, így két egymás melletti pixel lehet, hogy a valós térben igen messze lévő textúrák texeljeikből származó mintát igényelnek. No ez már marha nehezen cache-elhető, leginkább sehogy, vagyis hiába kell mondjuk nagyjából hasonló mennyiségű szűrt minta raszterizálás és sugárkövetés mellett, utóbbinál sokkal több a véletlen memóriaelérés, vagyis nagyságrendekkel jobban terheli a memória-sávszélességet. Pedig adatmennyiségben nagyjából ugyanott vagy, ez az izgalmas ebben. Na most ezen a problémán két "RT mag" nem segít, mert így is a memória-sávszélesség a limit, tehát építhetsz akár egymillió magot is be, akkor is ugyanaz lesz a sebesség. Még a dupla gyorsítótár is mindegy, teleszemetei az egészet a feldolgozás. Ami ezen segít az a gyorsabb memória, vagy egy koherenciamotor. Utóbbi azt csinálja, hogy megpróbálja előre meghatározni, hogy mely sugarak fogják nagyjából ugyanazt a texelcsoportot eltalálni, így pedig egy sugárcsoportra megteremti a cache-elhetőséget.

    Szóval persze a neten valószínűleg vannak olyan emberek, akik azt hiszik, hogy két RT magtól majd gyorsabb lesz, de ugye nem itt van az egész limitje. A legjobb itt megnézni a Microsoftnak a shadow mintaprogramját. Ott a legkisebb és a legnagyobb GeForce RTX között alig van különbség, mert tulajdonképpen mindegy, hogy utóbbiban erősebb az RT mag.

    Sajnos nem annyira rózsás ám a 10 nm-es full node-ra épített node-ok működése. Nem véletlen, hogy egy GPU-t sem vittek át rá 16/14/12 nm-ről. Egyszerűen nem ad igazán lényeges előnyt, miközben drágább. Ha már drágább a dolog, akkor az igazi előnyre kell menni, ezt pedig a 7 nm adja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • b.

    félisten

    válasz Abu85 #25595 üzenetére

    Ezt írtam :
    "Samsung a 10 nm re 10 % óraelemelkedést és 10 % kal kisebb fogyasztást abszolvál kb a TSMC / NV 12 nm Hibrid NOD hoz képest első sorban aminek a második fázisa már 15 % kal kisebb fogyasztást eredményez,de ezt engedjük el mert erre szerintem felesleges váltani 12 nm ről."
    10 nm re egyértelmű, hogy felesleges.
    A 8 nm re írja hogy a 10 nm hez viszonyítva hoz + 10 % -t fogyasztásban és kb 15 % -t méretben. A saját 10 nm hez nézve amit ha rávetítesz a 12 nmre azt jelenti, hogy a 8 nm gyártással kb 25 % t nyerhetnek fogyasztásban kb 30 % -t méretben és mondjuk ha csiszolnak az architektek akkor további 5-10 %-t órajelben .
    Kb egy lépcsőt ugranának a mostani félnodról kihagyva egyet( 10nm) a másodikra lépnének.
    Persze a 7nm lenne az igazi, csak kérdés milyen áron.

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Jack@l

    veterán

    válasz Abu85 #25595 üzenetére

    Esetleg nem lehet hogy az ms demoappja töredékét se használja a raytracingnek és csak árnyékokra fókuszál, amit kevesebb rt mag is röhögve elvégez? Csak kérdezem... :D
    Jobb lenne ha húsvér játékokat honzál fel, mint metro, BFV, vagy ott is ugyanannyit megy duplaa annyi rt mag?

    [ Szerkesztve ]

    A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #25597 üzenetére

    Az MS demóappja azért jó, mert maga a felépítése miatt kellően koherensek a sugarak. Egy játékban még ennyire sincs kihasználva az RT mag, mert a nem koherens sugarak a cache-t összeszemetelik, illetve rengeteg véletlenszerű memóriaelérést igényelnek. Tényleg fontos az elméleti adatot a gyakorlattól megkülönböztetni. Ezt az NV is eléggé hangsúlyozta a GDC-n, hogy elméletben beszélnek 6-8-10 GRays/s-ről, de ez egy koherens sugarakon, shading nélkül mért érték, egy amolyan abszolút maximum, amire elméletben képes a hardver, ha más komponens nem fogná vissza. A játékban ilyen helyzet nincs, így ott már igen jó értéknek számít az 1-2 GRays/s is. De ez nem amiatt van, hogy az RT mag nem lenne elég jó, hanem amiatt, hogy nem tudja etetni a rendszer többi komponense, elsődlegesen a memória, mert túl lassú ahhoz képest, amilyen gyorsan maga az RT mag tudna dolgozni. Emiatt nincs igazán értelme az RT magot erősíteni, mert már így is sokkal erősebb annál, amire lehet használni. Etetni kellene, ez az elsődleges probléma, aztán az már nézőpont kérdése, hogy ezt koherenciamotorral, vagy brute force memória-sávszélességgel érik el.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Egon

    nagyúr

    Hmmm, miért érzem úgy, hogy ezt a beszélgetést érdemes lenne elmenteni, és 1-2 év múlva bizonyos orrok alá dörgölve. elővenni? ;]

    "Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)

  • Abu85

    HÁZIGAZDA

    válasz Egon #25599 üzenetére

    Mert hisztek a marketingnek, és szimplán matematikai alapon nem számoltok utána. Pedig nem annyira nehéz ám, hiszen az NVIDIA nem titkolja, hogy egy 2080 Ti 10 Gigarays/s-re képes, amihez egy értékelhető BVH8 (ennyi kellene a mai geometriáknak) mellett 5,6 TB/s az optimális. A hétszintű BVH ~80 bájt (szintén nem titok, hiszen szabványról van szó), vagyis 10 (Gigarays/s) * ~80 (bájt) * 7 (szint - BVH8) = 5600 GB/s

    Ettől még rakhatnak a hardverbe 20 Gigarays/s-re képes RT magot, csak semmivel sem lesznek előrébb, ha nem növelik a memória-sávszélességet, vagy nem raknak be egy koherenciamotort, hogy a problémát a cache-ből ellensúlyozzák, amit az aktuális megoldás összeszemetel.

    Hosszabb távon egyébként a koherenciamotor az optimális, mert most esetleg behúznak 1-2 TB/s-ot az új generációs hardverekkel, de a geometriai részletesség nőni fog az új konzolokkal, vagyis nem fog beleférni hétszintű BVH-ba, így mindenképpen a cache-elhetőség lenne a jövőbiztos megoldás, amivel a munka zöme lapkán belül tartható. Viszont rövidebb távon elképzelhető, hogy érdemes kihagyni, mert tranzisztorzabáló megoldásról van szó, és a valós játékteljesítményt döntően meghatározó ALU-któl veszi el a tranyókat. 5-6 éves távlatban viszont a koherenciamotor a nyerő. Valószínűleg a negyedik generációs, DXR-t támogató hardverekben már lesz ilyen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák