- ASUS blog: nagyobb teljesítmény, teljesen ingyen
- NVIDIA GeForce RTX 4060 / 4070 S/Ti/TiS (AD104/103)
- Milyen processzort vegyek?
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Milyen asztali médialejátszót?
- TCL LCD és LED TV-k
- Dell notebook topic
- Apple iPad Air 13” (M2, 2024) - a méret a lényeg
- nVidia GeForce GTX 1070 / 1070 Ti / 1080 (GP104)
- Kiszivárgott egy lista a várható Lunar Lake modellekről
Hirdetés
-
Ellopták a Tesla akkumulátor-titkait
it Beperelte egy korábbi beszállítóját a Tesla, és azzal vádolja, hogy üzleti titkokat lopott a Tesla akkumulátorgyártási technológiájával kapcsolatban.
-
Olcsó telefonjába is beépítette szemüveg nélküli 3D-s kijelzőjét a ZTE
ma A ZTE Voyage 3D a saghaji MWC-n debütált, egyelőre csak Kínában kapható.
-
Elden Ring: Shadow of The Erdtree - Három nap alatt 5 millió eladott példány
gp Úgy tűnik, hogy a DLC-t nagyon sokan várták és még annál is többen vásárolták meg.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Korábban már linkeltem az Intelnek egy régebbi prezentációját, amiben kifejtik, hogy ez miért nem jó réjtrészing.
A lényege ennek annyi, hogy ahhoz hogy jó legyen nagyon-nagyon-nagyon sok GB-nyi VRAM kellene, és amíg ez nincs, addig rendkívül limitáltan tud az egész működni. Ezért sem jutott el olyan szintre a réjtrészing, hogy a usereket érdekelje. Egyszerűen keveset ad nagyon drágán. De maga az eljárás nem ilyen fos. Az aktuális implementáció teszi csak szarul alkalmazhatóvá.
Az Intel is felhozza a saját előadásában, hogy jójó, de az UE5-ben mit csinálsz? Számolsz akár 1 GB-nyi többletterheléssel AS-t? Nincs annyi memória a VGA-kon, hogy megtedd, még két év múlva sem lesz. Ezért sincs az UE5-ben alapból RT. Nincs rá elég memória, márpedig az UE5 nagymértékben épít a geometriai részletességre, és részletes geometriával a mostani RT nem tud működni.
#57765 imi123 : Lényegtelen a hardver. A programozható traversal eleve a shadereken fut. Nem kell hozzá külön részegység. Azért programozható, hogy ne is kelljen traversal unit. Szóval akármelyik RT-s hardver jó erre, csak a szoftveres háttér hiányzik.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
imi123 #57767 üzenetére
Miért ne támogatná? A traversal shader az csak shader lesz, arra pedig vannak feldolgozók. Amit mondtam, hogy a mai hardverek ezt a folyamatot esetenként fixfunkciós egységgel csinálják. Ez az egység fog elveszni, hiszen ha programozható lesz a folyamat, akkor nincs rá szükség. De ettől bármelyik mai RT-s hardver ki tudja számolni a shadereken keresztül.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #57770 üzenetére
Annak az elérése pedig lassú. Ráadásul a réjtrészing problémája az, hogy a másodlagos sugarak nem koherensek, tehát nehezen cache-selhetők. Sokkal jobb megoldás erre a programozhatóság.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Yutani #57772 üzenetére
[link] - aminél jobb minőséget is el lehet érni raszterizálással.
Ugyanaz a Minecraft baja is. Hiányzik a programozhatóság, és ez extrém módon limitálja a biztosítható minőséget.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #57776 üzenetére
Itt az a lényeg, hogy a BVH gyorsítóstruktúrát hogyan generálod. Ez több szintből áll. A BLAS az a szint, amikor már a háromszögeket lövöd ki a sugarakkal, de előtte egy csomót kivágsz a fölötte lévő BLAS és TLAS szinteken, amikor még csak dobozokat nézed, hogy a sugár metszi-e. Na most ezek az AS szintek össze vannak kötve, mert mindegyik háromszögnek megvan a maga doboza, mindegyik doboznak van egy nagyobb doboza - amennyi szintre le van ez generálva. Az ezek közötti összeköttetés programozhatóságáról van szó, ami a mostani API-ból hiányzik, ugyanis az összeköttetés is szimplán fixfunkciós. Ez azért nem jó, mert ugyan az AS-t több szintre legenerálja, de fogalma sincs, hogy bizonyos háromszögekkel vagy dobozokkal kell-e egyáltalán foglalkoznia. Akkor derül csak ki, amikor már kiszámolt a hardver mindent, hogy hopp, azokat ott pont nem kellett volna. Na mindegy most már, -50 fps. A programozható bejárás például azt biztosítja, hogy még a valós számítások előtt le tudsz vele futtatni egy extra úgynevezett visibility shadert, ami megmondja, hogy mi az, ami látszik egyáltalán a kamera nézőpontjából. Ami nem látszik, arra nyilván tök felesleges bármennyi erőforrást elkölteni, mert a végén úgyis ki lesz vágva. Ez a programozhatóság lényege, hogy még azelőtt vágj el minden AS összeköttetést, mielőtt egyáltalán erőforrást költenél rá. Vagy a dinamikus LOD esetében olyan formában számolj vele, amilyen formában megéri. A mostani API implementációnál még az AS generálása előtt el kell dönteni a LOD-ot, és később ez nem módosítható. A programozhatóság biztosítaná azt, hogy ez menet közben módosítható legyen, ha esetleg kiderülne, hogy az a százezer háromszögből álló szobor végül csak 4 pixelnyi területen látszódik. Akkor ugye elég lenne rá egy ötven háromszögből álló modellel számolni, mert ugye úgyis csak egy pötty lesz a monitoron.
Az ilyen jellegű programozhatóság hiánya az, amiért az RT implementációk olyan szarok a játékokban. Alig van hatásuk, nagyon korlátozott távolságra működnek, és minőségileg is eléggé rondák. Egyszerűen nincs programozhatóság, amivel korlátozni tudnád az erőforrásokat csak a látható területekre, így mindent számolsz a lehető legnagyobb részletességgel, majd amikor a végén kiderül, hogy nem is látszódnak, csak akkor tudod kivágni őket, de közben már elment rá az erőforrás. Ezt úgy szokták ma korlátozni, hogy a sugarakat csak nagyon-nagyon korlátozott távolságra lövik ki, hogy ne legyen sok számítás, de ugye pont nem ez a sugárkövetés lényege. Mehetne ez nagyon messzire is, csak meg kellene előre mondani, hogy mivel kell foglalkozni, és mivel nem. Na ezt programozhatóság nélkül nem lehet megtenni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez azt jelenti, hogy nem tudod úgy használni, hogy látványos legyen, mert túl sok olyan dolgot számolsz a mostani pipeline-nal, ami nem is látszik. Ezért tartják sokan gimmicknek.
A dinamikus LOD-hoz programozhatóság kell, amit kizár a dedikált hardver. Tehát nincs olyan, hogy mindkettő van. Vagy programozhatóság van, vagy fixfunkciós hardver a bejárásra. A kettő együtt kizárja egymást.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Most pont nagy korlátokat szabunk neki azzal, hogy maximum pár virtuális méterig működhet, és másodlagos sugarak nélkül. Ezért nem ad látványos különbséget. Olyan elképesztően tragikus korlátok közé van szorítva a mostani RT implementáció, hogy nyilván nem lehet vele látványos dolgokat elérni. És persze a userek sem hibáztathatók, hogy csak a sebességcsökkenést veszik észre, mert a minőségelőny az minimális.
Csak ez nem egy hardveres probléma. A jelenlegi helyzetet pusztán a programozhatóság hiány idézi elő.
Ó igen, az nagyon igaz... olyasmit szívesen látnának az emberek, csak az ugye két darab NVLINK-kel összekötött V100-on futott, mert 64 GB VRAM kell neki. Ahhoz, hogy ez fusson 10 GB környéki VRAM-mal, kell a programozhatóság.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez maximum a keleti stúdiókra igaz, ahol az ár miatt muszáj GPU-kat használniuk a feladatra. A nyugati filmstúdiók tehetősek, oszt megveszik a legtöbb magos procit több terabájt RAM-mal. Ők azért annyira nem érzik magukat korlátok között. Jövőre 12 TB-os szörnyeket tudnak építeni, míg keleten be kell férni 128 GB-ba és kész.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A Pixar igényeit egyszerű kielégíteni, mert nem a realisztikus látvány a lényeg. Emiatt ők megengedhetnek sokkal kevesebb memóriával rendelkező rendszereket. A valódi Hollywoodi igények viszont nagyon realisztikus modelleket igényelnek, hogy ne tudd kiszúrni a filmben az igazi és a CGI fát.
Ehhez már nincs elég memória a gyorsítókon. Ezért is van Hollywood előnyben, mert nekik nem téma 4 TB-os memóriával rendelkező CPU-kat összerakni. Jövőre pedig kapnak olyan játékszert, amibe 12 TB-nyi tartalmat is pakolhatnak. És ők ezt nagyon ki is használják tartalomvizualizáció során, mert rengeteg munkaórát spórolnak meg azzal, hogy a modelleket nem kell 60-80 GB-os darabokra bontani.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
paprobert #57787 üzenetére
Ironikus módon a konzolon ez nem probléma, mert ott PS5-ön már a start óta van programozhatóság a bejárásra, illetve a Microsoft konzolján is megoldható ez Radeon Rays egyik kiegészítése által.
Ez egy csak PC-t érintő gond, mert itt igazából nincs túl nagy haszna például a Radeon Rays megoldásának, ugyanis az csak AMD-n fut. Ez Xboxon elfogadható, de PC-n nem.
#57790 T.Peter : Ami ugye önmagában eléggé korlátozott, mert a DirectX 12/Vulkan API alól csak a triangle és az axis-aligned bounding box intersection gyorsítható, a signed distance field nem. Utóbbi struktúrát nem támogatják a GPU-kba épített fixfunkciós egységek, mert nincs definiálva az API-ban. Szoftveres RT-t pedig eddig is lehetett csinálni, ebből a szempontból nem az UE5 az első.
A hardveresen gyorsított RT-t pedig a nanite-ra nem működik, ahogy azt írod, és ez is baj, mert amúgy működne, ha a bejárás programozható lenne, csak a fixfunkciós bejárás annyira, de annyira nagy limitáció, hogy képtelenség a borzalmasan gyenge hatásfokát ellensúlyozni mikropoligon render mellett. Ennyi háromszögnél nem jó, hogy előre kiszámolunk mindent, majd a végén dobjuk el azokat, amiket nem kellett volna. Az lenne a jó, hogy előre megnézzük mi látszik, és csak azokat számoljuk ki. Úgy működne, és például PS5-re van is olyan UE5 verzió, amivel működik a nanite-tal is a hardveresen gyorsított RT, mert azon a konzolon, azzal az API-val meg tudod írni a visibility traversal shadert, amivel még azelőtt el lehet dobni a nem látható részeket, mielőtt bármi számítás történne. Ez csak PC-n probléma. Persze az Epic építhetne a Radeon Rays kiterjesztésére, de azzal csak az AMD-re oldja meg ezt a gondot, és akkor még ott az Intel és az NVIDIA, tehát ide egy szabványos megoldás kellene.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Yutani #57792 üzenetére
A Sony nem licenceli az UE5-öt, tehát nekik ez igazából nem téma. A Microsoft licenceli viszont, és eléggé átírták, hogy a limiteket feloldják benne.
A Sony viszont már használ a játékaiban traversal shadereket. Ezt az API-juk lehetővé teszi a start óta.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Cyberboy42 #57796 üzenetére
Igazából azt nem kell eldobni. A hardverbe beépíthető, maximum nem lesz használva. Az API-t kell frissíteni csak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #57799 üzenetére
A mérnöki mintákon még klasszikus 8 tűs van. De azt tudom, hogy az AMD nem tiltja meg az új tápcsati használatát a partnereknek, viszont nem ragaszkodnak hozzá, mint az NV. Az Ada úgy van tervezve, hogy annak nagyon hasznos az ATX 3.0 és az új tápcsati, míg az RDNA 3-nak nincs nagy haszna az új szabványokból, mert nem szükségszerű az extrém áramtüskék elviselése.
Ez egy dizájnbeli eltérés lesz. A Navi 31 pillanatnyi maximális terhelhetősége 450 watt alatt marad. Tehát ennél többet még pillanatnyi tüskékben sem fog felvenni. Az NV-nél az AD102 pillanatnyi maximális terhelhetősége 810 watt. Ugyan tartósan messze nem fogyaszt ennyit, de szüksége van az ATX 3.0 pillanatnyi 180%-os túlterhelhetőségére, amit az új tápcsati biztosít neki.
Az AMD partnerei is felszerelhetik persze az új tápcsatit, de nem tudják majd kihasználni, mert az Navi 3x nem az ATX 3.0 specifikációkhoz lett tervezve, képes maximum teljesítményen működni ATX 2.x-szel is. Az NV GPU-ja is tud ilyen tápokkal működni, csak megszűnik az extrém túlterhelhetőség, ami nélkül a turbó nem fog úgy működni, ahogy ATX 3.0-s tápokon.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #57803 üzenetére
Én a barátibb árat nem hallottam. Azt igen, hogy olcsóbb előállítani, de ez pusztán amiatt van, hogy kisebb a lapka.
Ha jók a vezetékek az adapteren, akkor igen, el kellene bírnia. Itt leginkább a csatlakozással lehet gond. Mert amíg az új csatival ez táptól VGA-ig kábel, addig átalakítóval lesz benne egy átkötés, ami sérülékennyé teszi. Ez a köztes bekötés lesz a szűk keresztmetszet, és erre borzasztóan nehéz tervezni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #57806 üzenetére
Nem magával az adapterrel lehet gond. Az nyilván megtervezhető, de két kábel összeköttetésénél nagyobb az esélye annak, hogy az aljzatba tömött fémdugasz elmozdul a helyéről. Ilyenkor közelebb kerül az aljzaton belül a műanyaghoz, és van esély rá, hogy elég. Minél több ampert visz át, annál nagyobb az esély erre. Szóval itt nem egy minőségi probléma van, nyilván megcsinálják ezt jóra, de az extra csatlakozásnál keletkezhet egy előre nem látható érintkezési gond. Akár minimális is lehet, ekkora áramerősségnél az is bajt okozhat.
Pusztán papíron szabványban tuti jó lesz. De nem lehet kizárni azt a gyakorlati problémát, hogy a két kábel összedugásánál az érintkező akár egy picit is elmozdult-e, mert ilyen terheléssel már nagyon pici változás is vezethet a csatlakozó kiégéséhez.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #57810 üzenetére
Ez nagyon jó kérdés. Ha látszik a hardveren valami fizikai sérülés, akkor esélyes, hogy belekötnek, és ugrik a gari.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #57823 üzenetére
Pontosan nem foglalnak ugyanannyit. Inkább úgy érdemes fogalmazni, hogy nem foglalnak annyival kevesebb helyet 5 nm-en, hogy megérje miattuk 5x drágább wafereket venni.
Az AMD is olyan processen gyártat, amit csak nekik készített a TSMC, csak ők nem a half-node-ra mentek. Ezek egyébként nem annyira egyedik, simán elérhetők bárkinek, csak valószínűleg nem fogja más megfizetni a költségeiket. Az egyediség abban kimerül, hogy performance optimized processek, és nem ultramobilhoz vannak kalibrálva. Ennyi. A lényegük az, hogy magas órajeleket lehessen rajtuk elérni. Ezért tud ugye a Zen 4 6 GHz közelében szaladgálni, míg mondjuk egy másik 5 nm-es ultramobil SoC nem. Nem a performance verzión vannak készítve.
Nem hiszem, hogy az NV tudja, hogy mi lesz az RDNA 3-ból. Az AMD már a saját dolgozóinak sem árulja el. Szóval most nagyon erős a kusspolitika.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Yutani #57825 üzenetére
Én annyit tudok, hogy a legkisebbet úgy tervezték, hogy a korábbi legnagyobb teljesítményét hozza. Ezt tudja is amúgy. De a legkisebb az eléggé picike, 128 bites busza van például. Egy mérnöki mintáról láttam már homályos képet, és kb. úgy néz ki, mint ez, csak fekete, és van benne pár vörös vonal. [link]
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Alogonomus #57829 üzenetére
Nem látszik, hogy olyan nagyon olcsón akarnák adni. Ami olcsó lesz az a Navi 33. Abból rengeteg készül, mert még a TSMC 6 nm-es node-ját használja, és tényleg dizájnban egy aprócska rendszer, ami kb. akkora nyákkal és költséggel hozható, mint egy Radeon RX 6600 XT. Ezt tényleg jóárasítva adják majd, valószínűleg ez lesz a next-gen népkártyája, mert nem új drága node-on készül, miközben gyakorlatilag 6900 XT tempót ad. Aki nem tud 500 dollár fölött fizetni, az erre fog menni, mert a régi az sokat fogyaszt, meg ugye régi, az 5 nm-es új meg megfizethetetlen.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Volt kérdés, hogy van-e felvétel a Radeonról... Nos, olyan nincs, ami publikusan megjelentethető, de a render helyes. [link] - Én ezt a hűtőt láttam egy korábbi fotón, ami sajnos meg van jelölve, így nem adható ki, de lényegében annyi volt a különbség, hogy az a fehér sáv vörösen világított.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #57871 üzenetére
Már mindegy. Van egy új kép, és ott már nem így néz ki.
Szóval valamikor lecserélték.
Azt nem tudom, hogy ez mennyire külső változás, mert lehet, hogy alatta a borda maradt ugyanaz. Bár így zacskón keresztél nézve, még mindig hasonlít a mostanira.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Tápcsatiban:
Navi 33: 1x 6 tűs
Navi 32: 6+8 tűs
Navi 31: 3x 8 tűs
Memória:
Navi 33: 128 bit - 8 GB (16 GB custom opció)
Navi 32: 256 bit - 16 GB
Navi 31: 384 bit - 24 GBSenki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Busterftw #57900 üzenetére
A 4090 azért nem mutat raszterben akkora előrelépést, mert a parancsmotor a Turing óta nem változott. Ez az Ampere-ben rendben volt, de az Ada esetében már nagyon limitál még erős processzor mellett is. A 4090 például az AC Valhallában a parancsfeldolgozás szintjén limites. És hiába raksz alá még erősebb procit, a parancsmotor maga nem képes már egy ekkora hardvert kiszolgálni. Ezt a Turingba tervezték, miközben az Ada már egy négyszer nagyobb hardver a nyers kapacitást tekintve.
Az AMD azért tud jobban működni az RDNA 2 óta ezekben a limites szituációkban, mert a parancsmotort az RDNA 2-vel többszálúsították, és az RDNA 3 is megduplázza a szálak számát, pont azért, hogy etetni tudja feladattal azt a sok-sok feldolgozót. Az NVIDIA ezt majd a következő körben lépi meg, akkor majd várható az NV-nél is ilyen jellegű előrelépés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #57903 üzenetére
1080p, 1440p és 4K. Ezeken fog menni a tesztelés.
#57905 b. : Ez nem elavultság, hanem egy döntés. Az AMD és az NV is fix tranzisztorkeretből építkezik. Ezek nagy részét az NVIDIA tensor magokra költötte. Gyakorlatilag annyira erőteljesen, hogy a multiprocesszor többsége már tensor, és a hagyományos feldolgozók már csak a 35%-át teszik ki.
A nagyobb L2 cache elsődlegesen a tensor miatt van, mert a többi feldolgozó nem tudja nagyon hasznosítani a félkoherencia problémája miatt. De a tensor az jórészt koherens mátrixműveleteket csinál.
Az AMD ugyanúgy kapott egy rakás extra tranzisztort az új generációs node-ból, de azokat nem költötték el csak egy részegységre, hanem több L0-t, több GDS-t, duplázott szálú parancsmotort, több VGPR-t, és újratervezett RB-t használnak. Ezekre költöttek javarészt. Ez is egy döntés, nem tartották annyira fontosnak, hogy nagy tensort építsenek a rendszerbe, noha lesz benne matrix engine, de az is úgy lesz beépítve, hogy meglévő adatutat használnak, és nem terveztek dedikált adatutat rá.
Nyilván dönthettek volna úgy is, ahogy az NVIDIA, de inkább mai játékokra tervezték a GPU-t. Az NV ugyanakkor nagyon hisz a frame-generationben, és ahhoz nem kell erősebb parancsmotor, mert klasszikus input nélkül számol képet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem én döntök arról az NVIDIA-nál, hogy a tensor kapacitása nő jobban, nem pedig a szabványos API-kkal elérhető feldolgozóké. Maga az NVIDIA is így mutatta be az RTX 40-et, hogy volt egy today's game rész, és egy tomorrow...
Ez szándékosan van így megcsinálva, mert ez lesz a fő marketingüzenet: lehet, hogy ma kikapunk, na de majd holnap...
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Yutani #57914 üzenetére
Ezen magam is meglepődtem, de ez van.
#57915 paprobert : Igazából a GeForce FX-hez hasonlóan most az Ada esetében is lapot kértek 19-re. Lehet, hogy most bejön. Az FX-nél nem jött be, de ez nem univerzális igazság, alakulhatott volna másképp is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A multiprocesszorból tesz ki kétharmadot a tensor, amiben benne van az OFA is. Főleg utóbbi lett jóval dagibb, de a tensor is sokkal több tranyót igényel már mert sokkal több formátumot támogat, ami sokkal több eltérő állapot. Ezen túlmenően az L2 főleg a tensorért nőtt mag nagyon, mert tipikusan ez egy olyan művelet, ahol sok a koherencia.
Szerintem simán elképzelhető, hogy ugyanaz lesz a felállás, mint a Vega és a Pascal esetében csak fordítva. És igen, abszolút el tudom képzelni, hogy 5 év múlva az Ada lesz a jobb, ahogy egyébként a Vega is elverte 5 évvel később a Pascalt. Csak 5 év sok idő.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #57927 üzenetére
A Vega 64 az 1080 ellen jött árban. Mára el is veri. A kérdés, hogy megérte-e ezért a fölényért ennyit várni. Ugyanez lesz a kérdés majd az Ada esetében is. Most például az AC Valhallában a leggyorsabb RDNA 3-as GPU-hoz nincs közel a 4090, annak ellenére, hogy lapkaméretben és tranzisztorszámban az AD102 sokkal nagyobb. Viszont valószínű, hogy ha előreutazunk az időben mondjuk négy évet, akkor az Ada majd gyorsabb lesz. Ez látványos tervezési különbség most az AMD és az NVIDIA között.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #57929 üzenetére
A Pascal egy architektúra. A VGA-t lehet VGA-hoz hasonlítani, és jellemzően ár szerint szokás megtenni, mert éppúgy hasonlítható a Vega 64 egy 1080 Ti-hez, ahogy egy 1060-hoz, ha nem számolunk az árral.
#57930 Petykemano : Mindig az volt a jobb döntés, ami eladhatóbb. Ettől függetlenül lehet arról beszélni, hogy x architektúra y-nál jobb lesz öt év múlva, de állandó kérdés, hogy megéri-e erre várni.
#57932 Petykemano : Ahány motor annyi irány jelenleg. Például az Unreal Engine 5 homlokegyenest másfele megy, mint amerre az NVIDIA fejlesztette az Adát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az UE5 húzófícsőre a virtualizált geometria, ami homlokegyenest szembemegy azzal a ray-tracing implementációval, amit az NVIDIA erőltet. A Lumen sem AABB-ben dolgozik, hanem SDF-ben, amit nem tud gyorsítani az NVIDIA AABB-re szabott RT részegysége.
Szerinted az RTX I/O-ról miért nem hallottunk 2020. szeptembere óta? Még az NVIDIA sem említette meg az Ada bemutatásakor. A hivatalos oldalon sincs róla egy szó sem a termékoldalon. Segítek, hogy miért. Az ötlet az volt, hogy optimalizálják a peer-to-peer DMA eléréssel az SSD-k és a GPU-k közötti adatmozgatást úgy, hogy elkerülik rendszermemóriát. Ez alapvetően működik is, csak gondot jelent, hogy ilyen környezetben az NVMe eszközt a CPU és a GPU is eléri. Tehát nem elég csak úgy a GPU-ra egy peer-to-peer DMA elérést alkalmazni, hanem biztosítani kell azt is, hogy a GPU ne szakítsa meg a CPU munkafolyamatait, és persze fordítva. Itt jön a nehézség, ugyanis az NV-nek semmi ráhatása az NVMe eszközök meghajtójára. Egyszerűen a gyártók nem is foglalkoznak a GeForce-ok PCI Express implementációjával, mert soha nem kötnek rá direkten SSD-t. Tehát az NV meg tudja oldani magát a peer-to-peer DMA-t, de nem tudja megoldani, hogy a CPU és a GPU ne szakítsa meg egymás munkafolyamatait, nincs meg hozzá a platformjuk, amivel ezt kontrollálni tudnák, az AMD és az Intel pedig elküldik őket a fenébe, mert nem különösebben hasznos nekik, hogy GeForce-specifikusan peer-to-peer DMA-ra optimalizáljanak megszakításokat. Ezért nem hallani az RTX I/O-ról manapság. Az NV önállóan csak a probléma felét tudja megoldani. Az AMD és az Intel az egészet.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Lófa... vagyis hát az equus péniszét. A DirectStorage API a GPU-n szabványos compute shaderrel használható. Ami a problémát okozza, hogy ez a módszer a rendszermemóriát mindenképpen használja, mert a kódolt tartalmat onnan olvassa be a GPU, amit aztán kikódol. Amin dolgoztak a gyártók, hogy ezt az extra kört kivegyék, vagyis olvassa csak be a tartalmat a GPU direkten az NVMe SSD-ről. A probléma ezzel az, hogy az NVMe SSD-t a CPU is eléri, és ha egyszerre küldenek az adattárolónak parancsot, akkor az elég durva para. Ezt az utóbbit az AMD és az Intel meg tudja oldani, mert platformot kínálnak, míg az NV-nek ehhez az AMD és az Intel segítsége kell. Ezért írtam, hogy az NV csak a megoldás felét tudja biztosítani, mert a másik felére meg kell győzniük az AMD-t és az Intelt, hogy ugyan támogassák már GeForce-specifikus peer-to-peer DMA-t. Annyit tehet esetleg az NV, hogy elkezdenek alkalmazkodni az AMD és az Intel megszakításoptimalizálásaihoz, csak közel sem biztos, hogy ezekkel jól érzi magát a GeForce. Ezért jelenleg pihen a téma, mert látni kell, hogy egyáltalán kivitelezhető-e a gyakorlatban egy driveres behackelés az AMD-féle SAS-ba, és az Intel készülő saját megoldásába, amelyek egyébként nagyon gyártóspecifikusak, tehát a SAS Ryzen+Radeont, míg az Intel technológiája Core+Arc-ot igényel. A keverés itt még nem működik.
Opcionális megoldás még, hogy a Microsoft specifikáljon egy SSD-k számára kötelezően támogatandó mechanizmus egy szabványosított peer-to-peer DMA-ra, de ez évekbe telik, noha valószínűleg, hogy elmegyünk majd ebbe az irányba. Khmm... DirectStorage 2 vagy 3...[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #57955 üzenetére
Nem hiszem. Inkább ahhoz van köze, hogy a kici kínaiak holnap kapják meg a termékanyagokat, és amilyen kici köcögök gondolom kiszivárogtatják majd.
Ahogy nézem a software már részben el is bukott. Az UNCHARTED: Legacy of Thieves Collectionről szóló rész kint is van:
- FidelityFX Super Resolution 2.0 – gamers will be able to supercharge the framerates as they seek their fortune as either Nathan Drake or Chloe Frazer, with next-level temporal upscaling technology from AMD. FSR 2 uses cutting-edge algorithms to boost framerates and deliver high-quality, high-resolution game experiences in UNCHARTED: Legacy of Thieves Collection, across a wide range of compatible graphics cards.
- AMD Radeon™ Image Sharpening – a driver-based upscaling technology that improves and restores clarity to in-game visuals that may have been softened by other effects, bringing out details of objects without creating some of the visual artifacts seen in other sharpening effects.
- AMD FreeSync™ Technology – eliminate stuttering and/or tearing in games and videos by locking a display's refresh rate to the frame rate of the graphics card.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #57960 üzenetére
Ha a kici kínaiak tudják, akkor nem sok kell hozzá, hogy mi is tudjuk. Pont a nyáron panaszkodott nekem az AMD-s srác, hogy mennyire pletykásak a kínaiak. Gyakorlatilag pár órán belül mindenről beszélnek, amit odaadnak nekik.
#57961 Raggie : Csak nem tegnap kellett volna kiderülnie, de ugye a kici kínaiak megkapták a promót az AMD-Naughty Dog partnerségről, és már le is buktatták. Ez van. Kínában nem lehet megbízni, ha érzékeny adatokról van szó, de van egy pont, aminél tovább ezek nem titkolhatók a kínaiak elől.
#57962 Petykemano : Azt hozzá kell tenni, hogy az NVIDIA Ryzen 7 5800X3D-t ajánl a driveréhez. Tehát ezzel ajánlják mérni a 4090-et. Ezt valószínűleg azért teszik, mert ismerik a saját munkafolyamataikat, és úgy találják, hogy elsődlegesen a cache-től csökken a limitjük. Persze nem szűnik meg, de csökken annyira, hogy az 5800X3D-vel lesz a legjobb teljesítményük jelenleg. Jelenleg ennyit tudnak tenni, mert még a Raphael-féle 3D V-Cache nem érhető el, de valószínűleg jobban fog teljesíteni alatta, mint 5800X3D-n.
Ennek valójában nem a processzorhoz van köze. Igazából szoftveres probléma, ami abból ered, hogy az NV parancsmotorja nem fejlődött már a Turing óta. Nagyobb többletterheléssel tud hatékonyan működni, és amint fejlesztik, majd ez a többletterhelés csökken, és gyengébb proci is elég lesz neki. Ha nyersen egy általános processzorlimit lenne, akkor az AMD meghajtója sem tudna jobban teljesíteni, de az nem annyira érzékeny a procira. De ott is csak az RDNA 2-re igaz ez, ahol bevezették a többszálú parancsmotort. Az RDNA már érzékenyebb rá, a GCN pedig majdnem olyan érzékeny, mint az NV.
CXL nagyon sokáig nem lesz desktopon. Talán, ha a Threadripper lehozza, de gaming VGA szinte kizárt, hogy támogatná az elkövetkező pár évben.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #57967 üzenetére
Az RDNA 3 parancsmotorja nem csak kész szálú lesz, mint az RDNA 2-é, ami bevezette a két szálat először. Ezzel nyilván javul az etetés.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Komplikato #57987 üzenetére
Annyit biztosra tudok mondani, hogy az UHBR20 benne van. Ebben javított az új kijelzőmotor a korábbi maximum UHBR10-ről.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
fatal` #57993 üzenetére
Hardveresen a HEVC és az AV1 ugyanazon a kódolóblokkon fut, de a régebbi formátumok nem. Azoknak egy külön blokk van, és nem hiszem, hogy van értelme ahhoz hozzányúlni. Ezt úgy képzeld el, hogy ezek kis specifikus DSP-k, amik valamelyest a feladatra vannak szabva. A számítást elvégzik, és van a formátumokhoz némi fixfunkciós körítés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
fatal` #57995 üzenetére
Az Air link csak jelet továbbít. Alapvetően mindegy neki, hogy mi a formátum.
Az AMD-nek van erre HEVC-s streamelője, ami a ReLive for VR. [link]
Viszont csak azokba a headsetekbe tudják működtetni, amelyek gyártói megengedik a nyíltabb elérés. Az Oculus headsetek zártak, így nyilván papíron tudnának működni, de a Meta nem engedi meg, hogy rajtuk kívül más elérje őket, ezáltal harmadik fél támogatást sem tud kínálni hozzájuk. A Metának a PC-s felhasználás nem számít. Nem erre tervezték a rendszert, így nem érdekli őket, hogy tudod-e így használni, vagy jó-e amit kapsz élmény. Egyszerűen nem fókusz, hogy jó legyen a PC-s élmény.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
fatal` #57997 üzenetére
Ez a baj. Ha az Oculus nem rakja bele a támogatást a szoftverbe, akkor nem fog működni. Pedig a ReLive for VR ingyenes. Elég lenne csak bemásolni a plugint, amit az AMD kínál a gyártóknak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mármint attól, hogy kidolgoztak egy formátumot? Ez csak egy fájlformátum, mint a txt vagy a doc. Hozzák csak, jobb lesz mindenkinek, de ez a működésen nem változtat, csak segíti a jobb eredmények elérésében. Mindenki örül neki, mert hatékonyabban használhatók vele a GPU-k.
A DirectStorage pedig szabványos, mert annak készült. Ami nem szabványos az az, amit az AMD csinál a Smart Storage Access funkcióval, de az alapvetően inkább egy SSD és processzor specifikáció lesz, nem egy GPU-ra vonatkozó. Az a lényege, hogy a GPU olvashassa be az SSD-ről direkten az adatot. Ezt a szabvány szerint a DirectStorage úgy csinálja, hogy előbb a memóriába kerül az adat, a GPU pedig onnan olvassa.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #58005 üzenetére
Erről hol olvasni?
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
KillerKollar #58010 üzenetére
ECSM ezt a Twitter posztot fordította át: [link] - amit egyébként Bullsh1t_Buster egy viccnek szánt, hogy újra kiröhögtesse a Videocardz-ot, akik két éve az RDNA2 megjelenése előtt rakták ki ezt: [link] - aztán az RDNA 2 megjelenése után törölték a posztot.
#58011 Devid_81 : Azért tudja az AMD most ezt ennyire sokáig kussban tartani, mert az utolsó utáni pillanatban küldik a pletykáló kínaiaknak az adatokat. Ezért ugye nincs is mit leakelni még. Annyit tudnak a kínai gyártók, hogy a Navi 31-es VGA előállítási költsége nagyjából annyi, mint az azóta megboldogult GeForce RTX 4080 12 GB-nak. És ettől egyébként elég sokan beszartak, mert például a PC Partnertől tudom, hogy a GeForce RTX 4090-en az árrés 3-5% közötti, tehát ekkora hasznot termel a gyártó, ha MSRP áron adja el. Ergo, most mindenki fosva nézi az AMD árazását, mert nincs mozgástér árat csökkenteni, különben veszteséget fognak termelni minden eladáson.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem tudom észrevetted-e, de alig van MSRP áron 4090. Egyszerűen nem éri meg apró haszonért dolgozni, inkább ráraknak a gyártók még 200-400 dollárt, hogy legyen pénz az eladásból. Ez nem azért van, mert köcsögök, hanem azért, mert drága előállítani, annyira, hogy szinte előállítási limiten van az MSRP. De gondolom szerinted tök nyugodtak, hiszen miért is aggódnának egy árverseny miatt, amibe bele sem tudnak menni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Alogonomus #58015 üzenetére
Ennek nincs köze a teljesítményhez. Az volt a gond a Titan VGA-val, hogy elvitte a vásárlókat a professzionális vonalról, és inkább azt adná el az NV, mert sokkal drágábbak. Ennyi. Simán kiadnának Titant, ha ez nem jelentene problémát a bevételek oldalán.
#58016 b. : Semmi ilyet nem írtam, csak azt, hogy ezúttal nem lesz könnyű dolga az NV-nek, mert sokkal olcsóbban tudja majd gyártani az AMD a hasonló teljesítményű Radeonjait. Az EVGA a legjobbkor szált ki, talán már tudtak valamit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az NV jó okkal adja három eltérő GPU-val a három bejelentett VGA-t. Jó a 12 GB-os 4080-at visszahívták, de a lapka az megmaradt. Egyszerűen annyira nagy a két legnagyobb GPU, hogy 1000 dollár alatt nem eladható egy rájuk épülő VGA. Veszteséget meg nincs értelme termelni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #58021 üzenetére
Az NV-nek van a legnagyobb haszna. De valójában nem ez okozza a gondot, hanem az, hogy a komponensek, amiket használnak még mindig sokszor hiánycikkek, így a gyártóknak nagyon nehéz ezeket értékelhető áron lefoglalni. És ezen nem segít a kínai Zero Covid koncepció, mert az újrainduló gyártásból, hamar lehet megint leállás. Ha ez nem lenne, akkor igazából nem jelentene gondot a gyártóknak az MSRP ár elérése értékelhető haszon mellett.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Régen azért egyszerűbb volt, mert készült egy lapka, és abból lett egy sima és egy XT verzió. Most a Navi 31-nél sokkal több a variáció. Egyrészt ugye van fő lapka, mellé a hat darab memóriablokk chipletje, és ez így ad egy egész GPU-t. Plusz ezekre a chipletekre rá lehet rakni az új 3D V-Cache chipletet. Tehát a komplett csomag lényegében 13 lapkából áll. Ez elég sok ahhoz, hogy variálj egy hétlapkás, 3D V-Cache nélküli csomagot is, vagyis több jelölés kell, hogy ezeket megkülönböztesd.
És akkor ezek csak a tervezett dizájnok, de már működik egy olyan prototípus dizájn is, ami a Navi 31 mellé hat helyett négy memóriablokk chipletet rak, a két üres helyre pedig Zen 4 chiplet megy összesen 16 maggal, és ezek is megbolondíthatók 3D V-Cache-sel. Ebből állítólag lesz Radeon Pro verzió a professzionális piacnak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- iPhone topik
- Mikrotik routerek
- Kaspersky Antivirus és Internet Security Fórum
- ASUS blog: nagyobb teljesítmény, teljesen ingyen
- Ubiquiti hálózati eszközök
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Nők, nőügyek (18+)
- NVIDIA GeForce RTX 4060 / 4070 S/Ti/TiS (AD104/103)
- Autós topik
- Milyen processzort vegyek?
- További aktív témák...