- Hobby elektronika
- Kormányok / autós szimulátorok topicja
- Home server / házi szerver építése
- ThinkPad (NEM IdeaPad)
- Tuning kezdőknek
- ASUS Vivobook Snapdragonnal: talán egy új korszak kezdete!
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- 3D nyomtatás
- Vezeték nélküli fülhallgatók
- Vezetékes FEJhallgatók
Hirdetés
-
Új SSD-vel bővül a WD Blue szériája
ph Az SN5000 egy belépőszintű modell, a WD saját kontrollerével, viszont 4 TB-os kapacitással is elérhető lesz.
-
Fotók bizonyítják, tényleg szárat növeszt a Galaxy Buds 3
ma A bogyószerű kialakítást felváltja a fülből lefelé lógó szár az idei szériában.
-
Ellopták a Tesla akkumulátor-titkait
it Beperelte egy korábbi beszállítóját a Tesla, és azzal vádolja, hogy üzleti titkokat lopott a Tesla akkumulátorgyártási technológiájával kapcsolatban.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Pkc83
őstag
válasz Jack@l #43605 üzenetére
Még nem ezért épp itt az ideje!
Az Rx 5800 nyilván erősebb lesz mint az 5700xt ami pedig picit marad el
az Rtx2070 supertől! Ha innen nézzük felette már "csak" a 2080/TI van
amihez nyilván nagyon közel lesz vagy akár meg is előzi majd!
Gondolom ezért hivják Amd-nél "NVidia Killer"-nek! Ha meg az ára tényleg
5-700 dollár lesz akkor az jóval olcsóbb mint a minimum 600-1300 Eurós
2080 meg a 2080TI! Na a matek megvolt, most már jöhet az Amd egy
brutál és olcsó Vga-val! -
Abu85
HÁZIGAZDA
válasz Jack@l #43697 üzenetére
A mostani nem oda készül, de valóban jön egy 5700-as sorozatnál erősebb. Viszont nem ebben a hónapban, és annak a teljesítménye nyilván jóval nagyobb lesz, hiszen lesz benne egy rakás multiprocesszor, és olyan erős ROP háttér, amilyet GPU korábban nem is tartalmazott.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #43699 üzenetére
A raszterizálás akkor lesz leáldozóban, amikor a grafikus API-kből kikerül a raszterizációs pipeline. Ez az NVIDIA szerint is olyan 15 év még, legalábbis 2035 körülre mondják a real time path tracinget.
A mostani nulladik generációs DXR verzióra kérdéses a támogatás, mivel a Microsoft legacy státuszba sorolja, és helyette jön egy újabb futószalag, ami sokkal jobb lesz. Viszont azért, hogy jobb legyen, rögtön el is vágták a kompatibilitást. Emiatt nem feltétlenül biztos, hogy az Intel és az AMD ír meghajtót a mostani DXR-hez, mert úgyis más lesz helyette. De egyébként megoldható, tehát nyilván írhatnak egy olyan modult, ami a legacy és az új DXR-rel is kompatibilis. Az egész csak egy TIER szint lesz az API-ban, ahogy a bekötés. Például a régi a TIER_1, míg az új a TIER_2. Azzal a különbséggel, hogy ha a TIER_1-re írod csak, akkor TIER_2-n nem működhet, de TIER_2-re írva megy TIER_1-en (ebben emuláció lesz, hogy a nem kompatibilis fixfunkciós adatutakat meg lehessen kerülni, de a kompatibilitás így garantált, csak a beépített hardver helyett a shader fog dolgozni).
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #43850 üzenetére
Biztos nem. Az Arcturus ISA-ja GFX908. A konzoloké GFX10x.
Valószínűleg ez az Arcturus:
De az érintettek nem mondanak semmit. Viszont az AMD-nél nem tagadták, csak azt írták, hogy nem bejelentett termékről nem beszélhetnek.
De ez egyébként biztos nem grafikus vezérlő. Nincs benne kijelzőmotor, ez biztos, erre vonatkozóan nincs semmi a driver kódjában. A legújabb pletykák szerint a PCI Express vezérlő is hiányzik, de ebben kételkedem. Viszont kijelzőmotor nélkül úgy sem jó VGA-nak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #43984 üzenetére
Attól függ, hogy melyik engine-t használod, mert van hozzá egy rakás plugin. De az 1 perccel sem vagy előrébb, mert még mindig 30-50 képkocka kell per másodperc, és nem egy per perc.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #44011 üzenetére
A Quake 2 hibrid RT-t használ.
A két évtizedet maga Morgan McGuire jósolta. 3034+, ahogy írta. Nagyjából szerintem is az a reális, de nehéz két évtizedre előre jósolni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #44014 üzenetére
Azt ne kérd rajtam számon, hogy te mit látsz bele, mert nem tudok rá választ adni.
Nyilván Morgan McGuire is mondta, hogy a path tracing egy távoli időpont. Nehezen megjósolható, hogy mi lesz két évtized múlva, de ő abból indult ki, hogy hol tart az NVIDIA és mi kell a path tracinghez. Ez alapján nagyjából valamikor 3034 után érnek el oda. 20 éven múlva biztos. Számon lehet rajta kérni majd 2030 végén, hogy mennyit tévedett, de előre szólt, hogy ilyen időtávon ez nehezen meghatározható. Illetve valószínűleg nem vette számításba a konkurenciát, hogy esetleg ők gyorsabban dolgoznának, de talán ilyen messze a céltól ez nem is lenne logikus.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #44024 üzenetére
Ott írja az oldalon az egyik dia, hogy entirely raytraced és egy indirect bounce erejéig PT. Tehát nem full PT, hanem hibrid RT. Ha full PT lenne, akkor nem nézne ki ennyire borzasztóan rondán.
(#44023) b. : Ha olvasod a netet, akkor nagyon sokan leírják a sugárkövetést, csak amiatt, mert ma még nem látnak belőle semmit, az FPS bezuhanásán kívül. De ahogy annyiszor mondtam már, ez két tényező miatt van. Az API és a hardver is nulladik generációs még. Ezt persze hiába magyarázod a játékosnak, tulajdonképpen azt látja, hogy -60 fps, és közben nagyítóval keresi az előnyt, de akkor is fontos, hogy ez az egész valaminek a kezdete, ami két generáció múlva kifogja forrni magát, köszönhetően az új hardvereknek, illetve a továbbfejlesztett API-nak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Carlos Padre
veterán
válasz Jack@l #44011 üzenetére
A Quake 2 elmúlt húsz éves ;)
Szóval igaz lehet, hogy még kell vagy húsz év fejlődés ha RT akarják renderelni a mai grafikai részletességű játékokat. (ami amúgy is egy nagy hülyeség, mert sehol nem használnak nyers réjtrészt a számítási igénye miatt, csak azért megy a náculás "az igazi" RT-re mert az Nvidia brute force-ban nyomja a kretént)Genyó vagyok, ha hülye vagy megmondom.
-
Abu85
HÁZIGAZDA
válasz Jack@l #44977 üzenetére
A TPU tesztjében pedig x16-os PCI Express 2.0 szerepel, ami megfelel az x8-as PCI Express 3.0-nak. Szóval szándékosan írtam, amit írtam. Az AMD szépen felvázolt pár körülményt, amikor ki lehet ütni az x16-os PCI Express 3.0-t. És ezt kétségtelenül meg lehet tenni, de ez csupán az adott játék 0,00000000000000000000000000001%-a, tehát nem életszerű erre a körülményre építeni. Ezért van az, hogy a TPU az x16-os PCIE 2-3-4 összehasonlításnál nem talált 2%-nál nagyobb különbséget átlagban.
Meg tudnánk tenni mi is, hogy erre felépítünk egy tesztet, és akkor marha szar lesz mindennek, ami nem PCI Express 4.0-s, csak nem látom értelmét kikeresett körülményt tesztelni, az adott játék 99,9%-ára nem lesz igaz az eredmény.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #45299 üzenetére
A dobozosból nem. A mobilból meg az OEM-ből inkább. Mindkét piac nagyobb, mint a dobozos. Legalábbis a JPR őszi jelentése szerint. A dobozos a teljes dedikált GPU-piac 34%-a, és csökken, mert volt korábban ez 60% is, persze a bányászlázkor. Amiért az OEM erősödnek azok az átrendeződések, amelyek a elindultak a piacon belül. Ma már a játékosok zöme sem maga rakja össze a gépét, és főleg az USA-ban ezért erősek az ezzel foglalkozó cégek, mert egyre nagyobb az igény az előre összeszerelt konfigurációkra. A mobil ugye eleve ilyen, márpedig elég sokan áttértek ilyen DTR-hez hasonló hordozható gépre, ami a régi modellekel eltérően valóban hordozható. Ezek a lényeges piacok, nem a dobozos.
(#45300) Cifu: Nyilván jelen van az NVIDIA, az egy kritikus piac, mert nagy növekedés előtt áll. De önmagában nem versenyképesek a Google-lel és a Microsofttal, mert három központból szolgálják ki a saját rendszerüket a világon. A Google ~7000 edge-be rakja a Stadia hardvereit, és a Microsoft is így építi majd ki a sajátját, mert ugye a központ kb. ötszáz km-es közelében relatíve jó lehet a késleltetést, de sokezer km-re tőle már szar, tehát emiatt ezt a peremhálózati egységekbe kell építeni, hogy senki se legyen tőle nagyon messzire. Emiatt jelentette be az NV, hogy eladja a rendszerét a szolgáltatóknak, mert ők egyszerűen képtelenek lennének akkora hálózati infrastruktúrát felhúzni, amivel rendelkezik a Google és a Microsoft, ahhoz legalább kellene soktízmilliárd dollár, és még sok év is.
A GeForce Now célja az lett volna, hogy ezekre felfigyeljenek az igazán nagyok, például a Google és a Microsoft, és NVIDIA hardverekre építve csinálják meg a felhőjüket. Csak a Microsoft inkább saját hardvert tervez, a Google pedig igazából meg van fogva, mert cloud gamingre hardveres virtualizáció kell mindenképpen, másképp nem működik hatékonyan. Az lehet, hogy professzionális szinten realítás, hogy egy GPU-t kiosztasz egy felhasználónak GPGPU-ra, mert kérhetsz tőlük annyi pénzt, hogy megérje, de végfelhasználói piacon korlátozottak a lehetőséget, mert ha túl drága a szolgáltatás, akkor nem fognak érte fizetni. Emiatt mindenképpen olyan hardver kell, ami nem egy user/GPU alapon működik normálisan, hanem tényleg le lehet particionálni a hardver valós idejű teljesítményre. Ilyet pedig az AMD-n kívül senki sem szállít, tehát túl sok választása a Google-nek sem volt, vitték az egyetlen hardvert, ami erre képes, mert nagyon számít ám, hogy egy kb. 500 GPU-s peremhálózat fenntartását 500 user fizeti, vagy mondjuk tudja ~5000 is használni párhuzamosan, tehát jóval több felhasználó között oszlik meg a működési költség.A Tencent, ha már szóba került, pont úgy építi a rendszerét, hogy tele lesz különböző hardverekkel. Lesz benne egy rakás Kaby Lake-G, illetve egy csomó Tesla M10. Ez lesz az alapja az egésznek, és egy hoston 6 user is kiszolgálható majd valós időben. Az alaprendszer a Kaby Lake-G, ahhoz aktív lesz az IGP, illetve a pGPU, és még be lesz kötve Tesla M10, amin ugye négy GM107 GPU van. A terhelés függvényében kapják meg az igények a hardvert. Ha a program jó az IGP-re, akkor azon fut, ha erősebb kell, akkor a GM107-eken, míg ha még erősebb, akkor a pGPU-n. Nem véletlenül van úgy felépítve, hogy egy gyenge, egy erős és négy közepes hardver legyen egy hoston, mert ez a tipikus terheléseloszlás is. És ezen túlmenően lesznek erősebb hostok, amelyek már combosabb CPU-t és GPU-t kapnak, viszont a hátrányuk, hogy csak egy usert tudnak kiszolgálni.
A Google emiatt választott más megoldást, mert ők inkább vettek olyan hardvereket, amelyeket tetszőlegesen lehet particionálni, és eközben megőrzik a valós idejű teljesítményüket, tehát nem időosztásos maga a módszer, és a Hypervisor sem szoftveres. Így szabadon dönthetnek arról, hogy egy userre mennyi teljesítményt áldoznak, ha kell odaadnak neki egy teljes Vega 10-et, ha nem, akkor csak a tizenhatod részét, és a kettő között van még egy csomó átmenet.
A dGPU-piac áll még az OEM-ekből és a notebookgyártólból is. Ők az igazán nagy falat, nem a dobozos részleg. Főleg az asztali OEM-ek tesznek manapság a dobozosnak be, mert egészen nagy itt kereslet növekedése, és emiatt van egyre több gaming OEM gép. Arra kell itt gondolni, hogy a fiatal generációba, amely pár éve még iskolás volt, vagy még az is, bele lett nevelve egy megveszem dobozban, bedugom és működik modellbe. Teszem azt, úgy gondolja egy gémer, hogy annyit hallott már a PC Gaming Master Race-ről, hogy kipróbálja. És akkor nem azt teszi, hogy elkezdi válogatni az alkatrészeket, hanem felmegy a Maingear oldalára, vagy bemegy egy nagyobb üzletbe, és kiválaszt egy cuki kis PC-t (talán notit), ami össze van rakva, azt kell csinálnia vele, mint egy konzollal, hazavinni, bedugni, és kész. Márpedig a piac erre lett nevelve az elmúlt igen sok évben. És azok, akik olyan öreg rókák, mint mi, lassan családosok leszünk, a gyerek egyre több időt elvisz, az asszony már furán néz, ha a gép felé közeledünk, stb. Ez a generáció lassan kiöregszik ebből, az új pedig nem a DIY-re lett szoktatva.
(#45301) X2N: Amíg eladják a hardvert oda, addig a gyártóknak ez jó vicc. Az AMD-t, az Intelt és az NV-t nem érdekli, hogy ki mit gondol róla, ha a Google és a Microsoft, illetve a Tencent rendeli a cuccot. Majd ők eladják a szolgáltatást, az már nem a gyártók dolga. Néha az előadásokon megejtenek egy milyen fasza ez a cloud szöveget, és kész, a lényeg, hogy pénz jön belőle.
(#45304) gbors: Ilyen alapon az RX 570-hez képest minden versenyképtelen.
AZ RX 5700 ~30%-kal gyorsabb az 1660 Supernél. De írtam, hogy van olyan játék, ahol a 2060 Super eredményét hozza az 5600 XT. Meg ugye ez a normál verzió, amit a TUL csinált az OEM-eknek. A dobozos verziók nem ilyenek lesznek, a PowerColor például majdnem 200 MHz-et rak a Red Devilre gyári tuningban. Nem is láttam olyan kártyát, ami a speckóban megadott órajelekkel érkezne. Mindegyik meg van rántva. A Sapphire sajtóanyagjában például csak egy nagyon tuningos modell szerepel, plusz ~180 MHz. Valószínűleg az lesz a best buy az 5600-ak közül, de még megvárnám az ASUS ROG-ot, mert azt pletykálják, hogy ők orbitális tuninggal készülnek. Emiatt a guide nem sokat ér, mert sajnos az AMD olyan rendszert alkalmaz az órajel belövésére, ami lehetetlenné teszi, hogy visszarakd manuálisan a hivatalos speckóban ajánlott értékre. Ha valaki mondjuk kap tesztre egy Sapphire Pulse-ot, ami elég nagy realítás, mert főleg Sapphire-t szoktak küldeni, akkor az már alapból jelentősen gyorsabb, mint a gyári modell. És nem tudsz mit csinálni vele, mert a max órajel nem változik, csak a tipikus, ami viszont direkten nem meghatározható. És nyilván ezzel a nagyobb órajellel nem csak TFLOPS-ot nyersz, hanem a 64 blendingből hozod a sok-sok gigapixel/másodpercet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz Jack@l #45359 üzenetére
Nem tudom...
Valahogy nem izgat fel - fogyasztóként - , hogy vajon az AMD hoz-e előbb új szériát a jelenlegi mellé illetve a jobb példányokat fölé árazva stabilan tartva a a perf/$ mutatót. Amire az nvidia trompfolhat rá egy erősebb és ezért még drágább sorozattal tovább rontva a perf/$ mutatót.
Vagy pedig az nvidia jön ki előbb a még drágább új és erősebb sorozattal, ami mellé később beállhat az AMD.
Ez olyan mindegy...[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
#82819712
törölt tag
-
Z10N
veterán
válasz Jack@l #45631 üzenetére
Meg is van az ujabb buveszkedes ara...mindig csak a mokolas.
MSI explains why not all Radeon RX 5600 XT can get 14 Gbps memory
"The problem is that both MSI and ASUS do not buy the memory themselves, the chips are supplied by AMD
This supplied memory was specified to work at 12 Gbps, not 14 Gbps. While it might (and in most occasions will) support 14 Gbps speed, MSI and ASUS cannot guarantee such speed. This would basically cause RMA issues for both manufacturers, who did not validate their cards to work at such frequency."
"They were told to flash GAMING Z bios onto their X’s and rename their products in reviews. So yes, from the reviewers’ perspective, the explanation in the video is a bit embarrassing to listen to."
Biztosan elore eltervezett scenario volt...hogy szivassak a korai vasarlokat. Sok lesz mar ez a 460/560/560D fiasko, 470D, 580 2048sp, Pro 570/575, 550/550X, 5500XT,stb utan. Ez nem profi.# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Yutani
nagyúr
válasz Jack@l #45636 üzenetére
+b.
Egyáltalán lehet kapni 12gbps GDDR6 memóriát? Amikor írtam az előző hszt, rákerestem, de csak korai hírek említik, és mivel a GDDR5X memóriát 12gbps-ig tolták ki, ezért lehet, nem is nagyon van GDDR6-ból ilyen lassú. Ahogy korábban mondta valaki, a memóriát is firmware-ből fogták vissza.
Szerk: Tényleg amatőr tud lenni az AMD, de gondoljátok, hogy bevállal egy olyan fiaskót, hogy a felflesselt 5600XT-k ne bírnák a 14gbps-t? Ennyire nem nyúlhatnak mellé...
[ Szerkesztve ]
#tarcsad
-
FragMaster
addikt
válasz Jack@l #45631 üzenetére
Ezt annak fényében nem értem, hogy a tesztelt MSI és ASUS kártyák mind 14gbps-rated gddr6 modulokkal voltak szerelve. Hogy-hogy nem bírják a névleges sebességüket? Szvsz csak extra bevételt remélnek a semmiért ezek a gyártók.
[ Szerkesztve ]
"FragMaster felhasználónak 11 pozitív és 0 negativ értékelése van a fórumon!": http://goo.gl/vYc6Ml
-
GeryFlash
veterán
válasz Jack@l #46373 üzenetére
Nem lehet összehasonlítani a kettőt, de ha kettő közül inkább az Ampere-hez lesz közelebb mivel inline raytracing lesz a konzolokban is, mai 3-400%-kal jobb hatásfokú köszönhetően annak hogy 1 shader csak akkor dolgozik ha az indított sugár eltalált valamit. Tehát ha akarnák se lehetne olyan szutyok az RT teljesítménye mint a RTX 2000-es kártyáknál.
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
#82819712
törölt tag
válasz Jack@l #46611 üzenetére
Na ez oké, de ha elvesszük a kovidot akkor már most meg kellett volna jelenni a konzoloknak az APU kész hozzá.
AZ AMD gazdasági jelentéseiben erősen látszik a hiány amit a konzolok nem fogyása okoz.
Ha most kinn lennének a konzolok mivel játszanának rajta az emberek ?
Ha 21-ben lesznek olyan címek amire fel tudja építeni. és még a Last Of Us II. 50 ezer dislikes botránya még hozzáadódik ugye .Te Petyke ez mi alapján: "big navi mégsem bizonyult annyira energiahatékonynak"
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Jack@l #46803 üzenetére
Ugyanannyira megy vele az IGP, mint a dedikált GPU. Nagyon szépen ki tudja majd tömni az üresjáratokat ezzel a hardver.
Régebben megosztottam egy adatot erről. "up to 690 billion intersections/s" Ennél többet még nem lehet tudni. Az Xbox Series X-nél van róla adat, hogy lényegesen gyorsabb mindennél, ami eddig van, de ez az eltérő implementációtól is lehet, hiszen a DXR 1.1 (IRT) már dizájnból sokkal gyorsabb működésre képes, mint maga a DXR 1.0 (DSRT). Nem mindegy, hogy egy compute shadert futtatsz csak, és ebből megoldasz mindent, vagy egy rakás különböző shader kell a működéshez.
(#46804) TESCO-Zsömle: Nyilván idővel nekik is lesz. Nem akkora nehézség ez hardveres szinten, amiért eddig nem láttuk PC-ben, az az, hogy nem érte meg. De az új geometriai pipeline mellett van haszna.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #46807 üzenetére
Ki lehet, de mint írtam, az Xbox Series X-en biztosan az inline raytracing fut, és az már a működés szintjén nagyságrendekkel gyorsabb, mint a régi dynamic shader raytracing. Óriási előny, hogy mindaz, amire eddig bekötési táblák, illetve szeparált dinamikus shaderek kellettek mostantól egy compute shaderen belül leírható, és nem kell az adatok mozgatásával törődni. Ez a hardver számára többszörösen hatékonyabb feldolgozást tesz lehetővé. Tehát a sebességnövekedés egy része az pusztán az inline raytracing jelentős sebességelőnyéből ered.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yutani
nagyúr
válasz Jack@l #46885 üzenetére
Te sem tudsz olvasni. Az Anus adja ki ezt a kártyát, nem az AMD. Egyébként a legszarabb NV kártya is az Anusé: GT 710 w/ 32-bit memory
#tarcsad
-
Petykemano
veterán
válasz Jack@l #46953 üzenetére
Hát fogalmazhatunk így is.
Abu azt mondta, hogy a raytracinghez brutális sávszélesség kell. Coreteks korábbi videójában arra hívta fel a figyelmet, hogy
1.) Az adatmozgatás lényegesen több energiát emészt fel, mint maga a számítás. (Data-locality)
2.) Az nvidia nagyon ügyesen oldja meg ezt a kérdést ezzel hatékonyságot elérve.
Ha az amd a raytracing sávszélességigényét Ha ezt valódi - relatív távoli - memóriával akarná megoldani, az biztosan iszonyú energiaigénnyel járna.Az RT mag valójában egy nagy cache.
Valahogy választ kell adni erre a kérdésre. Vagy ha bullshitnek bizonyul, akkor nyilván e. Lesz mondva, hogy az eddigi premisszák hol voltak hibásak.Az elképzelés nyilván azért hihető, mert amúgyis az egyetlen módja annak, hogy több cache-t tudj adni egy részegységnek anélkül, hogy annak kiterjedése és az adatfelhasználástól számított távolsága nőne, az a 3. Dimenzióban van.
De attól még ez természetesen nem több, mint egy izgalmas találgatás.
Találgatunk, aztán majd úgyis kiderül..
-
Yutani
nagyúr
-
Abu85
HÁZIGAZDA
-
Petykemano
veterán
válasz Jack@l #46957 üzenetére
"Adatmozgatásra meg csak megkérdezném, hogy mikor, milyen mértékben van szükség? (nekem csak pálya betöltáskor jutnak eszembe ilyen dolgok)"
Amire te gondolsz, az a Vramba való betöltés. Én meg inkább a vramból a cache-ek valamelyik szintjére, való adatmozgatásra gondoltam inkább.
Persze bármelyikről is beszélünk, annak energiaköltsége van. Minél távolabbi, annál nagyobb késleltetés és energiaköltség.
A lémyeg: ezekhez képest a számítás szinte ingyen van.Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Jack@l #46972 üzenetére
Bizony. A gyakorlatban kinyerhető számítási kapacitás legnagyobb gyilkosa az adatmozgás a lapkán belül. Nem véletlen, hogy minden optimalizálási útmutató arról szól, hogy ezt hogyan lehet csökkenteni. Mert ahhoz, hogy egy ADD/MUL/MAD operációt végrehajtson egy ALU mindössze egyetlen ciklus alatt, el kell vinni az operációhoz szükséges adatot a regiszterekbe. Az már nem csak egy ciklus, GPU-knál akár 100 ciklus is lehet. Tehát tulajdonképpen a teljes lapka 100 ciklusig is dolgozhat azon, hogy egy ciklus alatt végrehajtson egy egyszerű operációt. Ilyen szempontból az az ADD/MUL/MAD "szinte ingyen van".
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #47100 üzenetére
Természetesen a raszterizálás is real time render, meg a nagyon szar minőségű sugárkövetés, csak gondolom hibrid sugárkövetésre gondolt X2N, vagyis nem olyanra, ami marha ronda egy full statikus környezettel. Nem olyan egyszerű ezt megoldani. A legfőbb probléma az efféle modellen ugyanaz, ami a raszterizálásnál. A geometria kezelése teljes lesz, tehát lehet, hogy az effektek, illetve a raszterizálás szintjén csak a kép negyedét számolod, de minden másban a négy kártya egyszer-egyszer kiszámolja ugyanazt. A legjobb módszer ennek az elkerülésére az, ha szétválasztják a leképezést és az árnyalást a motor szintjén, és akkor lesz egy GPU a leképezésre, és be lehet fogni egy rakás másik GPU-t árnyalásra. De ezzel meg az a probléma, hogy nagyon speciálisan írt motor kell ám hozzá. Nem kétlem, hogy erre elmehet az ipar, hiszen a Nitrous már így dolgozik, csak ez nagyon sok fejlesztés kérdése, a fejlesztés pedig idő.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #47102 üzenetére
Ami nem hibrid az vagy nagyon szar minőségű, vagy nagyon lassú. A kettő közé hozták a hibridet.
A Nitrous csak egy példa. Lehet írni olyan működésű motorokat másnak is. De mint írtam a gond az, hogy ez időbe kerül. Ellenben addig nem tudod a GPU-k között szétosztani az árnyalási feladatokat, amíg a motor szintjén nem szeparálod el ezt a leképezéstől.
Az Oxide egyébként kizárólag a Nitrous motor eladásaiból él. Nincs semmi más technológiájuk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #47217 üzenetére
Igen. A fő különbség a régi fejlesztési modellhez képest, hogy iszonyatosan sok erőforrást spórolnak azzal, hogy egyetlen CPU chiplettel fedik le az asztali piac aljától kezdve a szerverpiac tetejéig tartó területet. Az Intel ehhez például fél tucat lapkát tervez generációnként. Az AMD már nem erre költi az erőforrást, hanem átrakja oda, ahol még több lapkát kell tervezni. A processzorpiacot minden évben megoldják egy picike chiplettel.
(#47215) KillerKollar: Most csak azért tűnik ez gyors elavulásnak, mert megint gyorsan fejlődnek az API-k, de ez is megtorpan majd. Utána különösebb hátrány nélkül lehet egy adott generáción maradni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Mobil flották
- Mikrotik routerek
- Mobilokra és tabletekre is megjelenik a Dead Cells
- gban: Ingyen kellene, de tegnapra
- Hobby elektronika
- Elektromos autók - motorok
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- Kormányok / autós szimulátorok topicja
- A fociról könnyedén, egy baráti társaságban
- Jövedelem
- További aktív témák...