Új hozzászólás Aktív témák
-
Crytek
nagyúr
válasz
Petykemano #34573 üzenetére
De hát te nem tudtad? Az nvidiának már nincs sok hátra mert az intel kivégzi őket.... Szóval hiába vezeti a benchmarkokat lassan már a múlté lesz a cég
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34568 üzenetére
Szakmai szinten kezdjük ott, hogy az NVIDIA-nak nincs ray-tracing megoldása. A DXR egy Microsoft szabvány. Semmi köze az NVIDIA-hoz. Az RTX csak egy név, ami a DXR drivert takarja, de ilyet más is írhat, akár el is nevezhetik sugárbébinek. Tehát egy olyan dolgot nem lehet szidni, ami nem is létezik.
Az AMD-nek van egyébként saját ray-tracing megoldása Vulkan API-ra. Az valóban nem szabványos, annak ellenére sem, hogy amúgy minden hardveren működni fog, hiszen a Radeon Rays library van bekötve a Vulkan API fölé. Ez sem lesz más, mint a DXR, csak nem szabványos, tehát az AMD határozza meg, hogy miképpen futhat az egyes hardvereken, nem pedig az adott hardver gyártója, ahogy a DXR esetében.A legnagyobb probléma egyébként ezekkel a ray-tracing megoldásokkal, legyen az a Microsoft szabványa, vagy az AMD Vulkan fölé húzott koncepciója, hogy iszonyatosan erőforrás-pazarlók. Ez mindkettőre igaz lesz. És persze lesz itt 1 TB/s-os közel 600 TOPS-os Vega 20, vagy már van 650 GB/s-os 120 TOPS-os Titan V, stb, ezeket sokan nem fogják tudni megvenni. Pedig ezek azok a szintek, ahol ez a sugárkövetés realitás, de még így is 30 fps-ről van szó. Emellett a DXR csak olyan programot futtat, amiben az IR DXIL-ben van szállítva, amire pedig csak a dxc fordít, méghozzá csak új specifikációjú HLSL-t. Tehát a DXR használatához nem csak ezt kell beépíteni, hanem újra kell írni közel 300 ezer sornyi meglévő kódot. Nem véletlen, hogy annyira egyikre sem ugrott rá a piac, mert a DXR-nél közel másfél éves munkával jár egy meglévő motor portolása, és eközben Windows 10 Redstone 5 lesz a minimum igény. A mostani Redstone 4-re már azt fogja mondani az alkalmazás az indításnál, hogy "baszki ez nem elég jó ide". A Vulkan API-nál az AMD-s Radeon Rays megoldásának pedig ott a baja, hogy bár technikailag gyártófüggetlen, azért a backendet biztosító Anvil erősen úgy van megírva, hogy bizonyos AMD kiterjesztéseket igényel. Tehát persze be lehet építeni, még Windows 7-ig visszamenőleg is működik, de nem garantálható 100%-ig, hogy az effekt bekapcsol az NV és az Intel Vulkan implementációján.
Szóval nagyjából itt tart a ray-tracing. A DXR-rel lezárod a játékod az év végén érkező Windows 10 frissítésre, és aki nem használ ilyet, annak nem is érdemes megvenni a programot, mert nem fog elindulni. A másikkal pedig nincs garancia a 100%-os kompatibilitásra. Ettől függetlenül a SIGGRAPH-on is volt róla szó, hogy pár fejlesztőnél befizették mindkettőt, de pénz nélkül erre nincs értelme ráugrani. Különösen az AMD speciális megoldására, mert abból sose lesz szabvány. Szerintem kb. a Bethesda lesz az egyetlen, aki használni fogja, elvégre nekik az AMD csinálja az R&D-t. -
Dandris
tag
válasz
Petykemano #34568 üzenetére
Pontosan, csak meló közben nehéz így megfogalmazni. Köszönöm
Abu: Egyébként nézhetjük a prey megjelenést, amit biztosan egy amd kari megjelenéshez lett kötve ugye
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34554 üzenetére
A sugárkövetés alapvetően nem egy tensorban megvalósítható dolog. Az FP32-es számítás, ráadásul a DXR aktuálisan érkező verziója 32 bites vertex formátumot támogat csak, vagyis ha nem butítasz nagyon a geometriai részletességen, akkor 10+ GB VRAM a belépő. A második DXR verzió fog több vertex formátumot támogatni, de az leghamarabb jövő tavasszal jön, de az is lehet, hogy csak egy év múlva, mert rengeteg más szempontból is változás lesz a DXR-ben, ami már eleve megtöri a kompatibilitást, tehát célszerű, akkor egyben újrakezdeni.
A fixpontos dot product a denoising szempontjából előnyös a DXR-ben, de ott is valami szabályozást akar az ipar, mert az AMD például már bejelentkezett a 4 bites megoldásával, amit a DXR specifikáció elfogad, de az NV szerint kellene egy minimum érték. Nekik ugye 8 biten kell ragadni a hardverük miatt, ami azt jelenti, hogy az AMD sokkal gyorsabb lesz a Vega 20 4 bites formátumával. A 8 bites fixpontos dot product egyébként egy reális szabvány lehetne, de mivel az AMD-nek már van 4 bitre is alkalmas hardvere, így csípőből ellenezni fogják, vagyis leginkább annak van most realitása, hogy az NV és az Intel is elkezd vadul menni a 4 bites formátumra.
Jelen pillanatban a DXR mögött rengeteg a kérdés. Már csak a hardver oldali implementáció miatt is, mert a Microsoft nem nagyon akarja szabályozni ezt, ők úgy vannak ezzel, hogy adnak egy specifikációt, aztán nézik a végeredményt. Azt nem igazán akarja a cég meghatározni, hogy a végeredmény előtt mit csinálhat a hardver. Az MS szempontjából akár varázsolhat is, ha a végeredmény megfelel a követelményeinek. Az NV azonban szabályozást akar, méghozzá úgy, hogy a Microsoft kötelezően írja elő, hogy fixpontos dot product számításokat egy külön ALU-csoport végezze. Ebbe például az AMD és az Intel helyből nem fog belemenni, mert ők például ellenzik ezt a megoldást, ugyanis ha így lenne meghatározva a specifikáció, akkor tranzisztorok milliárdjait költenék egy olyan részegységre, amely grafikai szempontból csak egy specifikus működés mellett hasznos, máskor pedig csak a helyet foglalja. Ezzel szemben az AMD és az Intel a fő ALU-kba építi bele a fixpontos dot product támogatást, vagyis ha erre nincs szükség, akkor azok a tranyómilliárdokat elfoglaló ALU-k mást számolnak. Az NV-nek érthető, hogy ez miért nem tetszik, a architektúrájuk ilyen formában hátrányba kerül, mert ha egy játék nem használ majd DXR-t, akkor semmit sem fog érni a hardverben található rakás fixpontos dot product ALU. Ráadásul a denoising esetében a Microsoft nem igazán határoz meg semmit. Emiatt az AMD lehet, hogy nem is DL TOPS-szal implementálja, hanem SAD/QSAD/MQSAD megoldással, amit visszamenőleg meg tudnak oldani az összes GCN-re.A másik probléma ebből a szempontból a Vulkan API. Amire szintén van egy nagyon érdekes sugárkövetési megoldás. És ott az a fő gond, hogy azt az AMD írja, és nem egy szabványalkotó. Ráadásul nem lehet megcsinálni driverben azt, hogy ezeket a feladatokat a hardver ne futtassa le, vagyis az NV és az Intel is kénytelen elviselni mindazt a terhet, amit az AMD saját megoldása rájuk rak. És a DXR-hez képest a Vulkan AMD-s megoldása nem az API kiegészítése, hanem egy API feletti réteg, így a meghajtó oldalán nem befolyásolható, úgy fut a program egy hardveren, ahogy az AMD akarja. A DXR ebből a szempontból sokkal általánosabb, hiszen a Microsoft lehetővé teszi a saját fallback layerét, illetve a gyártó bármikor írhat rá drivert, amiben sok dolgot befolyásolhatnak. Ilyen formában a DXR nem igazán veszélyes, mert specifikált megoldás, amit egyenrangú felekként támogathat minden IHV. A Vulkan feletti Radeon Rays sokkal veszélyesebb, mert még ha a Volta tudná is futtatni sokkal hatékonyabban, akkor sincs meg az az úgymond híd, amivel ezt meg is tudják valósítani.
-
cskamacska
addikt
válasz
Petykemano #34512 üzenetére
Az van már Vega megjelenése óta.
és ha már Vega
Miért nincs 200000 alatt egy Vega sem Árukeresőn?
Mintha már nagyobb lenne a választék, de az áraik jól láthatóan felmentek, pontosabban nem mentek le. Ződ oldalon a GTX 1070 továbbra is 140-150, 1070Ti 150-160, 1080 180 ezer forinttól, az árak nem nagyon változtak.
-
Erdei88
veterán
válasz
Petykemano #34479 üzenetére
PótLake....
-
Crytek
nagyúr
válasz
Petykemano #34479 üzenetére
AMD meg lehozza Ryzenbe a 32 magos ripper feriket....azt lesz itt minden csak nem rip...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34475 üzenetére
Mert nyolcmagos. A motorba építettek deferred contextet, de csak NV-n aktiválják, viszont így az NV driver máshogy viselkedik, mint az IC manuális többszálúsággal. Az AMD utóbbit használja, vagyis a magok számának növelése valós eredményhez vezet. Az Intel IGP-i is az utóbbit használják.
A következő generációs GeForce parancsmotorjából már rengeteg aktuális funkciót kivágtak, és az általános data path-ok szélesebbek, így az sem igényel majd specifikus optimalizálást a skálázódáshoz, vagyis ott is mehet majd az általános kódút.
-
#59036672
törölt tag
válasz
Petykemano #34472 üzenetére
Ez azért így nem korrekt mert ha az nv mondjuk Laborghini akkor a Régebbi (ATi) Radeonok bizony Ferrarik voltak.
Pl: az én Ati Radeon (Sapphire 5870 Toxic) kártyám akkoriban kettéhugyozta az Nvidiat. Röhögtem sokat az nv tulajokon akkoriban. Sajnos számomra még mindíg az a teljesítmény/minőség a Benchmark.
AMD lerak az asztalra egy ilyen kártyát és még aznap eladom a gtx-et. -
imi123
őstag
válasz
Petykemano #34459 üzenetére
Nem ám.Főleg újan 70-ért.
A Zotac logó az 1070-esemen most is pirosan világít.Nosztalgia. -
Kolbi_30
őstag
válasz
Petykemano #34247 üzenetére
Mindjárt beugrik manbal meg a másik 😂😂 Erről is Soros tehet 😂
-
válasz
Petykemano #34247 üzenetére
De sokáig tartott...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34245 üzenetére
Pedig ez az a két szituáció, amikor nem éri meg kiadni. Az elsőnél azért, mert jól lehet vele keresni, míg a másodiknál azért, mert nagy veszteséget okozna. A kettő közötti állapot az, amikor ideálisan működik a piac.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34242 üzenetére
Gyártó válogatja. Elsősorban a keleti gyártók küzdenek vele, akik főleg a nyugati piacot látják el, ott még ez a probléma nem ütötte fel a fejét, mert az európai bányászfarmok továbbra is jelentős pénzt raknak VGA-ba. Ezt a Sapphire-től tudom. Az anyavállalatuk még mindig több millió eurós megrendeléseket teljesít a bányászfarmok felé. De ez is befuccsol majd záros határidőn belül, ahogy a kínai bányászat tette. Valószínűleg ezért sem érinti még ez a probléma az AMD-t. Amíg ugyanis Európában a Sapphire szolgálta ki szinte kizárólag a bányászfarmokat, addig Kínában csak a TUL adott nekik Radeont, és ők is csupán az összes bányászatra vonatkozó eladás kisebb részéért feleltek. A többi tajvani gyártó GeForce-ot kínált bányászatra, abból lett extrém túltermelés. Az AMD-t valószínűleg úgy augusztus felé kezdi majd el érinteni ez a probléma.
-
válasz
Petykemano #34242 üzenetére
Megvezették Abut, ne akard már ráverni!
-
válasz
Petykemano #34230 üzenetére
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34226 üzenetére
A Fenghuang a Polaris 10/20 helyére jön.
Most eléggé alábbhagyott a bányaláz. Csak az eladott kártyák tizede került oda idén.
Majd az új Threadripperre lesznek ráizgulva ősszel. Az Moneroban 80%-kal is gyorsabb, mint a Vega 10.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34222 üzenetére
Amikor a vásárlók már nem pucolják ki a raktárakat.
(#34223) Csupingo: 125 wattba simán belefér. A csúcs Kaby Lake-G is 100 watt. Ebből a proci 45. 55 watt jön a leggyorsabb ottani AMD pGPU-ból. Persze az Intel itt érdekes skálázást is alkalmaz, így a proci képes 35 wattra csökkenteni az energiaigényét és akkor 65 wattot kap a pGPU. De ez fordítva is igaz, a proci elkérhet 60 wattot is, és akkor 40 marad a pGPU-nak. Az egész alkalmazásfüggő.
-
s.bala31
őstag
válasz
Petykemano #34131 üzenetére
Kinek az érdekét kéne néznem amikor vásárolok magamnak egy VGA-t, az AMD-ét mert "szegényeket" megszívatták az exmérnökeik?
Ugyan már, ez szerintem nem így működik a vásárlók többségénél. Amennyiben az Intel letesz az asztalra egy ár/teljesítményben elfogadható terméket simán megveszem és az sem fog különösebben érdekelni ha csak tőlük lehet majd VGA-t venni. Mellesleg ezt úgy sem fogják engedni a hatóságok, hogy egyszereplőssé váljon a VGA piac. Én optimista vagyok
-
Milka 78
nagyúr
válasz
Petykemano #34132 üzenetére
Te meg kimeríted azt a tábort akinek lövése sincs a világ működéséröl és érzelmi alapon választ terméket,de se baj ilyen honfitársak is kellenek
Mint mondtam vannak győztesek és vesztesek.Ez egy ilyen játék.Van aki jól játsza és bevet minden piszkos trükköt és van aki nem.Ennyi.
Ezt az Intel/gpu-t meg majd visszaolvassuk mondjuk 2-3 év múlva,csak aztán nehogy ez is olyan mester féle,nem teljesült jóslat legyen -
Milka 78
nagyúr
válasz
Petykemano #34116 üzenetére
Jaja...német kocsit se vegyél,mert lopnak,csalnak,hazudnak.Az F1-be (és a valós életben is) a Renault és a Ferrari ipari szintű kémedéssel szerez plusz infókat,elszipkázza az értékes embereket és megkerüli a szabályokat unferr módon megkerüli, így a full PSA és Fiat konszer is kiesett.Ideje lenne már felkelni és nem idealizálni,vagy démonizálni egy céget,mert mindegyiknek van vaj a füle miatt
-
s.bala31
őstag
válasz
Petykemano #34116 üzenetére
Jelenleg NVidiám van mert amikor vettem sokkal jobb ár/teljesítmény mutatója volt mint az AMD termékeinek (most is). Nagy csalódás volt akkoriban számomra az AMD Vegája. Legközelebb is zöld oldalról fogok választani ha jobban meg fogja érni általuk gyártott gpu-val szerelt VGA-t vásárolni, függetlenül attól mit "derítenek ki" a cégről ilyen-olyan jútyúberek meg firkászok.
-
rumkola
nagyúr
válasz
Petykemano #34116 üzenetére
LOOOOOL
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34032 üzenetére
Senki sem hibás itt. Pletykákat lehet írni és linkelni is. Semmi gond nincs velük, csak tudni kell kezelni őket. Még én is megírtam Tombácsi pletykáját, csak még az élesítés előtt megírta az egyik kontakt, hogy kamu, így inkább nem is jelentettem meg a hírt.
-
Raymond
titán
válasz
Petykemano #34020 üzenetére
Nem, a Hot Chips-en csak a mar bemutatott es piacradobott termekekrol beszelnek es a bemutato cimeben "mainstream GPU" van ami nem a Volta.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34012 üzenetére
Ezek nem egyedi mérőszámok. Így lehet mérni a hatásukat, mert a grafika számítása az heterogén feladat, vagyis sok eltérő részegységgel történik az egész és/vagy eltérő hardverállapotok mellett. Tehát van egy megoldás egy bizonyos problémára, amit nem tudsz kimérni fps-en, mert az a teljes képkocka számításának időtartamát méri, miközben lehet, hogy az adott technika a képkocka időtartamának az 5%-ára reagál. Tehát azt az 5%-ot gyorsítja mondjuk 50%-kal. Viszont ha az fps-t méred, akkor rendkívül félrevezető az egész, mert beleraksz a mérésbe 95%-nyi értelmetlen időt, ami csak megakadályozza, hogy megmérd az újítás előnyeit.
Mármint mert nem méred ki. A Doomnál például ki lehetett mérni, hogy az intrinsics mit hozott. Nem az OpenGL és a Vulkan különbségét láttad a Radeonon, hanem azt, hogy a Vulkan kódhoz a PSSL-ből volt fordítva a SPIR-V, míg az OpenGL kódnál maradt a GLSL.
Ezek a mai GPU-k igazából igen extrém mértékben skálázhatók. Ezek a modern ISA-k 30000+ konkurens szálat is futtatnak. Tehát igazából csak a buszrendszertől függ, hogy hány tömböt raksz a hardverbe, valószínűleg akkor sem ütköznél skálázási gondokba, ha minden multiprocesszort külön tömbbe helyeznéd. Az más kérdés, hogy hatalmas faszság lenne, de az ISA alapvetően elbírná. Ezért sincs egy jó ideje gyökeresen új utasításarchitektúra az AMD és az NV részéről, mert hamarabb futnak bele a gyártástechnológia fizikai limitjeibe, minthogy maga az ISA skálázódása váljon korlátozóvá. Legközelebb akkor lesz itt nagy változás, amikor hozzák a dinamikus erőforrás-allokációt. Ott kényszerből bele kell nyúlni a működésbe, mert a mostani ISA-k statikus módszerre vannak szabva. Ez egyébként majd egy külön izgalmas változás lesz. Egyedül a megboldogult Larrabee volt ilyen rendszer, csak hát sajnos nem tudtuk megtapasztalni az előnyeit.
(#34013) Oliverda: Nyilván ezek a dolgok csak azokat érdekelhetik, akik értik is, hogy miről is van szó.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #34009 üzenetére
Na most ezeket nem úgy kell mérni, erre nem véletlenül voltak olyan meghajtók az elején, amikben le voltak tiltva. A hatásukat eleve nem fps. A DSBR-t például bytes/frame-ben mérik, az IWD hatását a kontextusváltások számában, míg a DCC-t szintúgy bytes/frame-ben. Persze ehhez tudni kell, hogy miket keressen, egy szimpla tesztelő nem tudja megcsinálni. Egyrészt nincs hozzá meghajtója, illetve hiába is szerzi be a toolokat, akkor sem fugja tudni, hogy mit kell nézni.
Ők már jóval többet tudnak a Microsoft új WDDM-éről. Az erőforrásaikat inkább abba ölik, mert egy külön vásárolható kártyával szert se fogsz elérni rajta.
(#34010) Petykemano: Az AMD teljesen más. Ők már tudják használni, hiszen van hozzá egy rakás kiterjesztésük mindegyik elterjedt API-ra. A szabványos megoldás viszont más, ott már mindenki tudja majd használni, így megéri sokkal többet építeni rá, hogy több legyen az összesített sebességelőny is.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33991 üzenetére
A DCC, a DSBR, IWD, stb. ezek mind működnek. Régebben volt olyan driver, amiben ezeket letiltották és meg lehetett nézni vele és nélküle. Ma már ilyet nem csinálnak, mert ezt csak a megjelenésre tették meg. Az IWD-t ugye úgy, hogy a 17.50-es batchtől van.
A többit nem értem, a szuperskalárizét és a super-SIMD-et sem.
Sok dolgot nem is kell szoftverből alkalmazni, driveres. A fenti három mindenképpen. DCC-je nyilván van a Fiji-nek is. IWD-je nincs, de az leginkább ott számít, ahol a munkafolyamatok kiosztásáért felelős egység limitál, például Far Cry 5-nél, Deus Ex Mankind Dividednél mindenképpen, mert ott sok a geometria. A DSBR a tipikus tiled motorokban számít, mint a Frostbite, ott nagyon sokat 30% körüli bytes/frame spórolás van. Ez egyébként az iparágon belül a PowerVR spórolásához mérhető, a többi rendszer kevesebbet spórol, igaz azok nem is draw stream megoldások.
Nem is célozzák, hogy sikerüljön. Láttad, hogy senki sem növelte meg a VGA-kra vonatkozó gyártókapacitást, amikor halálra is kereshették volna magukat az elmúlt egy évben. Ezek a cégek írják a piacot és nem csak a résztvevői. Nekik már megvan komponálva a 2020 utáni időszak, amit kurvára nem külön megvásárolható kártyákkal képzelnek el. Ma már arra rendezkedik mindenki. Ha számítana egy kicsit is ez a piac, akkor most mindenki szolgálná ki a ti VGA-k iránti igényeiteket, mert látod, hogy mennyien várják az újakat. Ehhez képest csak az időt húzzák, pedig már nincs mire, a bányászat beállt a termelt VGA-k kb. 7%-ára. A többi már a játékosoknak megy.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33980 üzenetére
Azért ritka manapság az előny clock-2-clock, mert ma már az órajel is egy fícsőr. Csak ahhoz ész kell, hogy ezt meg is értse a média. Szóval hiába magyarázza azt az Intel, az NV és az AMD is, hogy a magasabb órajel az nem úgy jön, hogy kisebb a csík és csak úgy megterem, hanem beletervezik magába az architektúrába.
Egy, azóta ex-Intel alkalmazott mondta nekem régebben, hogy több újságíró is a 2000-es évek szintjén ragadt, és nem tudják őket kirobbantani onnan, mert egyrészt nagy már a bizalmatlanság a gyártók felé, hogy biztos hazudnak (nyilván 20 évvel a hátuk mögött talán egy-két füllentésre való emlékezés erre ad is alapot), másrészt régen volt nagy clock-2-clock változás is, és ezt keresik újra és újra, de ma már hiába. A húsz évvel korábbi tapasztalataiknak viszont jobban hisznek, így a modern gondolkodásra képtelenek lettek, vagyis nem tudják elfogadni, hogy a legnagyobb teljesítményt ma konkrétan szoftverből nyerhetik a hardvergyártók is, de ehhez ugye kellenek a szoftverek is.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33955 üzenetére
Mindenhol programozni kell. A semmiből nem terem kód senkinek.
Minden számolásnál ugyanazt a matekot kell követni. ALU-k száma * órajel * utasításonkénti operációk száma. Egy nyolcelemű packed dot product például 8 MUL és 7 ADD.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33929 üzenetére
Kétféle irány kezd kialakulni. Az egyik a speciális, amikor magát a gyorsítót eléggé specifikusan egy célterületre tervezik, míg a másik az általánosabb felhasználás, amikor nem csak packed dot productra van kigyúrva a hardver.
Ezt többen másképp közelítik meg. Az Intel konkrétan két hardverrel. Nervana a specializált irányra, és a DL-es Xeon Phi az általánosra. Az NV egyszerűen egy hardverbe építi mindkettőt, de úgy, hogy elszeparálják a részegységeket, míg az AMD egy hardverbe építi mindkettőt, de nem szeparálják el a feldolgozókat.
Mindkettőnek megvan a maga előnye és hátránya.
Az Intelnek az lesz a gondja, hogy két hardverre kétféle szoftverkörnyezetet nehéz lesz optimálisan fenntartani, na jó nem annyira nehéz, de minimum eléggé költséges. Viszont a CPU-szerű Xeon Phi dedukcióra nem igazán gyúrható ki, mert már maga a felépítés elvisz egy rakás tranzisztort.
Az NV-nél igazából a tranzisztorköltség a gond, mert gyakorlatilag külön feldolgozókat alkalmaznak a packed dot productra, és mellette más feldolgozók vannak a tréning szakaszra.
Az AMD-nél a Vega 20-ról tudni lehet, hogy az AMD az architektúra flexibilitására épít, és mindent egy feldolgozóból oldanak meg. Ez kicsit olyan, mint amit az Intel csinál a Xeon Phi-nél, csak az architektúra nem követel meg a működéshez bazi nagy, tranzisztorzabáló gyorsítótárakat és ezekhez tranzisztorzabáló vezérlést, vagyis az implementált tudáshoz kellő mennyiségű feldolgozó is lesz. Ennek az előnye az, hogy az elérhető linux driver doksik szerint 4/8 elemű packed dot productot simán le tudsz implementálni. Dot utasítással 8 bites adatokon 1 GHz-en simán megvan ~114 TOPS. És az órajel biztos nem 1 GHz lesz. A 8-elemű módban akár a 400 TOPS is meglehet. De ha feltételezünk 1,5 GHz-et, akkor akár a 600 TOPS is. Ennek az összevont dolognak az az előnye, hogy az összes feldolgozót használhatod packed dot productra, míg az NV s saját módszerével csak a beépített feldolgozók kis részét éri el így, az Intelnek a Xeon Phiben eléve túl kevés feldolgozója van, mert az architektúra nem skálázható ideálisan. A hátrány igazából a tréning szakaszok keletkezik, mert ott igazából ezek a specifikus előnyök nem jönnek elő, mivel legalább 16 bites FP packing kell. Ott már a kevert pontosság melletti lebegőpontos számítási teljesítmény számít. -
Abu85
HÁZIGAZDA
válasz
Petykemano #33897 üzenetére
A DXR esetében a Microsoft két lehetőséget kínál a működésre. Az egyik a fallback layer. Ez egy olyan univerzális réteg, amit a Microsoft ír, és minden olyan legalább shader modell 6.0-t támogató hardveren futni fog, ami nem kapott gyártói réteget. A gyártóknak azonban lehetőségük van arra, hogy írjanak maguk egy saját hardver fölötti réteget a DXR-hez, amivel nem a Microsoft univerzális rétegét fogják használni, hanem maguk határozhatják meg, hogy az egyes feladatok hogyan fussanak a hardveren. Az RTX egy ilyen réteg a Volta fölé. De nem biztos, hogy ez a réteg el lesz nevezve, gyakorlatilag ez egy driver, amit nem drivernek hívnak, de ettől még egy szimpla driver.
(#33898) TTomax: A tesszelláció tökéletes példa arra, hogy mennyire tönkretehet valamit, csak itt a tesszelláció jellegzetessége miatt nem játékról, hanem effektekről lehet szó. Viszont látható, hogy például se a Hairworks, se a God Rays effekt kód nem fejlődik az NV-nél, mert maga az alapkoncepció az indokolatlan mértékű tesszellálásra épít, és ezáltal a geometry shaderre épít, amik olyan mértékben lezabálják az effektre szánt időbüdzsét, hogy a fontosabb komponenseket, a minőséget biztosító komponenseket már nem tudják hozzáadni. És itt például a Hairworksnek alapvetően szüksége lenne valamilyen OIT megoldásra, sőt, specifikus élsimításra is, hogy a jobb ütközésdetektálásról már ne is beszéljünk, csak nincs rá több tervezett erőforrás, mert elment a hardveres kapacitás olyan dolgokra, amelyek a végső képen a végleges minőségbe alig szólnak bele, de vért izzad a vas, hogy megoldja ezeket. Ez nem lenne annyira kirívó, ha nem lenne a Hairworks mellett egy TressFX, ami például nem tesszellál, geometry shadert sem használ, és gyorsabban megcsinálja a feladatot OIT, analitikai élsimítás és ma már SDF kalkuláció mellett, mint a Hairworks ezek nélkül. És ez meghatározza egy effekt jövőjét is. Ha már az alap hibás, akkor nem fogják továbbfejleszteni, mert nem tudnak mit kezdeni az erőforrásigényével, ezért nem láttuk sosem a második generációs HairWorksöt, míg a TressFX már negyedik generációs kódnál tart.
És hasonló probléma merül fel a sugárkövetésnél is. Azt nem igazán lehet optimalizálni, túl egyszerű maga a feladat, maximum paraméterezhető, hogy pixelenként hány sugár legyen, és milyen messze legyen számolva. Hasonlóan a tesszellálásnál, meghatározhatod a formátumot és a részletességet. De ha elszámolják az egészet, akkor onnantól kezdve azon kell gondolkodni, hogy a raszterizálás szempontjából mi legyen visszavéve, vagy ha a memóriaigény jelent problémát, akkor csökkenteni kell a textúra- vagy a geometriai részlegességet, mert ugye a VGA-k esetében a memória eléggé kötött, és nem minden meghajtóban van egy csúszka, hogy oda igazítsd a visszajelzett memóriát, ahol jó a programnak.Önmagában viszont a tesszelláció nem hibás például a fentiekért. Nem az eljárással van probléma, ahogy a sugárkövetés is nagyon jó technika. A tesszelláció esetében például a fenti problémákat minden esetben az emberi hülyeség okozta. Még azt se mondom, hogy szándékos hülyeség, mert lehet, hogy fiatal volt aki a projektet vezette, látszólag jó ötletnek tűnt az egész, mára meg a tanulópénzként tekint rá (főleg úgy, hogy az NV pénzét égette el). A sugárkövetésnél is ez lesz. Lehet ezt jól használni, és lehet úgy is, hogy végeredményben úgy nézd a tükröződést, a GI-t és az AO-t, hogy szép-szép, de a játék többi része öt éves szintre lett butítva. És itt jön elő egyébként az állandó vita, ami tényleg egy aktuális vita, hogy mire érdemes ezt használni. Mert igen, a sugárkövetéssel biztosan jobb lesz mondjuk a tükröződés, de mondjuk egy trükkös SSR megoldás tízszer gyorsabban hoz egy megközelítőleg jó eredményt. És felmerül itt, hogy például a játékos a játék közben észreveszi-e, hogy éppen van egy olyan doboz a jelenetben, ami pont nincs rajta a képkockán, de pont látszódnia kellene a vizes padlón a sarkának. Az ultimate kérdés tehát az, hogy megéri-e ezért az előnyért tízszer több ALU kapacitással fizetni, és megéri-e bizonyos problémák esetén az alapvető minőséget adó raszterizálásból elvenni, ami kihatással van a teljes játék grafikájára is, sugárkövetés ide vagy oda.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33895 üzenetére
Nagyon szép a marketing, csak ha megnézed a DXR-t, akkor az jelenleg csak 16 és 32 bites lebegőpontos formátumot támogat. A tensor magok 8 bites fixpontos ALU-k.
Eleve az AMD mondta, hogy ők is tudnak rá drivert csinálni, GCN3-tól felfelé van is már tesztcsomag. Egyébként egy olyan dologról vitázunk, aminél a Remedy elmondta, hogy 1920x1080 pixeles felbontáson, pixelenként egy sugarat, virtuálisan maximum 4 méteres távolságig kilőve a számítások nagyjából 5 ms-ig tartanak. Na most egy sugár az nem sok, és a 4 méteres távolság sem az, tehát iszonyatosan szűk térben alkalmazható technikáról van szó, ami a 60 fps-hez mért képszámítás harmadába kerül és akkor ez csak Full HD. 4K-n ez 20 ms, ami a 30 fps-hez mért képszámítás kétharmada. És akkor még nem számoltál semmit, amit ki tudnál rakni a kijelzőre.
A packing alkalmazható a DXR-en belül, hiszen támogatott a shader modell 6.2 16 bites lebegőpontos formátuma. Persze ettől az ég óvjon minket.
Elmondom neked, hogy miért csinálják ezt a sugárkövetést a gyártók. Az AMD-nek és az NV-nek is ugyanaz a koncepció mögötte. Mindegy, hogy DXR, vagy Vulkan-féle GPUOpen, vagy egy esetleges Vulkan szabvány, a probléma az, hogy a PC-s GPU-kat a jövőben nem igazán lehet úgy skálázni, hogy ne növekedjen meg a multiprocesszor:raszter arány. Viszont ahogy távolodsz a konzolok arányától, ami amúgy 8:1 körüli, úgy lesz egyre több idle lyukad az architektúrában. Tehát tök jó, hogy megvan a GPU-ban az ALU, csak a shadereket nem olyan multiprocesszor:raszterre optimalizálták, amilyen az új, erősebb GPU-ké. Viszont a sugárkövetés egy marhára függetleníthető folyamat a raszterizációtól, vagyis meg tudod azt csinálni, hogy ezt felhasználod az idle lyukak betömésére az aszinkron compute segítségével. Ettől még mondjuk egy újabb, mondjuk 16:1-es arányú GPU nem lesz jobb grafikára, de van egy rakás szabad ALU kapacitása sugárkövetést számolni.Nagyjából ennyi a koncepció mögötte.
Egyébként ez a sugárkövetéses dolog nem rossz, csak lesznek majd olyan árnyoldalai, hogy ha nem lesz meg a teljesítmény, akkor maga a sugárkövetéses rész a programon belül túl egyszerű, hogy bármit is elvegyél belőle, emellett a 32 bites lebegőpontos formátum eléggé zabálja a memóriát is (értem a 16 bit opció, csak aki látott már ilyet, az tudja, hogy nem éppen reális), miközben van erre sokkal jobb formátum is, ami pont nem támogatott. Tehát iszonyatosan kell majd a memória, ami miatt félő, hogy kisebb textúrarészletességet szállít a fejlesztő, vagy rosszabb minőségű modelleket, mert azzal a sugárkövetés memóriaigényét is levágja. Vagyis összességében többet vesznek majd el a raszterizálás minőségéből, mint amennyit a sugárkövetés egyáltalán hozzá tud tenni az egészhez. Nézd meg a Metro Exodust sugárkövetéses trailerét.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33892 üzenetére
Nem alkalmasak. Maximum denoisingra jók.
-
válasz
Petykemano #33892 üzenetére
Akkor jöhetnek a föld alatti fények.
-
cl.aci
aktív tag
válasz
Petykemano #33877 üzenetére
Ő mindent is tud.
-
Dtomka
veterán
válasz
Petykemano #33820 üzenetére
Írtam én olyat, hogy az AMD béna? Nem azok, csak 1 másik úton indultak el és nem vált be.
Az áremelkedést a bányászláz okozta. Vagy szerinted más oka volt? Ők is éltek a lehetőséggel...jól tették. Kisebb cég, sokkal rosszabb helyzetben vannak.Az Nvidia valóban elhúzott, (Fermi után a jelenlegi sorozat előtt le a kalappal!) de erre írtam, hogy remélem az AMD összekapja magát.
-
Dtomka
veterán
válasz
Petykemano #33818 üzenetére
Az egész regényedből csak erre reagálok.
"a jót meg kell fizetni." Akkor szerinted az normális dolog, h egy ~100 000 ft os vga majdnem 2x annyiba kerül?
ASUS STRIX-GTX1060-6G-GAMING GeForce GTX 1060Szerintem meg lehúzás...
A jót meg kell fizetni...
Igen én semleges vagyok, hisz sosem volt és nem is lesz rajtam 1ik féltől sem az a bizonyos szemüveg. Azt veszem ami a legjobb ár\teljesítmény nekem.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33786 üzenetére
GPGPU felé azért mennek most, mert az mindenkinél van. Tehát ha írnak egy GPGPU-culling megoldást, akkor az kompatibilis az összes konzoltól kezdve, az összes compute shadert támogató GPU-n át, az összes compute shadert támogató IGP-ig. Egy irtó univerzális megoldás multiplatform szinten, még akkor is, ha van nála jobb. Emellett fejleszthető is. Egyszer megírod, és a "hovatovábbal" ráérsz majd két év múlva foglalkozni. Addig optimalizálod, beépíted a subgroup/wave intrinsics függvényeket, kihelyezed asszinkron computera. És ezektől még a módszer univerzális jellege megmarad.
Ha nem egyezik meg a piac, és mindenki lezárja magát a saját linkjére, akkor eleve megszűnik a gyártók keverése. Nem is tudsz majd VGA-t venni. Megkapod a GPU-t a CPU-val közös tokozásban. Az meg tökmindegy, hogy háromféle link van. A program oldaláról ezzel nem kell különösebben foglalkozni. A leglassabb sebessége is messze több, mint amire ma képes a PCI Express, de még a készülő 5.0-t is felülmúlja, és akkor ezek is gyorsulnak a jövőben.
Oké most ez teoretikus lesz. Tehát amerre megy a Microsoft, és amilyen jól működik a texel shading, én egyáltalán nem tartom kizártnak, hogy a PCI Express és a gyártók külön linkjei jól el lesznek egymás mellett. Legalább az asztali szinten. Mobilban nem, ott túl kicsi a hely, de asztalon simán meg lehet csinálni azt, hogy veszel egy Intel vagy AMD procit, ahhoz jár ugye a GPU a tokozáson, és az már egy komplett rendszer. De teszem azt egy texel shading leképezőt használó játéknál az árnyalási fázis függetleníthető a raszterizálástól, tehát azt szépen szétszedi a program, és a fő GPU-d marad a tokozásban, míg az árnyalásra befogsz egy VGA-t a PCI Express porton, de akár befoghatsz 20-at is. Maga a texel shading marha jól skálázódik. Ugyanígy a sugárkövetés. Az is egy nagyon jól függetleníthető feladat. Nem kell azt azon a GPU-n elvégezni, ami éppen a képet rakja ki a kijelzőre, és ennek a skálázódása is igen baráti. És itt lehet igazából keverni a gyártókat is. Láthatod az AotS-t, az is támogat multi-GPU-t AMD+NV rendszeren, tehát technikailag ennek nincs akadálya. Az más kérdés, hogy üzletpolitikailag x gyártó mondhatja azt, hogy az én piacomon y gyártó nem szívesen látott szereplő. De tényleg, a szoftver oldaláról sok dolgot lehet csinálni, még akár nem is jelent ez jelentős többletmunkát.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33781 üzenetére
De belehet, csak ott kellene alkalmazni valamilyen heterogén több GPU-s menedzsmentet. És ott nincs mihez kezdeni a rendszerrel, ahol nincs IGP, vagy le van tiltva.
A primitive shadert még be sem építették egy API-ba sem. Annak egy igen leegyszerűsített modelljét alkalmazza például az id tech 6.5. Az se rossz egyébként, alapvetően a primitive shaderrel használható pipeline a culling szempontjából nem tud sokkal többet, mint az id tech 6.5-nél az a modell, hogy az input assembler után rögtön jön egy compute shader lépcső még mielőtt egy csomó nem látható geometria eljutna a vertex shaderbe vagy ezen túlra. A primitive shader elegánsabban kezeli a problémát. Nem kell csúnya compute kódokat írni a működéshez.
(#33782) Loha: Ha elkezdenék butítani a játékmenetet, akkor több munka lenne az egész játék áttervezésével, mintha eleve úgy dolgoznák ki az egészet, hogy minden platform leggyengébb pontjaihoz igazítsák a dizájnt.
(#33783) Raymond: Költői volt a kérdés. Nyilván tudja mindenki, hogy nem igazán fér bele a szűkös időkeretbe a CPU-GPU-CPU-GPU round-trip.
-
Raymond
titán
válasz
Petykemano #33684 üzenetére
Ahogy mar el lett parszor magyarazva - Kina-t latod. A normalis szamok tavaly julius/augusztus kornyeken mentek a levesbe a PUBG miatt. Aztan talan ket honapja kezd visszamaszni a dolog mert atalltak Fortnite-ra plusz ebben a honapban a Valve is tekert a Kinai internet cafe-k szamolasan. Annyit az eredmenye hogy az AMD reszesedese nem vesszettul rohadt remenytelen alacsony hanem egy fokkal kevesbe rossz annal.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33684 üzenetére
Vagy azt, hogy a Valve megint úgy döntött, hogy önhatalmúlag kivesz egy nagyobb mintát, mert azzal szerintük jót csinálnak.
---
(#33686) Raymond: "plusz ebben a honapban a Valve is tekert a Kinai internet cafe-k szamolasan"
Ez csodálatos. Igazi reprezentatív mérés. Ha nem tetszik az eredmény, akkor tekerünk rajta.
-
.LnB
titán
válasz
Petykemano #33623 üzenetére
hmm jogos. Nem szóltam.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33611 üzenetére
Az a golden sample egy urban legend. Egyáltalán nem válogatnak. Azért lehet nagy különbségeket felfedezni, mert az Intel megváltoztatta a varianciára vonatkozó specifikációját. A Coffee Lake óta 9% különbség is lehet a teljesítményben két ugyanolyan modellszámú CPU között, amit ugyanarról a polcról veszel le. Nem valószínű, hogy ennyi lesz, inkább 3-4% csak, de ha ennyi az eltérés, akkor az még pont megfelel a célzott varianciának. Ez nem golden sample tehát, csak némelyik tesztelő szerencsésebb példányokat kapott, de ezek ott vannak a kereskedelemben is, csak ott is szerencsésnek kell lenni.
Szerintem az CGI volt.
-
Dtomka
veterán
válasz
Petykemano #33559 üzenetére
Köszönöm, végre valaki érti amit mondani szerettem volna!
(#33560) cskamacska
Kezd normalizálódni (én ezt írtam) nem azt, hogy "normalizálódott árú." !
Mind1 elengedem a témát -
válasz
Petykemano #33529 üzenetére
A márka nagyon számít, azt, hogy ROG sokan ismerik, AREZ-t meg kb senki. Ha jól látom, már több, mint 10 éves a ROG, ezt egykönnyen nem hozza be az AREZ. Sőt, ha elmaradnak majd a ROG kártyáktól, még rögzülhet is a vásárlókban, hogy B vonal csak.
-
FLATRONW
őstag
válasz
Petykemano #33368 üzenetére
Szó sincs talpnyalásról, szó sincs bocsánatosabb hazugságról. Egyszerű tényt közöltem. Még egyszer leírom, az NV nem vágta meg a GPU-t, de ennek ellenére is fellehetne tüntetni a különbséget.
Őszintén mit vártál egy vita fórumban?
Leírtam a két eset közötti különbséget, erre jön egy olyan válasz, hogy pont erre számítottál és le is talpnyalóztál. Meg sem próbálsz érvelni amellett, hogy miért ugyanaz a két eset.
Már nem először személyeskedsz másokkal szemben, mert nem értesz velük egyet.
Egyébként ha elfogultak is vagyunk, miért akarod nekem és másoknak megmondani hogy hogyan vélekedjünk dolgokról. Engemet sem zavar, hogy te máshogy gondolod. -
Egon
nagyúr
válasz
Petykemano #33368 üzenetére
Esetleg elolvasnád a kapcsolódó ph-s cikket, és nem tűnnél ennyire elvakult vörös szemüvegesnek...
-
FLATRONW
őstag
válasz
Petykemano #33352 üzenetére
Hasonló a helyzet, de nem teljesen ugyanaz. Az 560 esetén az órajel csökkentés mellett megvágták a GPU-t is.
Persze NV esetén is illene megkülönböztetni az ilyen GPU-kat. -
füles_
őstag
válasz
Petykemano #33307 üzenetére
Egy Nvidia és egy AMD processzor vetélkednek.
- Mennyi kettő meg három? - kérdezi az AMD.
- Négy. - vágja rá az Nvidia.
- Rossz eredmény. - mondja az AMD.
- De azért gyors voltam, nem? -
Abu85
HÁZIGAZDA
válasz
Petykemano #33285 üzenetére
A Level-5 fejlesztette. Sok tapasztalatuk amúgy nincs PC-s fronton. Ez az első játékuk Windows platformra. PlayStation 4-ről portolták a játékot. Nincs közük az AMD-hez.
(#33286) VTom: Nem csak szerintem. Ha megkérdezel egy JRPG iránt érdeklődő játékost, akkor a Ni no Kunit igen előkelő helyre rakja. A Ni no Kuni 2 a Game Critics Awards és a Gamescom "legjobb RPG" díját is elvitte tavaly. Ezeket nem adják oda csak úgy.
-
FLATRONW
őstag
válasz
Petykemano #33272 üzenetére
Valószínűleg az AMD is követné az Intel példáját, így teljesen elveszne a választási lehetőségem.
A jelenlegi NV helyzetben viszont csak csökken a választási lehetőség. Az NV lényegében vásárolt magának egy névhasználati jogot, az AMD is megteheti, kérdés hogy van e rá keretük.(#33273) Pug: Elég érdekesek a hozzád hasonló emberkék. Ok, lehet hogy írok olyat ami szöges ellentétben van a véleményeddel, de ez nem jelenti azt, hogy nincs benne racionalitás.
Sokszor látok olyanokat itt mint te, hogy nincs mondanivalójuk, de beböfögnek egy olyat, hogy hagyd rá mert elvakult NV-s, vagy elvakult AMD-s. Ennek aztán tényleg semmi értelme nincs egy vita fórumon. -
válasz
Petykemano #33272 üzenetére
Szerintem az utolsó x db hsz-e alapján ne várj tőle racionalitást...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #33115 üzenetére
Az ipari kémkedés azért igen aktív ezen a területen, még ha nem is vallja be senki. Az AMD és az Intel esetében pedig nyílt titok, hogy 3D-s tokozásokat tartják realitásnak következő lépcsőként. Ergo lesz egy CPU a tokozáson, és fizikailag arra kerül a pGPU, illetve a memória, sőt talán még az adattároló is. Ezeknek kellenek a megfelelő buszok a lapkába, amelyek mellett nyilvánvaló, hogy olyan interfészeket fognak kivenni, illetve csonkítani, amelyek a piac kis százalékát érintik, például a sok PCI Express csatornát.
Ez az irány nem egy eldöntendő kérdés, hanem már el van döntve. Egyébként persze megtarthatnak bizonyos mennyiségű PCI Express csatornát a dedikált GPU-knak, de őszintén szólva minek. Ezek a magasan integrált megoldások a mobil piacra mennek majd, ahol úgyis számít a helyigény. Aki dedikált GPU-t akar, majd megveszi a szerverből lehozott lapkákat, azokban természetesen sok Gen Z, CCIX vagy PCI Express csatorna lesz, attól függően, hogy ki melyiket akarja támogatni. Nyilván a Gen Z és a CCIX azért érdekes alternatíva, mert a PCI Express a jelenlegi állapotában nem egy életbiztosítás. Túl korlátozott, illetve lassú is, még az 5.0-s verzió sebessége sem tartja igazán a lépést azzal, ahogy ezek a lapkák belsőleg fejlődnek.Önmagában egyébként az NV nem valószínű, hogy ki lesz zárva teljesen. Az adattárolóknak mindenképpen kell négy PCI Express csatorna. Meg tudják majd csinálni a gyártók, hogy ebből kettőre kötnek SSD-t, és a maradék kettőn bekötik az NV GPU-ját. Az, hogy ennek mennyi értelme van majd eldől, nyilván az NV nem véletlenül próbál jogi kötelezettséget varrni a gyártók nyakába, mert talán ők is sejtik, hogy az a környezet, amit az Intel és az AMD kínál majd a jövőben igen hátrányos a hardverük szempontjából. Ergo az észérvek helyett a jogi lehetőségeket keresik a gyártók megfogására, az hogy ez illegális-e vagy sem, majd eldöntik a hatóságok.
Szerintem az NV igazából csak időt akar nyerni. Nekik valószínűleg nincs bajuk ezzel a teljes platformosodással. Az a gond, hogy a Windows 10 most még nem alkalmas arra, hogy hozzanak egy ARM-os platformot. De a Qualcomm sokat segíthet, ahogy a Microsoftnak az S módja is, így előbb-utóbb eljutunk oda, hogy az új domináns platform az UWP lesz, ami elég jó az ARM-nak is. Mindössze azt az időt kell kibekkelni valahogy, amíg a piac elér erre a szintre. És ezen az időn nem egy-két évet kell érteni, hanem legalább fél évtizedet, addigra pedig már bőven építhet olyan korlátokat az NV elé az Intel és az AMD, amire hardveres válaszuk nincs.
-
válasz
Petykemano #33115 üzenetére
Notiban már elég régóta nincs AMD proci mellett Nvidia VGA, nem úgy tűnik, hogy ez változna.
-
válasz
Petykemano #33085 üzenetére
És lassú. Legelőbb 5 év múlva lesz szerintem ebből a kínai DRAM bizniszből bármi komolyabb.
-
válasz
Petykemano #33083 üzenetére
Nem gyárt GDDR-t, hanem csak DDR4-et és abból is elég szerény képességűt, szóval a sima PC-s DRAM piacra se lesz semmilyen hatása.
-
Televan74
nagyúr
válasz
Petykemano #33028 üzenetére
Nem a mondanivalóddal van baj,hanem a sok képpel.
-
szmörlock007
aktív tag
válasz
Petykemano #33026 üzenetére
Befejezted?
-
->Raizen<-
veterán
válasz
Petykemano #33011 üzenetére
😂 irtam az nv supportjanak. Most jobb a helyzet very lowon 200 % renderingen. De miez mar, very low az nem az en terepem. 😂😅 A lobby verseny utan ugyan ugy bugos, bepakolja elem egymasba olvasztva a fel versenymezot. 😂
-
->Raizen<-
veterán
válasz
Petykemano #32995 üzenetére
Kosz a tanacsot amugy lg life is good man.
-
Locutus
veterán
válasz
Petykemano #32991 üzenetére
Ez is igazából egy átmeneti elmélet volt, hogy az FE drágább a customoknál.
Amikor én vettem az 1070-et, simán ugyanabban az árban volt, mint a customok. -
->Raizen<-
veterán
válasz
Petykemano #32962 üzenetére
En is rettentoen kivancsi vagyok az uj gamer nv kartyakra.
-
válasz
Petykemano #32962 üzenetére
Stroke-od van, vagy mi?
Egyébként igaza van az AMD-nek, valóban Poor Volta. Ki is hagyják, jön helyette az Ampere.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32918 üzenetére
Ha nem tetszenek a PC-s árak, még mindig lehet konzolt venni. Van ötféle megoldás a Nintendo, Sony, Microsoft triótól. Nehogy azt hidd, hogy ennél olcsóbb lesz majd a következő generáció, ez a piac ilyen marad jó ideig. Amikorra pedig helyrehozhatók a bányászat által okozott károk, akkora pedig már rég olyan hardverek lesznek, mint a Kaby Lake-G. Az fog majd nagyon betenni a piacnak, hiszen kifizettetik veled a GPU-t már a processzor tokozásán, még akkor is, ha neked az pont nem kell. Kezdjetek barátkozni a gondolattal, hogy ez a piac már sose lesz a régi. A domináns szerepet az IGP mellett a pGPU szerzi majd meg, amivel lefedik a piac 95%-át. A dGPU a futottak még kategória marad a legfelső 5%-on, nagyon drágán, persze annak aki megfizeti.
-
Ribi
nagyúr
válasz
Petykemano #32918 üzenetére
...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32899 üzenetére
És a Doomban a +40-50% az intrinsics függvényektől az mióta kevés a csíkokra nézve? Miért gond az, ha a shader modell 6-tal ennek az iránynak az általános, és nem csak AMD-specifikus alkalmazását propagálom? Ez a sebesség mindenkinek jár. Vagy ha nem ennyi, akkor kevesebb, de mindenképpen extra tempót lesz belőle.
Én nem nagyon hiszek abban, hogy a PC érdeke az, hogy az AMD-re gyors kódokat kapjunk, míg a többire szabványost, amikor el lehet érni egyszerre mindkettőt is. Persze értem, akkor Windows 10 only az alkalmazás, míg az AMD-nél a gyors kódok még Windows 7 mellett is működnek, de lassan rá kellene vezetni a Win 7 tulajokat a váltásra, mert sokkal gyorsabb lehetne minden. És ez gyártófüggetlen téma. Minden hardverhez van már SM6-os implementáció (jó a nagyon régiekhez nincs, de azok eleve lassúak). -
Abu85
HÁZIGAZDA
válasz
Petykemano #32896 üzenetére
Pedig érdemes lenne megérteni, mert így csak belekeversz dolgokat, amik nem oda valók.
A 10-30% egy általam becsült realizálható tartomány. De ha konkrét példát akarsz, akkor az id software már dolgozott ilyennel. A Doom esetében az intrinsics függvények hozzáadása 40-50%-kal növelte a teljesítményt, és ez a gyakorlat. Ha helyén akarod kezelni a dolgokat, és példát akarsz, akkor tessék ott a Doom. Más példa amúgy nem igazán lesz, mert az id software az id tech 6.5-ben dobta a legacy kódot, tehát innentől kezdve az AMD-re csak gyors kódokat szállítanak. A Doom abból a szempontból speciális volt, hogy abban az AMD-re lehetett használni a gyors és a szabványos kódutat is.
Még mindig gyártói szinten vizsgálod ezt. Holott a shader modell 6 egy gyártófüggetlen rendszer. Az a célja, hogy a Doomban az AMD-re nyert sebességet biztosítani lehessen általánosan. Az persze programfüggő, hogy sikerül-e, de a 10-30% közötti tartomány igen reális általánosan. Aztán persze lehet, hogy ebből lesz akár 100% plusz is bizonyos terhelés mellett, csak ez nem lesz általános. Viszont mindig pluszban lesz.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32894 üzenetére
Alapvetően erről van szó. De ez normális. Ha egy probléma megoldására van egy dedikált utasításod, akkor az mindig nagyságrendekkel gyorsabb lehet, mintha magára a problémára a megoldást le kellene programoznod általánosan. Az nem csak sokkal több utasítás, de esetleg jelentős terhelés a memóriaműveleteknél is. Ezért hozta a Microsoft PC-re a Wave programozást, mert hatalmas extrákat lehet ezzel nyerni. Ezek ugyan kis shaderek, tehát csak a frame töredékén futnak, de sok ilyen optimalizálást lehet alkalmazni, és ez a teljes frame-re vonatkozóan akár 10-30% is nyerhető. Sőt, akár több is.
A GameWorksnek semmi köze ehhez. Ez csak egy effektgyűjtemény. Ha te mondjuk konzolon préselést használsz direkt intrinsics függvénnyel, akkor semmi sincs az NV-nél, amivel ezt te ki tudod váltani. De még az AMD-nél és az Intelnél sem. Neked kell megírni egy működő algoritmust alternatívának. Azért nem érted szerintem, mert folyamatosan kevered a szezont a fazonnal. Behozol olyan middleware-eket, amelyeknek megközelítőleg sincs semmi közük az alapproblémához.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32891 üzenetére
Azért jó, mert nem véletlenül hívják ezeket gyors kódoknak. Ugyanis beépített függvényeket használnak, amiket a GPU kevés vagy akár egy utasítással is végre tud hajtani. Nem mindegy, hogy egy algoritmusra speciális op-kód van, vagy egy rakás atomi művelettel kell megoldani. Utóbbit hiába optimalizálod, már az alternatív megközelítés sokszázszor vagy sokezerszer lassabb. Ezért hozta be a Microsoft a shader modell 6-ban a wave intrinsicset, mert nem tudsz pár hét alatt ezerszeresére gyorsítani egy eljárást, nincs hol nyerni ennyit. Maximum 10%-ot hozol, és akkor már csak például ~9990x lassabb a speciális op-kód nélküli shader.
Nem tudom, hogy milyen debuggerről beszélsz. Van elég sok. Szerintem te a profilozóra gondolsz. A Radeon GPU Profiler alapvetően nem elengedhetetlenül szükséges a PC-s játékok fejlesztéséhez, csak annyit lehet nyerni vele, hogy nem kell konzolon profilozni a PC-s kódot. Ami egyébként elég sok előny, hiszen egy PC-s portolással foglalkozó stúdiók számára időpocsékolás, hogy a PC-s portot át kell vinni egy olyan platformra, amin van hardveres nyomkövető. Ez azért elég sok munka, ahhoz képest, hogy a Radeon GPU Profilert négy kattintással aktiválni lehet. Nem véletlenül cserélte le a fejlesztői hardverparkját Radeonra az Epic. Egyszerűen rengeteg időt takarítanak meg ezzel a módszerrel, ami a Vulkan API-ra való átállás szempontjából nagyon fontos. -
Abu85
HÁZIGAZDA
válasz
Petykemano #32889 üzenetére
Mert minden gyártó számára hátrányos, hogy a PC-s shader nyelvekben és IR-ekben nincsenek olyan beépített függvények, amelyek konzolokon. Az AMD viszont fogta magát és megcsinálta ezeket magának. Ezáltal egy eljárást szimplán lehet portolni, nem kell bizonyos problémákra más, esetenként lassabb megoldásokat keresni, csak használni kell a függvény PC-s megfelelőjét, aminek ráadásul sok esetben a neve is megegyezik a PSSL függvény nevével. Ennek viszont az a hátránya, hogy csak az AMD-re olcsóbb a portolás. Intelre és NV-re ugyanúgy meg kell csinálni a munkás részt.
A jövőben ez olyan lesz a Microsoft modelljével, hogy fogják az Xbox One-ról a HLSL shadert, és lefordítják ugyanazt PC-n DXIL-re vagy SPIR-V-re. Egyszerűen ezzel a problémával nem kell többet foglalkozni a shader modell 6-nak hála. Ebben az a biznisz, hogy az egész munka csupán egy fordítás, és a kapott sebesség jobb, mint amit ma tudnak biztosítani, esetenként sokáig tartó portolással. Ergo rengeteg pénzt meg lehet spórolni a shaderek platformszintű egységesítésével. -
#52588800
törölt tag
válasz
Petykemano #32675 üzenetére
Ez még a koca játékosnak sem éri meg, van elég ingyenes játék elütni azt a napi fél-1 órát.
Egy igazi játékos meg soha nem akarná, hogy a játékokból szolgáltatás legyen, amit bármelyik pillanatban lekapcsolhatnak. -
->Raizen<-
veterán
válasz
Petykemano #32671 üzenetére
Ez is megbukik majd. 😉
-
Televan74
nagyúr
válasz
Petykemano #32671 üzenetére
Ingyenes Early Access formában már idén márciustól elérhető lesz a GeForce Now, ami előfizetéses formában működik majd. A tényleges élesedést követően 25 dollár kicsengetése után 20 óra játékidő áll rendelkezésünkre (ezért egy GTX 1060-as PC erejének megfelelő látványt kapunk). Vizuális részletesség tekintetében többféle csomag is rendelkezésre áll, a magasabb szint mellé kevesebb játékóra tartozik. Ha azt akarjuk, hogy a felhőből egy GTX 1080-nal felvértezett PC erejét kapjuk meg, akkor már csak 10 óra játékidő jár a 25 dollárért. Na ezért az összegért kenje a hajára az Nvidia. Akkor inkább már felszámolom a PC -m és PS4 Pro -t veszek és Playstation Now szolgáltatásra fizetek elő.
-
válasz
Petykemano #32668 üzenetére
Az ASIC gyártók ezt csinálják: megépítik a tuti ASIC-ot, lebányásszák vele az adott kriptót, majd ha csökken a profitabilitás eladják mocsokdrágán. A vga-gyártól "tesztelés" címen hajthatnának minden szériát 1 hétig a bányában, majd utána adnák el.
-
->Raizen<-
veterán
válasz
Petykemano #32668 üzenetére
Az onlive mar megbukott.
-
válasz
Petykemano #32628 üzenetére
Eleve nem a boltok kínálatába kerülnének vissza, hanem a használt piacon jelennének meg. Ott viszont előbb-utóbb egymás alá licitálnának azok, akik el is akarnák adni, nem csak árulgatni. Használtan ezek a kártyák (RX 470/570) 50k-nál nem érnének többet normális esetben.
-
válasz
Petykemano #32628 üzenetére
Hogy kerülnének a boltokba? Vagy most nem a használt bányász kártyákról van szó?
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32591 üzenetére
Ezt ne így képzeljétek el. Megpróbálom leegyszerűsítve elmagyarázni. Most vegyünk egy tök teoretikus dizájnt, ami teszem azt 10 konkurens wave-et futtat maximum. A számok ilyen hasraütésszerüek, csak a lényeget próbálom velük átadni. Ennek a dizájnnak van mondjuk 80 blokk regisztere és 20 blokk helyi adatmegosztása. Ezen a multiprocesszoron futtatsz egy shadert, a mai igencsak pazarló dispatch alapján, aminél a statikus allokáció lefoglal 72 blokk regisztert és 18 blokk helyi adatmegosztást. Ilyen formában 8 wave futhat egymás mellett a multiprocesszoron (feltételezve, hogy egy wave 9 és 2 blokk/wave, ami egy tipikus helyzet lenne a mai programokat nézve), ami még belefér a jó hatékonyságba. De lehet komplexebb shadereket is írni, ami egyre inkább nem lehetőséggé, hanem követelménnyé válik, ahol például elég nagy probléma lesz a helyi adatmegosztás 20 blokknyi mérete. Mondjuk két-három dispatches übershader már fájhat is komolyabb anyagmodellek mellett, és előfordulhat, hogy az LDS-nél már jóval többet igényel a shader wave-enként, mint 2 blokk, akár 7 blokkot is, és ez nem extrém helyzet, hanem egyre inkább a realitás. Ilyenkor a mi kis teoretikus multiprocesszorunk alaposan bajban van, mert LDS szintjén 7 blokk/wave mellett tud 2 wave-et futtatni a 10-ből. Ezzel a hatékonysága alaposan megzuhan, mert ha az egyik wave adatra vár, akkor betölti a másikat, ami szintén adatra fog várni egy idő után, viszont nincs egy harmadik wave, amit betölthetne dolgozni, ergo az egész multiprocesszor csak áll. Ez most a probléma. A Vega lényegében úgy védekezik ellene, mintha a mi kis teoretikus multiprocesszorunknál megnöveltük volna a 20 blokknyi helyi adatmegosztást 40-re. Így már 5 wave is futhat az adott shaderrel, amivel jóval kisebb lesz a feldolgozás során az üresjárat, mert nagyságrendekkel megnő az esélye annak, hogy lesz futtatható wave, ha a többi adatra vár. Persze trükközhetnénk még olyannal, mint az utasítás-előbetöltés, de az a baj, hogy ennek a hatékonysága egy statikus allokációkra épülő hardvernél nem valami jó. Segít, de nem annyit, hogy nagymértékben lehessen rá építeni.
A Volta is hasonló irányba lépdel azzal, hogy közös az L1 és az LDS (helyi adatmegosztás). Ez ugyan nem annyira brute force megközelítés, mint a Vegáé, de a lényeg itt is az, hogy egy nagyobb fokú konfigurálhatóság lehetőségével a futtatható wave-ek száma ideális legyen a legtöbb shadernél.
Aztán persze a kihasználtság növelésére számos szoftveres trükk is van, ez érkezhet a program oldaláról, vagy akár a shader fordító is beállítható úgy, hogy kifejezetten a kihasználtságra fordítson, de utóbbival az szokott lenni a baj, hogy ezzel a cache-hit nem lesz túl kedvező, tehát vesztesz is vele. A legtöbb cég ezért inkább egyfajta köztes konfigurációban fordít, ahol lesz is elég wave, és a cache-hit sem lesz a padlón. Ugyanakkor a shaderek egyre bonyolultabbak, így hiába a Polaris és a Pascal dizájnja nem túl ideális a következő körre, ezért is váltott a Vega és a Volta. Ezekkel a hardverekkel kevésbé kell azon filóznia az AMD-nek és az NV-nek, hogy melyik kezét vágja le (a cache-hitet vagy a sok wave-et).
Aztán persze a Vega és a Volta is inkább egy áthidaló megoldás. Nyernek velük úgy két-három évet, de idővel úgyis elő kell venni a hardveresen erőforrás-allokáció kérdését. A mostani, egyelőre még next-genként hirdetett fejlesztések már mindenképpen dinamikusra cserélhetik a statikus modellt. Ezzel a fenti probléma végleg megszűnik, a hardver önmagától képes dönteni az ideális futtatásról. -
Simid
senior tag
válasz
Petykemano #32565 üzenetére
Csak egy gyors válasz, mert nagyon nem ide tartozik!
Az aranystandarddal az volt a legnagyobb baj, hogy az arany értékéhez volt kötve egy meghatározott fix áron, ahogy te is írtad. Idővel viszont több pénz volt forgalomban, mint amennyi arany rendelkezésre állt volna fedezetként. A kriptovaluták esetén nincs semmihez kötve az árfolyam, lényegében bármeddig emelkedhet az összértéke és bármeddig osztható az alapegység. A fedezett ugyan az mint a hitelpénz mögött: bizalom. Így nem látom hol van a probléma ebből a szempontból.
A hitelpénz is limitált a tartalékráta és jópár egyéb tényező miatt. Szóval még elméletileg sem tekinthető végtelennek.
Természetesen van rengeteg egyéb probléma a bitcoinnal (ami részben pont a decentralizáltságból adódik), de az klasszikus pénz funkciókat elméletileg be tudja tölteni. -
Abu85
HÁZIGAZDA
válasz
Petykemano #32584 üzenetére
1) A Vegának nem is a Pascal ellen kell teljesítenie, hanem a Volta ellen. Ezért lett lényegesen okosabbra tervezve az előző generációs architektúráknál. Amikor még Vegát és Voltát tudsz venni az üzletekben, akkor a Pascal már rég nem lesz elérhető. Ennek a fejlesztésénél nem számítottak olyan kérdések, mint például az occupancy limit kitolása, ami a Vega és a Volta egyik fő fejlesztése. Amikor ezek még tudnak konkurens lane-t indítani a multiprocesszoron, akkor a Pascal már rég azt mondja, hogy nincs több LDS/regiszter/L1. Ez ugyanez igaz lesz a Polarisra is.
2) Éppenséggel lehet, de az nem Radeon Instinct néven jön.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32581 üzenetére
1) De nagyon HEDT grafikai fókuszú. Nem sorolhatod máshova, ha más hardver még be sem tudja tölteni a Vega 10 által kezelt részletesség egyszázadát sem. Egyszerűen out-of-memory információval kilépnek.
2) Nem akarok jósolni, de nem nagyon hiszem, hogy Vega 20-as Radeon Instinctet fognak a játékosok vásárolni. Egy kártya 10000 dollár lesz.
-
válasz
Petykemano #32574 üzenetére
A mostani CES alapján kb nem is lesz semmilyen verseny. Nekem az a fura, hogy nem jelentettek be semmit desktopon Vega 56 alá, pedig nagyon kéne valami. Bár ha lehetne Polarist kapni, már az is jobb lenne a mostani helyzetnél.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32574 üzenetére
1) Igazából Vega olyan szinten grafikai fókuszú, hogy az már fáj. Nem igazán lehet compute-nak nevezni valamit, ahol komplett, kompatibilitást megvágó shader lépcsőt, és ezen belül nyilván a szükséges hardverállapotokat vezetnek be egy olyan problémára, amire 2006 óta egy csomó megoldás készült, de egyik sem tetszett a fejlesztőknek. Ami persze marha nagy pech, hiszen már rég nem csak irányként beszélnénk a GPU-driver pipeline-ról, ha a Microsoft és a Khronos nem ragaszkodna makacsul a teljes pipeline kompatibilitáshoz.
2) A Vega 20 elég sokban fog különbözni. Az, hogy natív lesz a DP egy dolog, illetve a duplázott sávszél is az, viszont PCI Express 4.0 lesz, ami egy nagyon fontos lépés. Iszonyatosan korlátozó a 3.0 is manapság. Na meg ebben lesznek GMI-k is, ami az AMD saját memóriakoherens interfésze. Utóbbi hatalmas különbség, hiszen összerakhatnak olyan x86/AMD64-es szerverplatformot, ahol a PCI Express korlátjai nem jelentenek többé problémát.
-
Simid
senior tag
válasz
Petykemano #32562 üzenetére
Jól összemostad a pénz és a fedezet fogalmát. A mai globális pénzrendszerben igérvények szolgálnak fedezetül, lényegében bizalmi alapon működik. Ezt a 'fedezetet' bármi mögé oda lehet tenni (csak piszok nehéz), a bitcoin mögé is. A ecoinok nem fedezet kiváltására születtek/születnek, hanem a pénz szerep betöltésére.
'Hogy lehetne akkor pénz valami, ami korlátozottan áll rendelkezésre?'
Csak az lehet pénz, ami korlátozottan áll rendelkezésre. Hiszen a pénz egyik funkciója az értékmérés.
Gyakorlati használhatóság szempontból nézve pedig a bitcoin elég sok tizedesjegyig osztható ahhoz, hogy még millió dolláros árfolyam mellett se jelentsen gondot a 21 milliós limit. -
cskamacska
addikt
válasz
Petykemano #32434 üzenetére
És ha az IBM PS/2-re számítanánk a zinflációt, akkor most budai kertes ház önrésze helyett a család első személyi számítógépére spórolnánk..
Tök egyszerű, a last gen konzolokon úgy is masszív bukta volt ami évekig tartott míg visszahozta magát, azok a felhasználóknak érték meg és nem a multiknak. Na, a mostaniakkal már nincs ilyen probléma..
Xbone meg a szerencsétlen Kinectjével meg is érdemelte, nagyon jó tech lehetett volna(és akkor ide tettem volna ha tettem volna a szokásos R.U.S.E. virtuális táblás játék teaser, és a Ghost Recon Future Soldier fegyver birizgálás videókat), de nem lett belőle semmi már az X360 idejében, Xbone-t már döglött lóhoz kötötték jó kis felárral. Amellett hogy már kiadáskor gyengébb volt a PS4-nél, és jóval gyengébb volt a marketingje is, de minimum a word of mouth mindenképp.
Switch nagyon más szerepben van, az egy kézi konzol amit szükség esetén tévére lehet kötni. Na most épkézláb új kézi konzol vetőkrumpli erősségű 3DS óta nem volt, azzal ellentétben a Switch meglepően erős, és nem mellesleg a 2017-es év messze legjobb exkluzív játékai kerültek ki rá.(aki meg meri említeni a Horizon Zero Dawn-t, ráborítom a 4K tévét, és megetetem Breath of the Wild comparison videókkal
) Egyszerűen más ligában utazik, PS4 Pro, XoneX, és PC mellé is simán meg lehet venni, főleg hogy a mobilos boltokban nincs értékelhető játék(Deus Ex The Fall ott komoly címnek számít
), ha lenne akkor sem lehetne rendesen irányítani, bármilyen hardcore játékosnak csak és kizárólag a Switch marad utazásra.
-
#00137984
törölt tag
válasz
Petykemano #32429 üzenetére
Színektől mentesen küldeném ez évi "jókivánságomat" az olyan hardver gyártók felé, akik találtak rá okot vagy minden ok nélkül horror áron adják a HDD és SSD, CPU és RAM meg videókártya termékeiket. Némelyik hardvernek a tulajdonsága vagy a teljesitménye nem nővekedett annyit mint az ára. Szerintem ilyen magas árakba a kifogástalannak mondható terméktámogatás már igazán elvárható lenne.
-
#00137984
törölt tag
válasz
Petykemano #32429 üzenetére
Nálam az AMD driverek és a hardver mondott csődöt. Az időpont és az időzités szerint hol az egyik oldalon, hol a másik oldalon akadtak problémák. Sokáig kivártam, de az új driverekre sem javult a helyzetem, azért váltottam egy merészet. Játékos oldalról nézve egy jó döntést hoztam meg. Viszont az én utam az eddig tartott a PC Gaminger vonalon. A konfigom most nem rossz, de ettől gyorsabbat és újabb vasat nem szándékozom venni. Ennek az évek óta eltartó csepegtessünk mindig egy picivel többet hozzáállásnak ez lett a vége. Nem akarok 12-16 (24) szálas procira költekezni vagyonokat, és a 16-24 (32) GB-os videókártyákra sem vagyok vevő. Ha most a jelenlegi konfigomra sem nagyon akarják optimalizálni a játékokat, akkor majd hol húzodik meg a határ. Itt a vége... és majd megveszem konzolokra a 4K/60Hz optimalizálást, mert addigra bill-egér támogatás is lesz.
-
#00137984
törölt tag
válasz
Petykemano #32427 üzenetére
Nekem egy videókártya "színe" addig nem érdekelt amig feltünösködés nélkül játszhattam vele. Ha ezt a feladatot már nem tudta ellátni akkor inkább nélküle. Kifagyások és driveres hibák miatt cseréltem VGA-t, de közben megtettem amit tudtam, hogy elkerüljem a pénzköltést. Viszont ha valamilyen hiba vagy zavaró forrás nem akar megszünni időközben, akkor annak a hardvernek menni kell. Mindig találni jobb megoldást, de persze ez költséges változtatás és szükségszerű. Ha egy CPU vagy platform avul ki a géped alól, akkor a proci-alaplap-RAM kombót is cserélni kell. Szerintem mindegy is a gyártó, amig megkapod amit kerestél. Aztán amit megkerestél azon mindenki azt vesz amit akar. Sajnos nálam ez a pont akkor érkezett el, amikor az AMD oldalon semmi nem állt rendelkezésre. Ha elindulsz egy úton, azt követni kell lehetőség és pénz szerint, vagy még több kiadásba kerül visszalépni és előlről kezdeni.
-
#00137984
törölt tag
válasz
Petykemano #32409 üzenetére
Szoktam régi játékokat tolni és nem fogom kukázni az új hardverek miatt. RX 470-es volt az utolsó AMD videókártya a gépembe. Azelőtt konzolom volt és egy-két ratyi 128MB-os Nvidia (Asus 9600 GT néhány hónapig), majd az AGP-s HD3850-tól kezdve már csak AMD kártyáim voltak. HD6850-ig talán nem is találkoztam ilyen problémával, de a GCN szériák megjelenése után már voltak olyan videókártyáim és driverek, amivel nehézkes vagy lehetetlen volt ezeket a régi játékokat futtatni. Azokban az időkben többet beszéltem erről a témáról mint szerettem volna, ezért természetesen érdekel ha megint napirendre kerül ez az ügy.
-
Milka 78
nagyúr
válasz
Petykemano #32424 üzenetére
Na igen az is egy jó példa.
-
Milka 78
nagyúr
válasz
Petykemano #32421 üzenetére
Az nv kivégzi a 32bites támogatást című cikkben fél szamócafalva verte a nyálát pedig a legtöbjük nv karit még képről se láttak ?
Vagy a Medionos irománynál a fél banda nem hogy Coffee procit nem láttak,de még Intelt se?
Ikább ugorjuk át a moralizálást,mert példa mindkét oldalon van bőven -
oliba
őstag
válasz
Petykemano #32421 üzenetére
Elvégre, ezért vs topik, hogy egymásnak vághassátok a "szeretett márkátok" erősségeit és gyengeségeit. Az lenne a vicces, ha nem tennék
-
#85552128
törölt tag
válasz
Petykemano #32411 üzenetére
Sejtettem, hogy erre már nem fogsz tudni mit írni
-
#85552128
törölt tag
válasz
Petykemano #32409 üzenetére
Pl. majd ha lesz valaki olyan hülye hogy a jövőben még AMD kártyát vesz arra hogyan teszed rá a régi drivert ?
Vagy ha netalán kijön egy új W10 update ami már régebbi driverrel szintén bugos lesz ?
Arról az egyszerű tényről nem is beszélve, hogy valaki esetleg új és régi játékokkal is játszik, de még az új featureket/bugfixeket is használná ott ahol lehet -
TTomax
félisten
válasz
Petykemano #32402 üzenetére
Milyen kinálat növekszik?
Ez ugyanaz a vga mint eddig... az ár meg nem azért csökken mert olcsóbban tudják gyártani,hanem azért mert ez a vga megbukott arra amire eddig hirdették.Csavartak egyet gyorsan,majd eladják bányászni,oda ugy is elvisznek bármit.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32402 üzenetére
Nincs semmiféle új termékvonal. Egyszerűen csak oda lett írva, hogy "for Blockchain Pioneers". De amúgy se az ára nem változott, se semmi más. Az, hogy a kereskedők mennyiért adják nem az AMD-re tartozik, amíg kifizetik az AMD felé a megbeszélt pénzt, továbbra is 1500 dollárért van benne a havi szinten küldött árlistában.
Vannak ilyenek néha, hogy a webáruház vág gyorsan rajta, és azt hiszi a piac, hogy az AMD vágott. A tél elején teleküldték a mailboxomat olyan közleményekkel, hogy nem történt hivatalos Ryzen árcsökkentés, csak xyz webáruház magánakciójáról van szó.
Az árcsökkentés előtt egyébként két héttel szólnak, tehát a következő két hétben tuti nem megy le 1500 dollárról a Frontier hivatalos ára. -
oliba
őstag
válasz
Petykemano #32390 üzenetére
Hát nem érted? Csökkentsd negyedére az nv eladásaid, ami mellesleg a piac 80%-át teszi ki, hogy dupla annyi amd gpu-hoz juthass, ami ugye nincs. Szerinted van olyan hülye AIB partner, aki ebbe belemegy? Naugye nem kell ezt ellenőrizni.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #32277 üzenetére
Nem érted a lényeget. Időpontokba kapaszkodsz, amikor látható a programokon, hogy egyre komplexebb shadereket használnak, amelyek egyre rosszabban futnak a statikus erőforrás-allokációval. Márpedig a ma létező GPU-k nem valami okos jószágok, hírből sem ismerik a dinamikus allokáció lehetőségét, hardveres támogatás erre pedig lényegében nincsen. Azt nem állítom, hogy később nem lesz, de ez még nagyon a jövő zenéje. Ergo minden egyes új generációnál el kell gondolkodni azon, hogy az egyre komplexebb shadereket az alapvetően ugyanúgy működő GPU hogyan kezeli majd le. Emiatt láthatod manapság, hogy bár maga a statikus erőforrás-allokáció mint működési elv nem változott, de egyre jobban próbálják segíteni a rendszert. Ilyen volt például az AMD Polarisban és az Intel Gen9-ben érkező utasítás-előbetöltés. Ezekkel nem volt szükség annyi wave futtatására az optimális kihasználáshoz, mint korábban. Mert ugye maga az alapprobléma az, hogy az adott hardver számára szükséges xy wave, hogy a feldolgozók dolgozzanak is, de a komplexebb shaderekkel, ezen belül is az általánosan elterjedt übershaderes megközelítéssel a szükséges wave-ek esetlegesen csak fele futhat, vagyis a feldogozók egy jó része boci szemekkel néz a memória felé, hogy küldje már azt az adatot, mert anélkül nem tud dolgozni.
Maga a probléma hardverenként eltérő. Az Intel dizájnja például ki van tömve regiszterekkel, lényegében szinte mindig képes a maximális wave-számot futtatni, mert fizikailag úgy van megtervezve, hogy legyen erre elég regiszter. Ennek a hátránya az, hogy háromszor annyi tranzisztorba kerül az Intelnek egységnyi ALU teljesítmény beépítése, mint például az AMD-nek, és az LDS limitjeit ez nem oldja meg, mert azt a rendszer statikusan csippenti le az L3-ból, ami egyrészt helyhiányhoz vezet, másrészt messze van az ALU-któl. Ezért vezették be ők is az utasítás-előbetöltést, ahogy az AMD, hogy lejjebb tudjanak menni az optimálisan futtatható wave-ek számában.
A Vega és a Volta pusztán egy újabb lépés a történetben, mert látva a fejlesztők koncepcióit abszolút nem kérdés, hogy a shaderek bonyolultabbak lesznek, így nő a register/LDS pressure, ami az Intel, az AMD és az NV SIMT elven működő architektúráinak a halála. Az más kérdés, hogy a trükkös megoldás helyett a Vega és a Volta elment a brute force felé, mert annyi trükkre már nincs lehetőség hardveresen vezérelt erőforrás-allokációvaló nélkül, ami viszont komolyabb fejlesztést igényel, nem beszélve arról, hogy sokat növelne a fogyasztáson, ha most beraknának egy bonyolultabb hardvert erre a problémára, de előbb-utóbb ez is meg fog történni. A brute force koncepció is csak egy-két generációig életképes, aztán lépni kell tovább, mert több lesz a hátránya, mint az előnye.
A Vega és a Volta dinamikus LDS allokációja még abból a szempontból szerencsés, hogy lehetővé tesz pár szoftveres trükköt. Az AMD megoldása ugyan automatikusan működik, de készül a Vulkan API-hoz egy szoftveres kontrollt lehetővé tevő kiterjesztés, amivel a fejlesztő limitálhatja az egyes shadereknél a wave-ek számát, hogy jobb legyen a cache-hit, és ez működik az összes GCN-re, de a Vegán a leghatékonyabb. A Volta esetében az direkt optimalizálás nem igazán lehetőség, hanem egy kötelező elem, mert automatikusan nem sok dologra képes az a dizájn, viszont tranyók szintjén olcsó kezelést kínál az alapproblémára, ha a fejlesztő szán rá egy kis időt, hogy jól fusson a hardveren az adott shader.A lényeg annyi, hogy az egyes architektúráknak van egy életciklusa. Ez akkor is tart, amikor már nem tudod őket megvásárolni a boltokban, és a gyártók nézőpontjából okvetlenül fontos, hogy erre az életciklusra rá legyen tervezve a hardver. És láthatóan nem egy gyártó gondolja így, mert ha úgy lenne, akkor csak egy cég vezette volna be az utasítás-előbetöltést, a dinamikus LDS allokációt, a wave-ek szoftveres kontrollját, de mit ad az ég lényegében mindegyik újítást minimum két gyártó kínálja már legalább egy, ma elérhető hardverben. Tehát nagyon egységes, amit a fejlesztőknél látnak.
-
válasz
Petykemano #32305 üzenetére
Üresen fog járni a feldolgozók egyharmada, azaz számítás kapacitásának csak 66%-át fogja tudni, ami shaderek terén hatalmas érvágás. Persze ez csak az egyik ok, de konkrétan a legproblémásabb.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- BESZÁMÍTÁS! Asrock H310CM i5 9400F 16GB DDR4 240GB SSD 1TB HDD RTX 2060 Super 8GB Zalman Z1 700W
- BESZÁMÍTÁS! Intel Core i7 8700K 6 mag 12 szál processzor garanciával hibátlan működéssel
- Bomba ár! Dell Latitude 7320 - i5-11GEN I 8GB I 256SSD I HDMI I 13,3" FHD I Cam I W11 I Garancia!
- BESZÁMÍTÁS! ASRock Z370 i5 8500 16GB DDR4 512GB SSD 2060 Super 8GB Zalman Z9 Plus Enermax 750W
- Eladó szép állapotban levő Apple iPhone 8 64GB fekete / ÚJ KIJELZŐ / ÚJ AKKU / 12 hónap jótállás
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest