- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- OLED TV topic
- Szinte csont nélkül veszi az akadályokat TSMC gyárépítése az USA-ban
- Bluetooth hangszórók
- HiFi műszaki szemmel - sztereó hangrendszerek
- Apple notebookok
- Bambu Lab 3D nyomtatók
- ASUS notebook topic
- Vezetékes FEJhallgatók
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
Hirdetés
-
Megújult a Glorious GMMK klaviatúracsaládja, és már van benne analóg modell is
ph A GMMK 3 többféle méretben, házanyaggal, hagyományos és mágneses switch-ekkel, vezetékkel, illetőleg anélkül egyaránt választható.
-
Amazon Fire TV Stick 4K Max
lo A Müncheni Országos Bíróság helybenhagyta a Nokia keresetét. A panasz szerint jogsértést követett el az Amazon. mert...
-
Gondoskodik róla az EU, hogy az Apple felnyissa a rendszereit
it Az Apple-nek meg kell nyitnia a rendszereit a riválisok felé, ebből az EU nem enged.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz Jack@l #35767 üzenetére
Cache. A GPU melletti memória ebben a rendszerben hasonlóan működik, ahogy a processzorok L3 gyorsítótára. Az SSG-nél pedig az SSD olyan, mint az Intelnek az eDRAM-ja, egy jó nagy, de L3-hoz képest azért jóval lassabb L4 gyorsítótár.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz Jack@l #35844 üzenetére
A Crossfire egy olyan szoftveres megoldás, ahol a két gpuból az egyik a páratlan, másik a páros képkockákat számolta. Amellett, hogy ez némi késleltetést vitt a képmegjelenítésbe, szerintem elsősorban azért nem lett igazán elterjedt, mert kevés szoftver volt erre felkészítve, ami pedig azért volt így, mert a felhasználók igen kis részének volt két kártyája.
Szerintem ugyanez igaz a (heterogén) multiadapterre is: igen kevés felhasználónál volt jelen két gpu. Persze az IGP-re lehetett volna valamit építeni, de valószínűleg nem építettek rá, mert legalább annyira változatos volt a felhozatal, mint a CPU utasításkészletek tekintetében (ahol ugye még csak most kezd kötelező elemmé válni az AVX)
A GPU-k már most is kisebb egységekből állóan működnek. A vega esetén pl 4 Shader Engine-be van szervezve a geometria, a compute, meg a raszter, meg a pixel, stb. Ezeket köti össze az L2, és ezek előtt vannak a HWS, meg az intelligent workload distributor, ami a 4SE közötti terhelést irányítja. Ezt Nerdtechgasm például eleve úgy illusztrálja, hogy a képernyőt 4 felé osztják és a 4 SE a ezeken dolgozik.
Az infinity fabric biztosan lehetővé teszi, hogy különböző részegységek tényleges fizikai helyüktől függetlenül egyben látszódjanak, vagy egynek lássák saját magukat. Ahogy az zen esetén is valójában dedikált L3 van, az IF fabric segítségével az L3-at mindkét CCX egyben látja, egyben címezi. Az persze egy sajnálatos lassító esemény, ha egyik magnak valamiért a másik CCX-hez tartozó L3-ban található adathoz kell nyúlnia (számomra itt csak az nem világos egyébként, hogy hogy lehet, hogy ennek pont ugyanakkora késleltetése van, mintha a memóriához nyúlna) Az ilyen lassít, vagyis rontja a CCX-eken alapuló processzor skálázódását. Ezért az ütemezőnek törekednie kell arra, hogy azonos adatokkal dolgozó programszálak lehetőleg ugyanarra a CCX-re kerüljenek (De ne gondold, hogy az Intel mesh megoldásánál hasonló optimalizálás nem szükséges, mert ugye ott is számít, hogy a négyzetrácsban az egyes magok milyen messze vannak egymástól, ezért nagyonis célszerű az azonos adatokkal dolgozó programszálakat egymáshoz fizikailag közeli magokra osztani)
A multiadapter esetén úgy emlékszem, hogy úgy működtek egy kártyák, hogy az egyik kártya volt a master, a másik a slave. A tesztek azt mutatták, hogy ha az erősebb hardveres frontenddel rendelkező fiji a master (hipervisor?) és a 980Ti a slave, akkor jobb eredményeket értek el, mind fordítva. Ehhez persze még szoftveres támogatás is kellett
A multiGPU-k szent grálja, hogy szoftveres támogatás nélkül egyként látszodjon két gpu úgy, hogy fizikailag különálló hardver-elemek közötti kommonikáció minimális legyen és tűrhető késleltetésű.Az egyben láthatóságra és a tűzhető késleltetésre szerintem az infinity fabric mindenképpen megoldást ad. Innentól már csak a kommunikáció minimalizálására lenne szükség, vagyis hogy a két valójában egymástól távol levő saját, de egyben látott L2$-sel rendelkező egységek minél kevesebbet dolgozzanak egymás térfelére. Ami azt illeti, mivel már most is SE-be szervezve dolgoznak a GPU-k, szerintem ez nagyrészt megoldott. Ha az SE-k olyan sokat kommunikálnának egymással, akkor nem is lehetne ilyen egységekbe szervezni őket. Ezzel együtt persze valószínűleg nem jelentéktelen, különbem abu nem mondaná, hogy 4GMI link szükséges (100GB/s) A tökéletlen kommunikációs elválasztás, vagyis workload distribution, nyilván tökéletlen skálázódást eredményez.
De ezt valahogy megoldották a multiadapter esetén is. És az is valamiféle félig-meddig hardveres megoldás kellett hogy legyen, hiszen ha csak a szoftveren múlt volna, hogy a képernyő két részét más és más kártyákkal számoltatja, akkor nem kellett volna a master-slave felosztás és nem számított volna ebben az erős ütemező.
Ha ez már így ilyen master-slave módon működött, megvan a mód, hogy egyben látszódjon két kártya, akkor az összetevők szerintem megvannak.
Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz Jack@l #35849 üzenetére
Dehogynem. Úgy hívják, hogy triple buffering. Ilyenkor két back buffer van, és azt párhuzamosan számolja a hardver. Az utófeldolgozás olyan lehet, amilyen az algoritmusa. Egyáltalán nem kötelező hozzá az előző képkocka. Még a régi Xbox 360 esetében számított bevált trükknek, hogy az előző képkockához megmaradt adatokból számoltak bizonyos dolgokat az új képkockánál, de azt is amiatt, hogy a 10 MB eDRAM nem volt elég nagy a bizonyos leképezési eljárások mellett.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #35856 üzenetére
A mai játékokban azért a motion blur faék egyszerűen van megoldva. Az adott pixel végeredménye mindig a környező pixel valamilyen módon számolt súlyozott középértékéből van származtatva. A gyorsulást szimplán skálázhatod a képkockasebességből. A temporális screen space megoldások marhára nem elterjedtek ám. Persze kétségtelenül lehetségesek, csak egyrészt a számítási idő és a memóriaigény tekintetében relatíve költségesek, másrészt az eredményük nem sokkal jobb, így például nem adnak választ azokra a problémákra, hogy mi van azokkal az objektumokkal, amelyek már pont nincsenek rajta a képen. Szóval az egész egy baromi nagy screen space trükközés jelenleg. Úgy tudom egyedül a Nitrous működik másképp, az valóban temporális, ráadásul objektumszintű motion blurt használ, de ott eleve a leképező marhára más a texel shading miatt, tehát egy csomó mai motorra jellemző limitációval nem kell küzdenie. Ha kész egy objektum árnyalása egy viewportból, akkor azt annyiszor használhatod fel, ahányszor akarod, csak extra rajzolási parancs az ára, nem kell másodjára, harmadjára, vagy sokadjára árnyalni, mint az árnyalást és leképezést nem függetlenül elvégző motorok esetében.
Nem kapsz több fps-t a tripla puffereléssel, vagy csak egy nagyon picit. Egyszerűen arról van szó, hogy a késleltetés növelése és a memóriaigény emelése árán biztosíthatod a jobb szinkronizációt tripla pufferelés mellett. De attól, hogy három képkockapuffered van, még a GPU erőforrásai nem nőnek meg, vagyis az éppen számolt képkocka mellett elkezdi számolni az következőt is a GPU, azaz valamekkora mértékben megtörténik a képkockák párhuzamos számítása. De ne úgy képzeld ezt el, hogy egyszerre elkezd két képkockát számolni, és egyszerre el is készülnek azok, hanem amikor az n képkocka számítása a vége felé jár, akkor már elkezdődik az n+1 képkocka számítása, a parancsok parancspufferekből történő behívásával. Ez az oka annak, hogy minél jobban növeled a képkockapufferek számát, annál inkább nő a késleltetés is.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #35858 üzenetére
Nem kell nőnie, mert nincs több erőforrásod a hardver oldalán, de persze nagyon picit nőhet, viszont a mértéke elhanyagolható. Az történik, amit leírtam. Amikor az n képkocka számítása a végéhez közelít, akkor az n+1 elkezdődik. Ezzel lesz átfedés, mivel a feldolgozás egy részében van olyan pillanat, amikor két képkocka számítása zajlik párhuzamosan. Ez teljesen normális, mivel egy grafikus vezérlő heterogén processzornak tekinthető, vagyis amikor az n képkocka már nem terheli a parancsmotorokat, a tesszellátort, stb., akkor az n+1 képkockának eléggé szabad az út, hiszen azok aktuálisan malmozó részegységek. Emiatt az átlapolás a mai driverekben egy abszolút használható stratégia. Az más kérdés, hogy ennek a késleltetésben komoly ára lesz szinkronizálás mellett.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Callisto
őstag
válasz Jack@l #35916 üzenetére
Az írni (és nem elírók) nem tudók azok az ostobák, akik nyelvtannáviznak, ha teljesen más értelmű szóra hívja fel valaki a figyelmet, mint ami értelmet akart az írója adni neki (pl. egyenlőre - egyelőre...)
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
Abu85
HÁZIGAZDA
válasz Jack@l #35993 üzenetére
Teljesen mindegy, hogy mi lesz a konzolokban, SoC vagy nem SoC. Az AMD-n kívül nem kínál senki más olyan üzleti konstrukciót, amit a Sony és a Microsoft keres. Ez a Semi-Custom átka a megrendelők felé. Egy idő után annyira függővé vállnak a kiszolgálótól, hogy nincs hova menni, az AMD-nél van az összes IP-jük fizikai dizájnja, amit ők könnyen be tudnak építeni a saját dizájnjaikba. Nem tudnak mást választani, mert egyrészt egy csomó cég ezeket a dizájnokat be sem építi, még igényre sem, másrészt annyira át kellene alakítani azokat, hogy kompatibilisek legyenek a más partnerek által használt tervezőkönyvtárakkal, hogy arra se pénz, se erőforrás, se akarat. Nyilván az AMD nem fogja odaadni nekik a saját tervezőkönyvtárát, tehát mindent újra kell terveztetni valaki mással.
Ebből a helyzetből csak úgy tud szabadulni a Microsoft és a Sony, ha lemondanak minden olyan fejlesztésükről, amit az elmúlt nyolc évben dolgoztak ki, és akkor tudnak venni egy tömegeknek szánt kész lapkákat másoktól is, ahogy például a Nintendo is tette a Tegra esetében. A gond ezzel annyi, hogy lópikula lesz a teljesítménye, miközben elég sok pénzbe kerül, hiszen nincs egyedi megrendelés, ehhez szabott üzleti feltételekkel.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #35995 üzenetére
Ha ez ennyire egyszerű lenne, de a helyzet az, hogy a Sony és a Microsoft saját IP-ket is fejleszt, míg mondjuk egy rakás OEM nem. Ez a Semi-Custom bája és egyben rákfenéje. Ezek az IP-k a Sony és a Microsoft számára úgy lesznek meg fizikailag, hogy az AMD Semi-Custom részlege elkészíti a logikai dizájnból, méghozzá a megrendelő mérnökeivel közösen, és ez a fizikai dizájn az AMD tervezőkönyvtáraival lesz megalkotva, hogy kompatibilis legyen az AMD saját IP-ivel, a teljes lapkára kialakítva a saját routingot. Ilyen formában például semmit sem tud vele kezdeni mondjuk az Intel, mert más tervezőkönyvtárakat használnak, és már szimpla legózással sem lesz kompatibilis az IP. Ezt újraterveztetni igen nagy költség, főleg amiatt, mert a legalsó szoftveres réteget is újra kell írni a nulláról, és nem egy ilyen IP van a mostani konzolokban, hanem több tucat. Szóval a Sony és a Microsoft számára igen kedvezőtlen bárki máshoz menni a következő generációban, mert mindent, amit az elmúlt nyolc évben megalkottak közel a nulláról újra kell tervezni, míg az AMD-nél maradva egyszerűen le lehet portolni az egészet egy új lapkába, elvégre a Semi-Custom fő célja az egyedi dizájnok kialakítása, vagyis a birtokolt fizikai dizájnokat mindig egymáshoz legózhatóvá tervezik.
Az OEM-eknél azért sokkal könnyebb, mert ők nem adnak semmit egy kész lapkába. A legnagyobb teher a platform leváltásánál a nyomtatott áramköri lap áttervezése, és némi szoftveres probléma, ami aránylag olcsón megoldható. Ilyen szerencséje a Sony-nak és a Microsoftnak nincs. Nekik a beszállító leváltása rendkívül extrém költségekkel járna, annyira komollyal, hogy jobban megéri minden technológiát elengedni, amin az elmúlt évtizedben dolgoztak az AMD-vel. Kérdés persze, hogy erre megvan-e az akarat. Ha mondjuk nem találnak olyan partnert, aki tényleg tud egyedi igényekhez lapkát tervezni, akkor nincs értelme váltani sem. Már csak azért sem, mert az AMD-ben már megbíznak, hogy a titkaikat nem szivárogtatják ki harmadik félnek, ami egy komoly szempont, hiszen mégis dollármilliós nagyságrendű kutatásokat kell megosztani egy konkurenssel.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
válasz Jack@l #36112 üzenetére
UI: kb 10,7 dollárral emlkedett meg 2017-hez képest a kártya gyártási ára, az 21,4 dollár 8GB-ra. Szóval a táblázat a valid.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz Jack@l #36313 üzenetére
A CPU miatt. A HBM2 memóriabusza a Fenghuangon csak az IGP HUB-jába van bekötve. Ergo a CPU-nak is kell egy saját memória. Nyilván itt a HBM nem opció, mert túl pici a kapacitása. Az, hogy a GDDR5 drága nem igazán számít, mert nem tudsz mit rakni a helyére.
Sose mondtam, hogy a Vega csak HBM-mel működik. Sőt, sokszor ismételtem el, hogy a HBCC nem függ a HBM-től. Azért van HBM2 a Vegán, mert jelenleg ez a létező legjobb memória. Csak nagyon sokan a HBCC-t a HBM-hez kötötték. Eléggé alaptalanul.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz Jack@l #36485 üzenetére
Hát én azt gondoltam eleve, hogy a tsmcnél tömegtermelés (amds léptékkel) nem lesz, csupán néhányszázezer lapkára való. Az az Apple igényének töredéke. És a mainstreamebb cpu vagy gpu gyártása továbbra is az olcsóbban, de kicsit szarabbart, es később gyártó GF viszi nagytételben (néhánymillió lapka)
Ez persze most is egy lehet.Találgatunk, aztán majd úgyis kiderül..
-
nagyúr
-
Abu85
HÁZIGAZDA
válasz Jack@l #36556 üzenetére
A Quadro GV100 a Computexen egy out of memory üzenetig jutott. Itt nem csak azt mutatták be, hogy mennyire gyors a 7 nm-es Vega, hanem azt is, hogy nincs baja egy 80 GB-os modellel sem. Elfogadja akkor is, ha elvileg a 32 GB-os memóriájába be se férne.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yany
addikt
válasz Jack@l #36556 üzenetére
A mozgatás közben látható szemcsés állapot az, amit az RTX kártyák is előállítanak, csak A Tensor magok faszán kisimítják. Azonban a BF V-ben is látható néhány tükröződésnél, hogy ott "zajos" maradt, valószínűleg technikai oka van, vagy csak még a pre-pre-béta állapot miatt nincs befutva mindenhol ez a fázis. Szóval a tempó nem hasonlítható össze 1:1-be, mert nem tudhatod, hogy pontosan mennyit kellene számolni ahhoz, hogy egy Tensor-hoz hasonló megoldás RTX-hez közeli minőséget eredményezzen. (vagyis, hogy mennyire maradhat még szemcsés a vége ahhoz, hogy kidolgozható legyen a sok hiányzó részlet realtime)
Építs kötélhidat - https://u3d.as/3078
-
Abu85
HÁZIGAZDA
válasz Jack@l #36560 üzenetére
Nem valószínű. 80 GB a modell. Közkincsé szoktak néha tenni dolgokat, de 80 GB-ot hülyeség lenne.
Csak egy sugár az nem egyenlő egy másik sugárral. Baromira nem mindegy ugyanis, hogy a gyorsítóstruktúra belefér-e az L1 cache-be, vagy esetleg talán az L2 cache-be, vagy csak a VRAM-ban. Aztán, ha ezen túljutottunk, akkor az sem mindegy, hogy a modell belefér-e a VRAM-ba.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #36562 üzenetére
Tudtommal nem 8 MB, de felőlem lehet annyi is, ha ettől megnyugszol, viszont itt az a lényeg, hogy semmi gond nincs a nagy állománnyal sem. Múltkor egy 250 milliárd háromszögből álló adatmennyiséget töltöttek be. [link] - A Vega óta ez mindegy, mert a memóriavezérlő automatikusan kezeli a nagy adatmennyiség problémáját.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #36564 üzenetére
Dolgozz a filmiparban. Ott ez a probléma konkrétan fáj. Láthatod a videóban, hogy meddig tudsz jutni a HBCC nélkül. És akkor ültetheted oda az embereidet, hogy bontsák a tartalmat sok-sok apró szeletre, hogy beférjen. Vagy ha van pénz, akkor venni kell egy CPU-s rendszert, amit meg lehet támogatni több TB memóriával.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Jack@l #36567 üzenetére
Mitől agymenés megoldani az adatmennyiség kezelésének problémáját? Elég nagy különbség az "out of memory" üzenethez képest a működés, vagy nem?
Én nem látom a hasonlóságot a két modell között, de fogjuk rá, csak nehogy agyvérzést kapj...
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yany
addikt
válasz Jack@l #36567 üzenetére
Márpedig abban Abunak teljesen igaza van, hogy itt almát hasonlítasz körtével. Az itt látható ray/s mértékegység nagyon nem ugyanaz, mint amit a RTX-es demóban realtime látsz. Teljesen más paraméterekkel, algoritumssal és részletességgel történi realtime és render környezetben a raytrace. Gyanítom, hogy a számítás pontossága sem ugyanannyi bites.
Építs kötélhidat - https://u3d.as/3078
-
Cathulhu
addikt
válasz Jack@l #36648 üzenetére
Tegyuk hozza, hogy HBM ide vagy oda, a (hulye) AMD mindig ugy intezte, hogy veletlenul se profitaljon a nagy savszelbol, mert mindig ugy rakta a stackeket, hogy ne legyen gyorsabb a GDDR-nel... Igy sose fogjuk megtudni, valoban hozott volna-e a HBM barmit is a konyhara amellett, hogy draga...
Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell
-
Callisto
őstag
válasz Jack@l #36648 üzenetére
Kommersz kategóriában (értsd gamer) nem nagyon fogod a memsávszélnek előnyét látni szerintem, mert szerintem nem úgy fogják fejleszteni a játékokat, hogy kihasználja (RTX képesség lesz a limit). Hacsak nem lesz konfigurálható a játékokban a minősége.
AMD már jó ideje a professzionális piacot tartja szem előtt és ott ennek van előnye, de lehet tévedek.[ Szerkesztve ]
"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
Jack@l
veterán
válasz Jack@l #36654 üzenetére
Itt az oka is:
https://techgage.com/article/radeon-pro-vs-quadro-a-fresh-look-at-workstation-gpu-performance/A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Yany
addikt
válasz Jack@l #37017 üzenetére
Depláne. A lényeg a lényeg... fölösleges abban a hitben filózni, hogy "mi tudunk egy jobbat, mint amit az AMD lépett". Az AMD most totál kényszerpályán mozog. Lemaradtak a GPU oldalon, mint a borravaló és csak átvészelni igyekeznek ezt az időszakot, ami előttünk áll.
Építs kötélhidat - https://u3d.as/3078
-
nagyúr
válasz Jack@l #37069 üzenetére
ha erre gondolsz, hogy:
As it stands, AMD shared news that GPUs now contribute to only ~30% of their revenue with the other 70% coming from the Ryzen-based processor division instead.
akkor ez egy félreértés.
ez hangzott el: Ryzen cpu more than 70% of client revenue.Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
Petykemano
veterán
válasz Jack@l #37174 üzenetére
Az mondjuk Szerintem sandbagging.
De csodát nem kell várni. Még az ngg (& primitive shader) sem gyógyul meg Gfx10 előtt.
Az 1080 szintnél én többet várok, de számomra már meglepetés lenne, ha az 1080ti-nél jobbat hozna.
És persze mindent lehet magyarázni azzal, hogy pro kártya, pro driver[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
sutyi^
senior tag
válasz Jack@l #37194 üzenetére
Hát... 299 USD MSRP vagy nettó hülyeség, vagy lényegesen többet tud ez a kártya mint amit eddig láttunk.
Ha csak nem full fat 40CU magasabb órajelekkel és nincs nagyon közel egy GTX 1070-hez alulról, akkor igencsak túl van árazva szerény meglátásom szerint, főleg ha azt nézem hogy normális AIB partner kártyákat lehet lőni 230-250 USD között kint, azokhoz képest 20-30% felár lenne +10-15% plusz sebességért?-Pedig nem is én utállak téged, te utálod saját magad! - ...és mégis egész nap együtt kell lennem saját magammal.
-
HÁZIGAZDA
válasz Jack@l #37274 üzenetére
Az AMD bizonyára szokás szerint olcsóbb lesz, különben egyet sem fognak tudni eladni. Az a bizonyos DL teszt pedig pontosan az, amivel az NV anno a Tesla V100-at promózta.
Memória sávszélességben a V100 kb ugyanott van: 900 GBps vs 1000 GBps.
[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
-Solt-
veterán
válasz Jack@l #37526 üzenetére
Iróniával szerettem volna érzékeltetni, hogy komolytalan a megjegyzésed. Adott két közel azonos árú termék, az egyik kevesebbet fogyaszt és pár százalékkal jobban húzható, a másik többet fogyaszt*, kevésbé húzható, de alapból pár százalékkal gyorsabb. Ha semmi mást nem nézünk, ez már önmagában versenyhelyzet, és akkor ott van még a FreeSync monitorok jóval kedvezőbb ára, vagy éppen a beharangozott játékok. Erre jöttök azzal, hogy ez így nem versenyképes... Az ilyen megjegyzéseket nem lehet komolyan venni!
Én ebben kategóriában biztos, hogy AMD VGA + FreeSync párost választanék, mivel utóbbi annyit hozzáad a játékélményhez, amennyivel a kisebb fogyasztás + jobb tuning lehetőség nem tud versenyezni.
*100W többletfogyasztás napi 3 óra játék esetén évi ~4000.-Ft pluszköltséget jelent. Ne bohóckodjunk már ezzel...
www.smart-bus.hu
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- iPhone topik
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Fotók, videók mobillal
- Xbox Series X|S
- NFL és amerikai futball topik - Spoiler veszély!
- OLED TV topic
- Apple iPhone 15 Pro Max - Attack on Titan
- Samsung Galaxy Buds3 Pro - szárat eresztettek a babok
- BMW topik
- Szinte csont nélkül veszi az akadályokat TSMC gyárépítése az USA-ban
- További aktív témák...
- Zotac RTX 3050 8GB Twin Edge OC
- NVIDIA 30xx VIDEOKÁRTYA FELVÁSÁRLÁS AKÁR AZONNAL KÉSZPÉNZBEN VAGY UTALÁSSAL - WWW.PCFELVASARLAS.HU
- AMD RX 6700 XT 12GB GDDR6 Reference Eladó! 92.000.-
- Intel Arc580 Asrock Challenger
- NVIDIA 40xx VIDEOKÁRTYA FELVÁSÁRLÁS AKÁR AZONNAL KÉSZPÉNZBEN VAGY UTALÁSSAL - WWW.PCFELVASARLAS.HU
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen