- HiFi műszaki szemmel - sztereó hangrendszerek
- Alapértelmezett konfiguráción sok Core CPU-nak lehet stabilitási gondja
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Steam Deck
- Azonnali informatikai kérdések órája
- Milyen monitort vegyek?
- Autóhifi
- AMD GPU-k jövője - amit tudni vélünk
- Google Chromecast topic
- VR topik (Oculus Rift, stb.)
Hirdetés
-
A franciáknak elege van abból, hogy minden gyerek mobilozik
it Vissza akarják szorítani a gyerekek és tinédzserek közösségi média- és okostelefon-használatát.
-
Senua's Saga: Hellblade II - Íme a végleges gépigény
gp A folytatás megjelenéséig kicsivel több mint két hetet kell már csak várnunk.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Mert jóval kisebb helyre beépíthető. Például két darab Fury X-szel nem tudná kiadni a VR-re tervezett gépét a Falcon Northwest. A Tiki VR egy 14 x 4 x 13,75 hüvelykes házban van és ebbe a Radeon Pro Duo már belefér.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Blindmouse #51 üzenetére
Ha a betöltött textúrákból indulsz ki, akkor az téves. Ma a GeForce driver például sokszor csinálja azt, hogy ugyanazt a textúrát négy helyre is betölti a VRAM-ba, mert például a crossbar keresztbe felezett sebességű, így az a jó, ha mindegyik csatornában ott van a sűrűn használt adat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Fiery
veterán
Oke, tehat akkor kijelentheto, hogy a jelenleg letezo jatekokban nem adhato ossze a 2 db 4 GB-os szelet
"Ezt a titkot nem nagyon akarja kiadni az AMD"
Akkor velhetoen valami NUMA-szeru megoldas lesz, ami felett egyelore a fejlesztoknek nincs kontrollja. Mindenkepp fura ez, hiszen nehezen tudom elkepzelni azt, hogy mindegy legyen, melyik GPU video memoriajaban van egy adott adat. Ha betoltok 6 GB-nyi texturat, a 2 GPU semmikepp sem fogja az anyagot egyforma teljesitmennyel elerni. Az egyik a sajat memoriajaban levo reszt gyorsan fogja elerni, mig a masik GPU ugyanazt az adatot szuksegszeruen lassabban. Kiveve, ha mondjuk a 2 GPU kozott van egy 512 GB/s ateresztokepessegu osszekottetes De a kesleltetes, kicsi adatcsomagoknal me'g akkor is problema.
-
Abu85
HÁZIGAZDA
Nem, mert van már játék, ahol összeadható: Ashes of the Singularity, Sid Meier's Civilization: Beyond Earth, az Unreal Engine 4 multi-GPU-s módja is olyan lesz, hogy a memória összeadódik.
A textúrát eleve úgy fogják betölteni a modern, WDDM 2.0-ra tervezett motorok, hogy a rendszermemóriában lesz minden, és az új API-kkal ebből fognak gyorsítótárazni a VRAM-ba. Előre betöltést már rég nem érdemes használni, mert a drivereknek vannak olyan szokásaik, hogy többször is betöltik ugyanazt a textúrát. Sokszor négyszer. Mondjuk az AMD-é nem, mert HUB-os vezérlésű a hardver, de ettől ez a stratégia nagyrészt elterjedt. Ezen valószínűleg az új API-k sem változtatnak a közeljövőben, csak akkor, ha már tényleg csak a GPUMMU-ra és az IOMMU-ra dolgoznak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#06658560
törölt tag
válasz Malibutomi #53 üzenetére
A másiknál sincs nagy széria, a tervezés gyakorlatilag ugyanannyi. A gyártósor sem drágább hozzá, cserébe anyagdíj kevesebb.
-
#06658560
törölt tag
-
Abu85
HÁZIGAZDA
Az árhoz annyit tennék hozzá, hogy egészen valószínű, hogy a Radeon Pro Duo olcsóbban gyártható, mint két darab Radeon R9 Fury X. Talán 20-30%-kal is, vagy picit többel. Ellenben a Pro Duo sokkal kevesebb helyet igényel, és az OEM-ek kérhetik levegőhűtéssel, víz helyett. Erre sokkal kedvezőbb kis PC-ket építeni, mint két Fury X-re. A Tiki VR ára pedig 10000 dollár körül van, szóval belefér a drágább ár.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Pipó
őstag
A legjobban az tetszik, hogy majd 83%-át fogja uralni a piacnak az AMD. Gyorsan le kellene csapni erre a palira, odaadni neki a Nemzeti Unortodox és Világmegváltó Intézet irányítását.
"Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!
-
[CsuCsu]
őstag
válasz #06658560 #57 üzenetére
Hibaarany szamit sokat. Mind a ket GPU jol kell sikeruljon az alapbol komplexebb kornyezetben. Kisebb a valoszinusege, hogy mindketto jo lesz. Ha kettesevel gyartasz 1 GPU-s karikat, ha az egyik jol sikerult akkor azt nem kell kukazni. De itt ha az egyik rossz, a masik is megy a levesbe tudtommal.
-
Fiery
veterán
"Nem, mert van már játék, ahol összeadható: Ashes of the Singularity, Sid Meier's Civilization: Beyond Earth, az Unreal Engine 4 multi-GPU-s módja is olyan lesz, hogy a memória összeadódik."
Most akkor jelen vagy jovo ido? De ertem en, keszulnek a DX12 jatekok. Csak nem szeretem, amikor a jelen ideju tenyeket a jovo igeretevel probalja valaki semmisse tenni. A jelenleg, a tobbseg altal is hasznalt jatekokban (vagy mondjuk ugy, a piacon levo jatekok 99%-aban) egy ilyen kartya nem 8 GB-osnak minosul, hanem legjobb esetben is 4 GB-osnak.
"A textúrát eleve úgy fogják betölteni a modern, WDDM 2.0-ra tervezett motorok, hogy a rendszermemóriában lesz minden, és az új API-kkal ebből fognak gyorsítótárazni a VRAM-ba"
Es a compute-nal? Egy 2 GPU-s Fiji eleg jo vas lenne compute-ra.
[ Szerkesztve ]
-
[CsuCsu]
őstag
Alapbol mondjuk nem jatekokra kene hivatkozni, hanem engine-re, amit erre irtak. Amit eddig lattunk tobbnyire max par effekttel feltubozott DX11 alapu motorok voltak.
Nativan DX12-re epulo motorok (amik amugy 100% inkompatibilisek lesznek valoszinuleg DX11-el) meg csak keszulofelben vannak. Mellekesen, ez az egyik oka, amiert a konzolok szarul szerepelnek, meg csak most keszulnek az igazi alacsony szintu API-t kihasznalo technologiak.
Szoval, attol hogy valami DX12-re van korlatozva 1-2 effekt miatt meg nem jelent semmit. 2-3 ev mulva majd lehet ertekelest mondani.
-
Abu85
HÁZIGAZDA
Itt van legfelül a piackutatást kiadó cég vezetője. [link]
(#63) Fiery: A két említett játék a jelen.
A compute sajnos túl általános ahhoz, hogy bármit is lehessen rá általános elemzés szintjén írni. A grafika sokkal jobban kiszámítható.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Blindmouse #66 üzenetére
Egyik sem. De a VR azért egyszerű téma, mert mindegyik VR játékban összeadódik a memória. Ez a LiquidVR egyik alapja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
con_di_B
tag
Bocs Abu, ez fajni fog, de nem igazan jon at nekem ennyibol, hogy mitol lett praktikusabb/hatekonyabb megoldas ket GPU a VR problemara, mint egyetlen marha nagy.
Az, hogy a videomemoria osszeadodik, az eddig is igy volt (csak GPGPU API-kat kellett hasznalni...), viszont egyszerusitesekkel kellett elni ahhoz, hogy a grafikus alkalmazasok ne essenek szet teljesen, es a masolgatjuk a memoriat ide is meg oda is az egy eleg stabilan mukodo opcio. Siman lehetnek olyan scenario-k amikor ezutan is tok ugyanazt kell majd csinalni, csak immaron explicit modon. Szoval ez a resze kicsit felrevezeto a cikknek, mert az igaz, hogy rugalmasabb a helyzet, mint eddig volt, de nem biztos, hogy ez +VRAM-kent fog visszakoszonni a gyakorlatban.
A single vs multi GPU VR-sztori meg: ha egyetlen ketszer akkora GPU-d lenne, aminek a fele is eleg egyetlen szem szamara eloallitani a kepet, akkor meg ha az a GPU tortenetesen rendkivul tusko utemezovel rendelkezik, es olyan stilusban szamol, hogy elobb az egyik szemnek, aztan a masik szemnek, akkor is legalabb olyan hatekony mint ket kulonallo GPU.
Viszont (bar soha semmilyen VR kodot nem irtam meg, csak tippelek), hogy ha egy GPU-d van, akkor bar az eltero nezopont miatt tul sok infot nem tudsz direktben ujrahasznositani, de peldaul el tudnek kepzelni olyan tile-based rasterizert ami ugy rendezi a tile-okat parokba hogy a cache lokalitas (vertex+texel) megjobb legyen, ergo a masodik "szem" relativ teljesitmenye jobb lenne az elsohoz kepest. Ez nem trivialis feladat persze, de lehetne pre-renderelni egy alacsony felbontasu depth map-et a ket szem kozul, ami eleg ahhoz, hogy meg lehessen mondani, hogy ki-kivel van parban, mivel a tavolsag x-iranyban a melyseg fuggvenye.
De mondjuk azt, hogy ez egy sz*r otlet. Akkor is, ha van egy tisztesseges utemezod, akkor a masodik "szemhez" kotodo jobok nagyon vidaman ki fogjak tolteni az uresjaratokat a nagyobb GPU reszein, amire egy multi-GPU rendszer a budos eletben nem lesz kepes, hacsak nem vagy nagyon penge load balancingbol, de arra meg nehezen tudok olyan megoldast elkepzelni ami nem halna meg abban a pillanatban, hogy szinkronizalnia kell a ket GPU kozott (vagy mar van valami jobb megoldasuk erre mint az inter-GPU PCI-E?)
Ne ertsd felre, alig vartam h te gyere ki egy cikkel errol, reggel rakerestem h "na mi volt", aztan sirtam h egyes helyeken h sikerult osszefoglalni, szoval te legalabb ugy irtal cikket, h erted is h mit irtal, csak arra celzok, hogy azert ez az egy PCB-n ket-GPU ez eredendoen is egy ocsmany buhera volt mar amikor kitalaltak, es azota se lett kevesbe nagy takolas, mint akkor volt, es a fo vezerelv az mindig is csak annyi volt, h egyszerubb ket kisebb chipet legyartani hiba nelkul, mint egyetlen bazinagyot. Most meg ra lehet fogni, h "ket szemed van, vegyel hozza egy-egy GPU-t, es legyel boldog", ami a marketinget leegyszerusiti, csak azert na.
[ Szerkesztve ]
-
veterán
Ugyanaz mint idestova 10 éve. Az AMD csinált egy kártyát ami majd talán jó lesz a jövőben. (2900xt, HD3870, rémlik? aztán a 8xxx és 9xxx-es nv széria kicsit odavert nekik) Ez a kártya a mai játékok alatt nagyon be fog sülni, főleg ha kijön az NV Pascal. Esküszöm nem értem ezt az AMD-t. 8gb. Aham, van 2 játék ahol talán lehetne annak nevezni. Ejej AMD csúnya vége lesz ennek.
[ Szerkesztve ]
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
con_di_B
tag
Ez csak annyibol nem fair, h vilagosan megmondtak, h mire aruljak: VR-fejlesztoknek. Aki csak jatszani akar, annak ott van a Geforce 980Ti vagy a Fury, attol fuggoen, hogy mennyire "carpe diem" vagy "hatha egyszer jo lesz valamire" a felfogasa,
A Pascal ellen meg jon a Polaris.
10 eve az R600 (2900XT) egyebkent tavolrol sem volt annyira elore mutato, mint a GCN, es plane nem voltak hozza normalis fejlesztoeszkozok. Azt meg mondhatjuk, hogy a GCN-nel se mentek semmire, de ez nem teljesen igaz, abbol a szempontbol, hogy marhara nincsen az AMD-nek penze R&D-re, szoval ha nekik is most kene azokat a dolgokat lefejleszteni amik kb. mar a GCN 1.0-aban meg voltak oldva, akkor biztos, hogy semmi eselyuk nem lenne tartani a lepest a konkrenciaval. De az is igaz, hogy az elony veszesen fogy, szoval vagy dobnak valamit a kovetkezo generacioban, amitol ugyanaz a cucc (vagy picit fejlettebb) sokkal hatekonyabb lesz, vagy ennyi volt a jatek. Ha sikerul nekik, akkor ez egy jo bolt volt, es lesz penz fejleszteni, ha nem, akkor meg ugy pusztul el az egesz AMD h felvasarolni sem erdemes.
[ Szerkesztve ]
-
Sinesol
veterán
Azert az igérgetés nem kicsit szaladt el megint. Igazán kiváló azt állitanii, hogy egy nem létezö piac 83 százalékát birtokolják majd. Egyébként meg ez a 8gb csak nekem ferdités? Hiszen ha két szemnek két külön kockat készit a vga, akkor ugyanugy 4gb jut egy adatfolyamra...
Hajjaj, hát most sem kellett csalodnunk, jönnek a proféciák, van mire várni megint. -
#06658560
törölt tag
Annyira csak nem hülyék ülnek az AMD-nél, hogy már a kész kártyán tesztelik elsö alkalommal a GPU-kat.
#62 Malibutomi: Az R&D és szerszámköltségekböl viszont kétszer kell számolni a külön termékek esetén. Hütö viszont a dupla kártyán is csak egy van, egy venti, egy höleadó.
[ Szerkesztve ]
-
Teréz Atya
senior tag
-
Abu85
HÁZIGAZDA
Félreérted. Egyetlen marha nagy GPU nagyon jó, de ma nem lehet olyat építeni, ami a VR-re szükséges. Egyszerűen képtelenség. Tekintve, hogy az elkövetkező években 16K-s felbontásról és 240 Hz-es frissítésről beszélünk, így a jövőben is az lesz, tehát egyértelműen két GPU-ban kell gondolkodni, ha a csúcsról van szó, és a VR-nél ez azért jó, mert két szem számára függetlenül számolható a képkocka. Ergo, ami a normál monitoron hátrányos volt, az a VR-ben igazából előnyös. Melós, de előnyös, mert simán hozható a két GPU-val 2x teljesítmény. Ezt a LiquidVR már megoldotta egy éve.
Tehát ha VR-ről van szó, akkor ideális lehet minden generációban kiadni egy dupla GPU-s VGA-t, mert ideális a VR-hez, így az egy GPU-s csúcs teljesítményét ha nem is kétszerezi meg, de +80-90%-ot hoz, ami most pont elég volt arra, hogy bizonyos célokat sikerüljön elérni idén. Valószínűleg ez a jövőben is így lesz, amíg olyan álmokat dédelgetünk, mint a 16K, meg a 240 Hz.Nyilván a videomemória esetében a kihasználás már programfüggő, de technikailag megvan a kontroll, amire lehet építeni. GPGPU-val megvolt eddig, de immáron megvan grafikus API-val is.
Oké, értem amit írsz az egyetlen bazi nagy GPU-ról, de a valóság az, hogy abból is rakhatsz a nyákra kettőt. Amiről beszélsz, mint bazi nagy GPU, az a Fiji. Természetesen lehet tervezni egy új GPU-t, ami most üssünk a hasunkra és legyen 2xFiji, de ez jóval több idő, mint két darab Fijit rakni a NYÁK-ra. És mindig ott lesz az opció, hogy legyen egy két GPU-s VGA. Tehát mindig tervezhető lesz dual GPU-s cucc, sokkal gyorsabban, mintha új lapka születne.
Ilyen ötleteket próbáltak VR-ben, azt hiszem, hogy a Crytek, mert nekik volt a sztereó 3D-re hackjük anno, de VR-ben nem igazán működnek a hackek. Kiszámolható, de nem lesz elég jó a minőség. Maguk a hackek még nincsenek teljesen elvetve, de szükség lesz hozzájuk bizonyos kijelzőtechnológiai fejlesztésekre. Szóval később esetleg jöhetnek, de ma valljuk be a VR eléggé gyerekcipő még, szinte minden területen, tehát számos tényező miatt kell itt-ott kompromisszumot kötni. Lehet, hogy a VR-t imádók körében nem leszek kedvelt ezzel, de ma a VR minden szempontból az a minimum minőségi szint, amiért éppen hogy pénzt lehet adni. Az igazi minőség még messze van.
Az AMD-nek lesz PCI Express alternatívája a jövőben. 100 GB/s-os koherens busz. Még kevés róla az adat, de be szeretnék vetni több területen is. A hogyan kérdéses, de az látszik, hogy keveslik a PCI Expresst.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#06658560
törölt tag
-
con_di_B
tag
OK, csak annyi a pontossag kedveert, h amit en mondtam az nem hack, konkretan tok ugyanazt a kepet produkalja mint egyebkent, ez egy intelligensebb scheduling algoritmus (lehetne). Nem az a cel, hogy barmit is direktben ujrahasznositson vagy maszatoljon a jobb szem egy adott tile-ja a bal szem masik tile-jabol (amivel parban van), hanem hogy meg legyen oldva, hogy a kettot ugyanaz a CU szamolja egymas utan, szoval amit mar eleve be kellett tolteni a bal tile-hoz, abbol feltehetoen tobb a relevans, ujrahasznosithato adat a cache-ben, mintha valami teljesen random sorrendben lennenek feldolgozva.
A kesleltetest mashogy is le lehet vinni, egy ilyen optimalizacio inkabb arra tudna jo hatassal lenni, hogy a kevesebb DRAM access kevesebbet fogyasszon valamivel.
-
[CsuCsu]
őstag
válasz #06658560 #77 üzenetére
Egy engine-t nem lehet 1-2 ev alatt tervezni manapsag. 4-5 ev egy komplex, felsokategorias cucc a 0-rol megirva (e.g. nem egy meglevo toldozgatasa helyett) es nem a jatekfejleszto altal, mellekmunkaban. EA sem viccbol hozta letre a Frostbite Team-et, mint dedikalt engine fejlesztot. Eredmeny: Battlefront nezzuk meg mit is muvel konzolon, es ennel meg tobbre is kepes lesz a tech. A konkurencia ezt meg nem igazan ismerte fel illetve nincsenek meg az eroforrasaik.
[ Szerkesztve ]
-
#06658560
törölt tag
"Ez csak annyibol nem fair, h vilagosan megmondtak, h mire aruljak: VR-fejlesztoknek."
Nem tudom neked higgyek, vagy az AMD-nek: "For Gamers Who Create and Creators Who Game", "The Fastest Graphics Card for Gaming in the World1", "The 3rd generation GCN architecture featuring asynchronous shaders enables the latest DirectX™ 12 and Vulkan™ titles to deliver amazing 4K and VR gaming experiences." "Leading market share – AMD is powering the overwhelming majority of home entertainment VR systems around the world, with an estimated 83 percent market share.1 This share is driven in part by AMD technology powering VR-capable game consoles installed in millions of homes globally.",
-
#06658560
törölt tag
2013 novemberében került polcokra elsö alkalommal a PS4. Elötte pár éve fejlesztették, az SDK-nak, API-nak kész kellett lennie legalább fél évvel korábban, én inkább mondanék egy évet. Vagyis majdnem három évnyi fejlesztési lehetöség már volt, szerintem több is. Miért nincs nyoma se? Miért nem harsogja a média, hogy jönnek rájuk az álleejtös programok és mutogatja a demókat?
-
Abu85
HÁZIGAZDA
válasz Blindmouse #84 üzenetére
Az egy műanyag makett drága fórumtársam. Még interposert szimuláló műanyagot sem ragasztottak a lapkák alá. Egyébként a keresett hír: [link]
(#80) con_di_B: Ezt ki kellene próbálni, hogy mennyivel lenne jobb. Addig nem jutunk előrébb, amíg nincs róla eredmény.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz #65675776 #79 üzenetére
Akkor megnyugodtam. Nem az utóbbi hónapokban nem követtem a híreket volt más dolgom is.
Én csak azt nem értem, ha az AMD anyagilag nem áll jól miért öl pénzt egy ilyen kártya fejlesztésébe, amikor pár hónap és itt az új architektúra. Ok, a fejlesztőknek jó lehet, de ez az egész VR piac még nagyon ingoványos, azaz kockázatos. Lehet, hogy arra kéne full erővel koncentrálni, hogy a mostani játékokban legyenek a legjobbak, ne abban ami majd egyszer, talán jön.
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
#06658560
törölt tag
válasz MrPetya19 #86 üzenetére
Fury X PCD ára A. Alkatrészek rá B. A helyes kérdés: a dupla Radeon PCB+alkatrészek ára a 2*(A+B)-hez hogy viszonyulnak. Mivel a Fury sem gyerekjáték bonyolultságú, így nem nehéz az utóbbi egyenletben arra jutni, hogy a dupla GPU-s rendszer nem drágább- esetleg olcsóbb is.
-
rottenbull
senior tag
Hey ppl, lemme show you dat new beasty GPU from our company. Here it is. Keep looking at it ppl, and ignore the X99 mobo with Intel CPU in it, just focus on the new GPU. Ok ppl ? Thx.
-
con_di_B
tag
Egy 1500$-os termekrol beszelunk. A Fiji kihozatala feltehetoen mostanra mar nem olyan rossz, mint regen volt, szoval ha HBM-bol be tudnanak pakolni 8GB-t (inkabb itt lehet a problema), akkor valoszinuleg lehetne epiteni egy db 2xFiji GPU-t ami beleferne ebbe az arba. A gond inkabb az lehet, hogy egy gyakorlatilag elhanyagolhato meretu, presztics piacrol beszelunk, es gyakorlatilag mindenre tobb ertelme van kolteni az R&D koltsegvetest, mint erre. De ha visszaolvasol szerintem ebben eddig is egyetertettunk.
De oke, akkor ujrafogalmazom: az igaz, hogy a 2xGPU-s megoldas praktikusabb, csak nem a usernek, hanem az AMD-nek, hiaba sugalljak ok az elobbit. OK igysem ugysem adjak olcsobban, a profit marzs ter el.
[ Szerkesztve ]
-
füles_
őstag
Hiába lesz itt az új architektúra,meglett mondva hogy idén a Pro Duo verhetetlen lesz VR-ban:
Idézem Abu-t:
VR-ben a dual Fiji idén legyőzhetetlen lesz. Szimplán a dual GPU-s felépítése miatt, mert az felezi a késleltetést. Egy single GPU-s rendszer VR-ben eleve hátrányban indul, még ha a teljesítménye ugyanakkora is.A VR-t meg most a legelején kell lecsekkolnia az AMD-nek
-
con_di_B
tag
válasz rottenbull #89 üzenetére
Biztos csak nem akartak tul sok izgalmat egyszerre, hogy meg a Zen-nel is villantanak egyet a reszvenyeseknek. Meg mar igy is tul jok voltak az eredmenyek, aztan ugy voltak vele, hogy egy kis downgrade talan belefer.
[ Szerkesztve ]
-
veterán
Gratulálok az AMD-nek, hogy egy olyan szegmenseben a legjobbak ahol még kb nincs piac. Persze kell fejleszteni a jövőre, csak a kész termékeket a jelenre érdemes kiadni.
Ok megveszem ezt a kártyát, és mivel játszom?
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
Abu85
HÁZIGAZDA
De mi van az idővel, mint tényezővel? Tegyük fel, hogy a Vega 2xFiji lesz, viszont annak az érkezéséig még egy év van hátra. Addig kell valami, amivel a tartalomkészítők igényeit le lehet fedni. És ugyanígy lesz minden generációban. Lesz egyszer 2xVega teljesítményű GPU, de két darab Vega legalább egy évvel hamarabb megjelenhet.
Szerintem ez annyira nem presztízs már. Ez alapvetően egy igény/kínálat probléma. Ma a 16 TFLOPS is kevés, de ennyi van és kész. Lesznek egy csomóan, akiknek ez a kártya az egyetlen lehetőség, hogy normális munkát végezzenek.
Otthoni user számára a kártya lényegtelen, persze a marketing majd durrogtatni fogja, hogy gamer, de ezzel meg nem kell törődni. Nem véletlenül lett egy Radeon Pro kategória.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
con_di_B
tag
Gondolom azert, hogy legalabb egyetlen dolog legyen amit ertenek is az emberek, hogy mi a franc, es jobbak benne, mint az NVIDIA, ma, nem holnap.
Meg amint Abu is elmagyarazta, mert igy gyakorlatilag semmit nem kellett fejleszteni magan chipen, szoval ettol meg nem jon a Polaris meg a Vega kesobb, vagy ilyesmi. A 2 GPUs kartya az egy jolly-joker otlet, barmikor elo lehet rangatni, aztan ezt addig fogjak probalgatni amig egyszer valami ertelme nem lesz.
-
jedis
senior tag
Ha az autópályán haladván, egyszer csak vészjósló mennydörgést hallasz magad mögött, és hátratekintvén egy nagy feketeség közelít feléd ezerrel, ne hidd azt hogy egy viharfelhő vett üldözőbe !
-
#65675776
törölt tag
Az a baj, hogy ha mindenki folyamatosan csak a jelenre fejlesztene, akkor kb mindenki folyamatosan csak futna a fejlődés után. Az igazán érdekes kérdés inkább az, hogy a fejlesztések nagy része miért a kb legrosszabb anyagi állapotban levő cégtől jön. A pénzzel teli cégek meg nem igazán foglalkoznak innovációval. Az nV ellenne a mai napig a DX9-cel, max gyártana rá egy akkora GPU-t, ami külön vízhűtéses házat igényelne.
[ Szerkesztve ]
-
füles_
őstag
Lehet hogy még nincs rá piac de ők most nyugodtan vannak abban a tudatban hogy idén és a jövő fél évben nem lesz ellenfelük
Ha akarsz játszhatsz BF4-et 4K-ban vagy The Division-t 4K-ban...
Nem csak VR-ban a legjobb hanem nyers erőben is legelsőA VR meg nem csak a gamereké,ott van pl az orvostudomány és még sokmillió más
[ Szerkesztve ]
-
veterán
Én kívánom az AMD-nek, hogy nagyot durrantson ez a kártya, csak kicsit aggódom. Nem ez az első eset, hogy a jövőbe menekülnek de hiába. Persze nem volt plusz pénz kifejleszteni magát a GPU-t, de gondolom egy ilyen kártya megtervezése sem két fillér.
Ok jobbak az NV-nél, csak mint említettem egy olyan iparágban ahol még nincs igazi piac.
daa-raa: Igazad van, de mi lenne, ha az AMD átvenné egy kicsit az NV szerepét? (jó tudom katasztrófa, de csak játszunk el az ötlettel) Most mi van? Az AMD kijelöli az irányt, mindig jól befürödnek egy prototípus termékkel aztán jön az Intel meg az NV és learatják a babérokat. Fejlesszen az Intel és az NV az AMD meg kövesse le, de tökéletesítse a technológiát.
[ Szerkesztve ]
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
Új hozzászólás Aktív témák
- Crypto Trade
- Építő/felújító topik
- eBay-es kütyük kis pénzért
- Vicces képek
- Samsung Galaxy S23 Ultra - non plus ultra
- Debrecen és környéke adok-veszek-beszélgetek
- Kodi és kiegészítői magyar nyelvű online tartalmakhoz (Linux, Windows)
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- Fűnyíró topik
- Témázgatunk, témázgatunk!? ... avagy mutasd az Android homescreened!
- További aktív témák...
- MSI RTX 3070 8GB Gaming X Trio - 1 év magyar garanciával - eladó!
- XFX RX 6600 XT SPEEDSTER SWFT 210
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- MSI GTX 1660 ti armor oc
- ELADÓ 32 DB Nvidia RTX 3060 Ti és 8 DB Zotac Gaming Geforce RTX 3080 Trinity / KOMPLETT BÁNYAGÉP
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen