- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Milyen billentyűzetet vegyek?
- ASUS notebook topic
- Radeon RX 9060 XT: Ezt aztán jól meghúzták
- Vezetékes FEJhallgatók
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- CPU léghűtés kibeszélő
- OLED TV topic
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
Új hozzászólás Aktív témák
-
TTomax
félisten
válasz
Malibutomi #42287 üzenetére
Nem,csak ékes bizonyítéka annak,hogy minden cég rögtön stratégiát vált ahogy a tűz közelébe kerül.
#42289 Piszmaty76
Hát hogyne,elemi érdekük volt.Máshogy nem igazán ment a piacszerzés,vagy van olyan terméked ami senkinek nincs,vagy olyan "open" vagy amennyire tudsz,hátha ráharapnak és ezért viszik a terméked. -
#09256960
törölt tag
válasz
Malibutomi #42287 üzenetére
Szerintem ez most nem a jófiú rossz fiúságról szól.
Hanem arról hogy szívd fel magad legyél jó gömbhal mert ahasonló azonos teljesítmény mellett az nyer aki tud termelni.
És a Vafer árért az nyer aki többet tud fizetni.A cégterjeszkedéseknek is ez az egyik oka, a piacfoglaláson és shipletre való felkészülésen kívül.
Ha drágán veszed drágán adod. De te dönthetsz a saját gyártósoraidon mi a prioritás.
Az egyéb, tehát a CPU is kőkeményen belejátszik a dalba, értjük azt is hogy NV ARM-ot akar de ezért neki nagyon véresen meg kell fizetnie majd, ott fog ülni a nemzetbiztonság és szorongatja a golyóit miközben Kína benne látja majd a Huawei megbosszulásának eszközét.
A prohardver nem hivatalos világpolitikai elemzőjét halloták
'Én szótam' ! -
TTomax
félisten
válasz
Malibutomi #42283 üzenetére
A 100dolcsi már régen be van építve a 5XX-es lapok és az 5XXX-es procik árába,aztán dobozt se kapsz... és hát nem igazán önszántukból léptek,mert akkor élből ezzel jöttek volna.Helyet cseréltek szépen,és lám milyen szépen bejön az amit mondtunk,hogy addig marad az AMD "jófiú" szerepben amíg nincs mivel,ahogy értelmes dolgokat gurítanak ki rögtön átmennek ugyanolyan kapitalista cégbe mint az intel,nV,stb...
-
válasz
Malibutomi #42283 üzenetére
itt annyi történt hogy az 500 chipkészletre és 5000 Ryzenre való lekorlátozás nem jött be AMD nek az Nvidia nyilatkozata miatt akik közölték múlt héten hogy PCIe 3.0 án is menni fog náluk és Intel CPu val is. A "kis doboz 100 $ áron" nem náluk volt előkészítve pont .
AsakuraDave:
SAM re is optimalizálni kell csak úgy mint az összes fejlesztésre
Az mindéképpen jó ha mindegyik gyártó támogatja mert akkor gyakorlatilag értelmet nyer a bele ölt idő/ pénz. pontosan ezért jó hogy végre van RT támogatás is.
DLSS meg jó és hasznos ficsőr, ott Nvidia támogatni fogja a DirectML-t is tehát az lenne a jó ha mindkét gyártó inkább az egységes irányt követné és onnantól vagy kiadnának egy teljesen Direct ML kompatibilis DLSS verziót vagy pedig áttérnének a szabványra esetleg mindkettőre. -
keIdor
titán
válasz
Malibutomi #42250 üzenetére
Az RX-6900XT egyelőre egy válogatott, jobban sikerült GPU-nak tűnik nekem, az egész feloldva, azaz +8CU mellett marad a fogyasztás a kistesó szintjén, kb. ennyire számítok, órajelben nem várok magasabb értékeket.
Ez a harmadik termékvonaluk TSMC 7nm-en, gondolom bőven lesz darabszám így megérte nekik kihozni.
Ez kb. +10-12%-ot jelent majd, de +300€-t nem fog érni. -
nkaresz1976
csendes tag
válasz
Malibutomi #42250 üzenetére
Sokmindent nem kell majd tologatni ott az amdnek mivel már most is pár helyen elveri a 6800XT a 3090-et... 270k vs 800k (csak hogy a hazai árakat nézzük) Ennek tükrében a 3090 az évszázad vicce
-
#09256960
törölt tag
válasz
Malibutomi #42250 üzenetére
Főleg a vizest hogy a thermal limit ne legyen befolyásoló és nézzük meg mi van az alulfeszeléssel 2.4 fölött
-
válasz
Malibutomi #42240 üzenetére
Miért mennyit tesz rá a 3080 ra a Ti szerinted?szerintem 3090 szintjét fogja hozni. A 3090 akár még is szunhetne.
-
AsakuraDave
őstag
válasz
Malibutomi #42245 üzenetére
Az egész széria közt nincs nagy különbség 6800-6800XT-6900XT.
Egy kis tuningal elérhető az eggyel nagyobb tesó teljesítménye valszeg.
De ez már az 5700-5700XT-nél is kb így volt nem? -
proci985
MODERÁTOR
válasz
Malibutomi #42220 üzenetére
harom minosegi 92es ventivel az tenyleg halk tovigterhelve.
btw 5700XT ref is halk volt uresbe es amig nem ment tovig terhelve, igaz nalam a hazszellozes az meg a ket 290Xre volt meretezve. meg is lepodtem anno, hogy beraktam ugy, hogy "max ha nagyon hangos ket het mulva atszerelem vizre", ehhez kepest kb 9 honapig ment levegon.
tovigterhelve egyebkent epp elfogadhato volt, de nalam a vizen a ventik mostanaban nem mennek 600rpm fole.
-
válasz
Malibutomi #42240 üzenetére
Gyari 500W TDP-vel
-
Piszmaty76
aktív tag
válasz
Malibutomi #42235 üzenetére
Én a 6900XT-re (vagy olyan teljesítményre) gyűjtögetek 4K/60 fps miatt bő egy éve. Még tudok várni pár hónapot, túl nagy összeg elkapkodni.
-
Jacek
veterán
válasz
Malibutomi #42224 üzenetére
Ne feledjük jön még a kis 6900XT is karira
-
válasz
Malibutomi #42220 üzenetére
I know, csak kedvenc fanboy-trollom erveit vartam volna, hogy mitol is "szar"...
De arra szerintem varhatunk egy darabig...
-
Casanova*
veterán
válasz
Malibutomi #42195 üzenetére
Majd azt is. Csak még nem tudom intel legyen vagy amd ryzen...
-
Laja333
őstag
válasz
Malibutomi #42057 üzenetére
Az inkább chromatic aberration.
#42053 b.
tehát ahol épp működik a DLSS akkor jó a feature, ha nem működik, akkor meg a játék szar?
Szerintem pont az lenne a vonzereje ennek, hogy egy rosszul optimalizált játékot játszhatóbbá tegye azonos minőségen. De, mint ahogy fentebb írták, itt elég ha visszaveszed a minőséget, és ugyan ott vagy képminőségben is és sebességben is, mint DLSS-el...AMD-nek nem lesz "DLSS", csak Microsoftnak lesz DMLSR (
). Ami egyébként működik NV-n is.
-
Raggie
őstag
válasz
Malibutomi #42061 üzenetére
Jaaa, ok így már világos.
(és elég gázos)
-
Raggie
őstag
válasz
Malibutomi #42057 üzenetére
Ez egyébként most mi? Mert mindkét képen DLSS Off felirat van. RT van ki- és bekapcsolva? Vagy mi okozza a különbséget a két kép között?
-
AsakuraDave
őstag
válasz
Malibutomi #42057 üzenetére
Bezzeg majd az AMD. Olyan DLSS-ük lesz, hogy kijön a monitorból a szék annyira élethűvé teszi majd +200fps-t is ad
Amúgy tényleg f0$ a DLSS ebben a játékba, eddig csak a Control,Death Stranding ahol a DLSS2.0 van és elég jól működik... -
Dtomka
veterán
válasz
Malibutomi #41894 üzenetére
-
sNk77
aktív tag
válasz
Malibutomi #41888 üzenetére
Szerintem pont annyival tud többet a grafikon szerint ami indokolja a magasabb árat (+16gb mem 8 ellen). Picikét erősebb, dupla memória, sokaknak szerintem nem jelentős az árkülönbözet ebben az ársávban. És hát én pl. 3 évente veszek vga-t, nem ezen fogok spórolni ha már ilyen ritkán cserélem és szeretném ha minél tovább kiszolgálná az igényeimet.
-
válasz
Malibutomi #41884 üzenetére
Mondjuk igen, ez igaz a 3070 nem GDDRX ramal van, leesett közben.
De nem ugyan azon az áron van. Pont meghagyja a helyét a 3070 Ti nek. Érdekes stratégia, kicsit kartell gyanús. Ha megnézed a 6800 ha 499$ lenne akkor lenne a helyén és best buy kártya lehetne. -
Laja333
őstag
válasz
Malibutomi #41885 üzenetére
Egyértelműen az Ampere-t, jön a tél, kell a fűtés.
-
válasz
Malibutomi #41878 üzenetére
ugyan azon az áron nem lesz kanyec.
ha alááraz és kapható lesz akkor esetleg. Erre fogja kidobni az Nvidia a 3070 Ti-t gondolom én. AZ ünnepi szezonra jó dolog az500 dollár alatti kártya. ha van... -
AsakuraDave
őstag
válasz
Malibutomi #41857 üzenetére
Szóval még mindig ott tartunk, hogy AMD-nél minden lineárisan sőt exponens nő.
2x annyi core mag vagy akármi = 4x akkora teljesítmény ha AMD-ről van szó...
Hidd el nagyon boldog lennék ha AMD végre versenyképes kártyát adna ki.
Nagyon szép és jó lesz látni miből áll a kártya de amig nincs független teszt addig bármit mondhat, mutathat nekem a gyártó. (ez minden gyártóra igaz, legyen az TV, mosógép, cpu, autó szóval érted)
BTW intel -> ryzen és volt már 5700XT kártyám is 1080Ti és 3080 között, szóval nem mondanám magam egyik fanboi-ának se... -
AsakuraDave
őstag
válasz
Malibutomi #41850 üzenetére
És akkor mi lesz? AMD-nél exponenciális a növekedés nem?
Rá raknak +100Mhz-et az +200fps?
Nem értem ezeket a kisleány ábrándozásokat itt embereknél.
Várd meg a bejelentést és teszteket mit kell itt hokuszpokuszozni hogy ha 2.5gigahertzes lesz akkor 500000fps lesz mindenhol? Láthatod, hogy prociknál is hiába intel 5.2ghz egy 4.5ghz amd van amibe jobb van amibe lassabb nah akkor még mi számít? -
Laja333
őstag
válasz
Malibutomi #41850 üzenetére
És ez 28-án már kiderül? Nem november közepén derül ki, amikor ténylegesen megjelennek?
-
gejala
őstag
válasz
Malibutomi #41809 üzenetére
Ezek az előzetes szivárgások mindig ilyen cherry picked cuccok. Engem az érdekel, hogy nyers erő igényes játékban mit tud majd, pl. AC: Odyssey vagy RDR 2 ultrán. Ami ezekben a játékokban jól megy, az mindenhol jól fog.
Nagyon ritka az olyan jól skálázódó játék, mint Doom Eternal vagy Battlefield V. A legtöbb esetben izomból kell megoldani ultra beállítást és ezen sok kártya elvérzik. Korábbi szériákból egyedül 1080Ti/2080S és fölötte, ami még nagyjából minden esetben képes erre 1440p-ben. -
FLATRONW
őstag
válasz
Malibutomi #41747 üzenetére
Nem a magasabb felbontás miatt kell az erősebb CPU, hanem a magasabb minőségi szint miatt, ami magába foglalja a nagyobb látótávolságot is. Egyedül az RT nélküli 1440p lóg ki ilyen szempontból a sorból, de szerintem ott elírták a minőségi szintet, és a High az Very High akar lenni.
-
válasz
Malibutomi #41696 üzenetére
Gondolom értelmesebb lenne a 3080 kártyát nézni, és konkrétan a 3090 ről beszélned , nem pedig egybefüggően az Ampereről, mint termécsalád mert a 3080 meg az egyik legjobb előrelépést produkálta még perf / watt terén is.
Vagy arról is beszélhetnénk, hogy a 3 utolsó AMD kárty a 3080 hoz képest 10 % fejlődést mutat teljesítényben.A 3090 pontosan azt képviseli amit a Radeon VII képviselt, elsősorban munkára éri meg ,nem pedig játékra ha ár / értéket nézünk. Úgy gondolom nem véletlenül lett ekkora szakadék a két Ampere között. A 24 GB ramjával és az NV linkkel konkrétan félprofeszionális felhasználásban feleslegessé tette a Quadrokat.
-
Devid_81
félisten
válasz
Malibutomi #41696 üzenetére
De nem ugy volt, hogy valami 10 eve ez a legjobb, meg volt vali 21 ev is meg minden IS.
Most akkor azt akarod mondani, hogy atlettunk b@cva?Miert nem lepodok meg?Pedig megkellene
-
Petykemano
veterán
válasz
Malibutomi #41696 üzenetére
Gondolkodtam, hogy vajon mi lenne, ha a XX80-as szériával is megcsinálnánk ugyanezt az elemzést.
Nem lenne könnyű, mert a XX80-as kártya hol a sorozat legnagyobb lapkájából volt vágva, utóbbi időben azonban a második legnagyobb lapka (_04) teljes változata volt, azonban az Ampere esetében megint 102.
Mindenesetre az AdoredTV által készített adatsorok kissé lehangoló képet mutatnak. Ha nem ismerném a részleteket, azt gondolnám: az nvidia fermiből indított architektúrája kifulladt.
Persze tudom, hogy csak rossz fénytörésből nézem és egyébként is hol van az AMD.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #41657 üzenetére
Azért az RDNA1/2-t nem hívnám lightweightnek. Nézzetek meg egy multiprocesszort. 128 kB-os az LDS, négy darab, egyenként 128 kB-os regiszterterület, két 16 kB-os L0, és megosztottan 16 kB-os skalár és 32 kB-is utasítás gyorsítótár, illetve 128 kB L1.
Ha ez a lightweight nem tudom mi a szénné gyúrt.
Az Ampere esetében egy multiprocesszor az 128 kB L1, amiből 48 kB az LDS grafikai számításnál, tehát külön LDS nincs is, 32 kB az utasítás gyorsítótár, és van még négy darab, egyenként 64 kB-os a regiszterterület. Ez sokkal inkább lightweight azokhoz az izmokhoz képet, amit az AMD rak az RDNA-ba.
-
smkb
őstag
válasz
Malibutomi #41657 üzenetére
Nem cseréltek fel semmit. A GCN a kanyarban sem volt mikor az NV bevállalta a Fermit... úgyhogy a GCN volt az, amivel az AMD megpróbálta lekövetni, az NV-nek azt a lépését amit a GF100- al tett a szuperszámítógépes piacon.
-
Petykemano
veterán
válasz
Malibutomi #41657 üzenetére
Teljesen Így tűnik.
Nem lepődnék meg, hogy ha a továbbiakban az nvidia lenne az async compute zászlóvivője. Biztos lesznek majd benchmarkok is, amik a nyers számítási kapacitást mérik async compute használatávak hiszen hát nyilvánvalóan a raytracingre elképesztően számítási igényes és Így lehet az élményt mérni.Adoredtv a Samsung node képességeivel magyarázza, vagy inkább mondjuk úgy, hogy nem TSMC-é.
A Maxwell és a pascal azzal nyert nagyot, hogy másfélszer magasabb frekvencián pörgött az egész gpu. Azzal biztosan sok késleltetést lehet nyerni. Kivéve persze ha sok a shader számítás, mint magas felbontás esetén. Ezért tolja ezúttal a 4K szekeret az nvidia, miközben kevés a 4k user.
A SS8N nem ér el kellően magas frekvenciát, ezért az nvidiának nem volt más választása. Ez ugyanaz, mint amit az AMD a fijivel és a vegával próbált.
Én arra számítok, hogy 1080p és 1440p felbontásokban meggyőző előnye lesz az AMDnek a 3080-nál szemben egy alacsonyabb fogyasztás mellett. Maxwell.
Most csak Fejből. Ha jól emlékszem, a 2080ti 50%-kal volt gyorsabb az 5700XT-nél. Ezt már egy 60CU-s változattal is hozhatja. Nyilván a több CU.magasabb felbontáson tudná éreztetni jobban hatását. És erre még rászámolhatsz +10-15% frekvenciát.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #41630 üzenetére
Konzolról tudnak számolni, tehát nyilván van egy elképzelésük arról, hogy mit tudhat az AMD generációja.
Viszont a fogyasztás valószínűleg független ettől. Ott elvileg azzal van probléma, hogy maga a dizájnkönyvtár, amit az NV használ egy high density lib. Ezeknek a tipikus előnye, hogy egységnyi helyre több tranyót engednek építeni, de ennek az ára, hogy rossz lesz a fogyasztási karakterisztika. Emellett nem tudni, hogy a Samsunggal milyen szerződést kötöttek. Nem biztos, hogy a Samsung olyan jó kihozatalt tud ezeknél a nagy lapkáknál, hiszen akkora tapasztalatuk azért ebben nincs. És általában jellemző, hogy nem a lapka lesz fizikailag hibás, a 8 nm itt azért túl kiforrott, hogy ilyen gondja legyen, viszont nagy lehet a variancia az egyes lapkák között, amiket gyártanak. Ez szokott lenni a tipikus gond a nagy lapkáknál. Ilyenkor úgy kell kialakítani a specifikációt, hogy ezt a varianciát azért tervezd bele a kihozatalba, hogy minél több waferen található lapka felhasználható legyen.
-
nubreed
veterán
válasz
Malibutomi #41607 üzenetére
Én ezeket a leakeket mind kamunak tartom az nda lejártáig. Szóval tőlem bármit kiposztolhatnak, majd ha 16-án megjönnek a hivatalos tesztek, onnantól lesz releváns a dolog.
-
válasz
Malibutomi #41617 üzenetére
igen én is írtam hogy marketing rizsa,de igaz abban a kontextusba ahogy leírták így mellékes.Meg kell élniük a marketingeseknek is mindkét cégnél.
értem én, csak jó lenne figyelmbe venni hogy jelenleg nincs ennél jobb ilyen sebességben.
Én is egy véleményt írtam hogy már sokadszor olvasom tőled ezt, ennyi. Ettől nem kell meghatódnod hogy engem zavar ,leírhatod még 100x, én meg leírhatom hogy unalmas olvasni 100xAmúgy majd meglátjuk mit dob rá a konkurencia nekik.
-
válasz
Malibutomi #41615 üzenetére
meg lett neked konkrétan magyarázva már az Nv találgatósban hogy értették. Az nem gond hogy leírod 1x vagy 2x ugye.
[link] [link] [link] [link] [link] [link] [link]
[link]
amúgy itt a magyarázat ismét, mit jelentett az 1.9. [link]És ez mellett leírom, hogy igazad van, nem történt számottevő előrelépés fogyasztás terén valóban( azért a 3070 még hozhat) de cserébe ár / teljesítményben és teljesítméynben igen ami elég fontos szám az elöbbi melett.
-
válasz
Malibutomi #41613 üzenetére
igen az hogy az Nvidia találgatósba is meg itt is ezt olvasom tőled hogy perf/ watt és fogyasztás. miközben közismert AMD fanként a Furynál, veganal /290 nél ezek mellékesek voltak .a 95 fokos GPU nem számított és hasonló apróságok,csupán visszaolvasva a neved alatti kommentekre. Ezt nem értem illetve értem.
Tehát várjuk meg szépen mit tud hozni az AMD majd 7 nm@ 3. körös übertapasztalt gyártásból aztán utána meglátjuk lesz e érdemi fejlődés a konkurenciához nézve, mert a jelenleg piacon lévő kártyájuk a 12 nm-s Nvida kártyákkal vesenyez 7 nm-n és az utóbbi 6-7 évben nem is volt olyan generáció ami jobb lett volna náluk.
Nvidia bevállalta az olcsóbb /roszabb Samsung gyártást, gondolom okkal, ez a következménye. DE az is biztos, hoy Samsungnak ez egy über nagy lehetőség hogy fejlődjön ilyen összetett és nagy GPu-k gyártásában.
Ez majd hoz némi előnyt godolom most AMD nek,de hogy nem fog számítani a különbség abban biztos vagyok. ha hozza a 3080 teljesítményét akkor optimistán 280 wattot jóslok , ha ennyiből csak 10 % kal lasabb akkor már nincs szignifikáns különbség A 3080 320 wattjához szóval kíváncsi leszek mit hoz a navi teljesítményben és fogyasztásban. -
válasz
Malibutomi #41607 üzenetére
nem unod még?
Várjuk meg mit tesz le a gyártód aztán örüljünk, hogy ha 250 wattból hozza a 3080 teljesítményét,mert ezek szerint azt minimum elvárhatod tőlük .. -
GodGamer5
addikt
válasz
Malibutomi #41590 üzenetére
Valószínű. Plusz az új radeonokra is felkészülnek.
-
gejala
őstag
válasz
Malibutomi #41567 üzenetére
Ez egy Compubench teszt. A játékokban produkált fpsekhez semmi köze. Az lehet több is, meg kevesebb is.
-
Devid_81
félisten
válasz
Malibutomi #41562 üzenetére
Jah de meg azt sem tudjuk melyik jatekban lesz annyi mar amikor lesz annyi, biztos lesz par kimagaslo amiben szarnyal majd azert a cucc
-
válasz
Malibutomi #41562 üzenetére
jah tök szar.
-
-FreaK-
veterán
válasz
Malibutomi #41562 üzenetére
Ráadásul: "in CUDA and OpenCL benchmarks" szóval nem tudtunk meg többet most sem.
Majd ha kijöttek a rendes tesztek, addig csak találgatás szinte minden. -
válasz
Malibutomi #41546 üzenetére
Amúgy honnan van az hogy gyenge a kihozatal? Már csak azért kérdezem, mert TSMC nel is külön gyártás kapott nv speckó csikszellel és folyamatosan segítettek a kiepiteset.Epp most árulja TSMC. Ugyan ez van most Samsungnal. Tegnap jelent meg cikk róluk mekkora lökés és előrelépés volt nekik most az Ampere gyártás. Szerintem csak szokásos kezdeti kihozatal gondok lehetnek, mint minden valtasnal, ami idővel javulni fog, én nem olvastam mást eddig,hogy rossz lenne.
ez a golden sample teória is a mai világban már nem létező dolog. Hamarosan telel esz YT nem hivatalos tesztekkel, ezt tudja Nv is..
De az biztos, hogy a PH nak külön gyártanak kártyát kézi manufaktúrával -
Locutus
veterán
válasz
Malibutomi #41325 üzenetére
Hát akkor nosza, legközelebb fogalmazd is meg úgy, mintha egy semmirevaló pletyka lenne amit írtál. Nem utólag kell megsértődni, mikor valaki felhívja a figyelmed, hogy erős költői túlzás amit alapozásnak véltél.
-
Locutus
veterán
válasz
Malibutomi #41323 üzenetére
Ne maszatolj. 2x-es különbségekről írtál, ami sehol sincs. Még a 10% is csak szódával. Az meg nem indokol ilyen mondókákat, hogy majd pont a 8nm miatt fog hú de mennyit fogyasztani az új nvidia, meg hogy megszivatták magukat, stb... Meg 7 helyett "lényegesen rosszabb" a 8 stb... Tudni kéne helyén kezelni a dolgokat.
-
Locutus
veterán
válasz
Malibutomi #41321 üzenetére
Szép ez a kiragadott chartod a short burst terhelésről, vagyis hogy 1-1 pillanatig mennyire szökhet fel.
A folyamatos all-core terhelés alatti fogyasztás pedig így alakul:
Bár nem értem, miért a 3700X-et hasonlítod a 9900K-hoz, amikor pl játékok alatt nincsenek egy ligában, de legyen. 85W vs 93W. 3x?
-
Locutus
veterán
válasz
Malibutomi #41319 üzenetére
Elméletben talán.
-
gejala
őstag
válasz
Malibutomi #41316 üzenetére
Megjelenés előtt a Vega meg az RDNA1 is 50% javulás volt a pletykákban, aztán mikor megjelent, kiderült, hogy még a szép színes marketing grafikonokra is nehéz volt ennyit ráhazudni.
-
Locutus
veterán
válasz
Malibutomi #41314 üzenetére
Miért lenne lényegesen rosszabb? CPU fronton sem tudott egetverő különbséget generálni az AMD a 7nm-ből, az Intel 14-éhez képest. Ezek a csíkszélességek csak fanboy vesszőparipának jók, már nagyon rég nem ettől lesz jobb vagy rosszabb valami.
-
Petykemano
veterán
válasz
Malibutomi #41310 üzenetére
"az NV megszivatta magat a Samsung 8nm el kisse azert fogyasztanak a kartyai olyan sokat."
Ugyanennek az éremnek a másik oldala az, hogy "az nvidia annyival az AMD előtt jár, hogy ezt is megengedheti magának. A 8nm wafer megmunkálás állítólag feleannyiba kerül, tehát olcsóbb lehet, vagy nagyobb margó"
-
Jacek
veterán
válasz
Malibutomi #41280 üzenetére
-
TeeBee73
veterán
válasz
Malibutomi #41280 üzenetére
Lehet, hogy a Vega 56/64-re gondolt.
-
Raymond
titán
válasz
Malibutomi #30663 üzenetére
A Guru3D ugyanugy, foleg a Vega temaban, csak gondolom most jobban tetszik amit mondanak igy megint OK-sak lettek
Egyebkent tok mindegy, a Gigabyte-os mokus mar irta a Tomshardware hirre hogy nem igaz: [link]
-
#85552128
törölt tag
válasz
Malibutomi #30661 üzenetére
Ugyanúgy a Tomshardware is "source"-októl közölte mint most a Guru3D (akik szintén nem éppen a legjobbak az utóbbi időben). Szóval biztosra csak akkor lehet tudni ha tényleg megjelenik...
-
do3om
addikt
válasz
Malibutomi #29536 üzenetére
Jó hogy azt nem írod hogy korai volt a kiadás
Amúgy az árhoz képest elmegy, de a gyártók valószínűleg drágábban hozzák a jobb hűtés+egyedi karikat. A vevőkör is kicsit szűkebb lesz, talán a fury-nál azért jobb.
-
Abu85
HÁZIGAZDA
válasz
Malibutomi #28812 üzenetére
Igazából inkább meg se szólalt volna, mert a meglepiket nem kotyoghatja el, így viszont egy mondatban foglalja össze azt, amiről szerintem hat oldalban is kevés lenne írni.
-
#45185024
törölt tag
válasz
Malibutomi #28812 üzenetére
Hát egyébként igen... van az a teljesítmény amiért fogyaszthat
De nekem ez az egész olyan mint a Schrödinger macskája ... hogy egyszerűen nem tudod mi van a dobozban.
És ha kinyitottad lehet még akkor se... -
Raggie
őstag
válasz
Malibutomi #28794 üzenetére
Egy rövid mondatban említi az egyik fórumfelhasználó. Nem tudom mennyire hiteles a hír.
Google fordítóval:
"Including the recommendation to build no air-cooled cards." -
válasz
Malibutomi #28794 üzenetére
[...]
Ich kenne mittlerweile auch die TDP (wurde ja auch hier schon erwähnt), die den Boardpartnern für deren Kühllösungen mitgeteilt wurde und die so definitiv stimmen soll. Einschließlich der Empfehlung, möglichst keine luftgekühlten Karten zu bauen. Trotzdem wird es diese geben, das ist amtlich.kb:
időközben megtudtam a tdpt is, (itt is már említették), amelyet a partnereknek a hűtések miatt közöltek, és határozottan stimmel. beleértve az ajánlást, hogy lehetőség szerint ne készítsenek léghűtéses kártyákat. ennek ellenére lesznek ilyenek, ez már hivatalos. -
Malibutomi
nagyúr
válasz
Malibutomi #28793 üzenetére
Most neztem at az oldalt amit linkeltel, semmi ilyesmit nem latok rajta...vagy csak vak vagyok?
-
#35434496
törölt tag
válasz
Malibutomi #28534 üzenetére
Én 1080Ti-nél erősebb vega-t várnék. Remélem összejön nekik a mutatvány és vehetek Sapphire Vapor-x vagy a nagy kedvenc Toxic változatot.
-
s.bala31
őstag
válasz
Malibutomi #28534 üzenetére
Nem az a terv az AMD-nél hogy indítanak egy VEGA verziót az 1070, egyet az 1080 és a 1080Ti ellen?
-
FLATRONW
őstag
válasz
Malibutomi #28512 üzenetére
Persze, ez így van. Az 1060 nincs sokkal lemaradva bányászteljesítményben az 580-hoz képest. Ezt a lemaradást a valamennyivel alacsonyabb ár még tovább növeli.
Azonban, hogyha csak a teljesítményt nézzük, akkor az NV-re semmiféleképpen nem illik a szamár jelző.
Egyszerűen csak kevésbé alkalmas bányászatra. -
imi123
őstag
válasz
Malibutomi #28512 üzenetére
Hát lassan drágább az 580-as,így "most" helytálló az 1070-el összehasonlítás
-
imi123
őstag
válasz
Malibutomi #28503 üzenetére
Ő érti a poént.Jól bírja az ugratást.Ti viszont egyből dzsihádot hirdettek ha valaki beszól neki.
Nem szorul rá szerintem. -
jacint78
addikt
válasz
Malibutomi #28438 üzenetére
De, szoktam és valóban van néhány olyan játék amiben akár jobb is az AMD, de a nagyrészében épp ugyanolyan "kilengéseket" csinálnak az AMD kártyák.
-
FLATRONW
őstag
válasz
Malibutomi #28305 üzenetére
Pontosan. A Ti teljesítménye 1440p-n egyetlen fps-t sem esik az 1080p-hez képest.
-
#45997568
törölt tag
válasz
Malibutomi #28222 üzenetére
Hm, ezt le is tudom merni, van mindketto itthon, ha lesz kedvem meg is csinalom
1700 vs 6600K. Most mar kivancsi vagyok, mindketto alatt ROG lap van, Crosshair 6 es Maximus 8.
-
füles_
őstag
válasz
Malibutomi #28213 üzenetére
Csak az 1600-as helyett? Szerintem az összes 5-ös Ryzen helyett hülye aki i5-öt vesz csak akkor nem, ha nem valami speciális igényei vannak.
A leggyengébb R5 is 4/8, míg az összes i5 4/4. -
#45997568
törölt tag
válasz
Malibutomi #28213 üzenetére
A berogzodeseket nehez levetkozni, AMD-nek nem csak egy procival lell bizonyitani, hanem hosszu evek munkaja var rajuk. Jo uton indultak el. Sokan mostanra vesznek procit, nem jovo evre.
Ugyanez kell a VGA piacra is.
-
->Raizen<-
veterán
válasz
Malibutomi #28062 üzenetére
Láttam hogy fellendült a bitcoin és az aranynál is többet ér már. Sokat csúszik a vega lehet még a karácsonyi szezonban sem lehet majd kapni itthon mert ezek a noobok felvásárolják az összeset.
Amúgy meg gamingre azért nem veszik a karikat mert az nv jobb és erősebb. És ezt látja mindenki a grafikonok nem hazudnak gtx 1070 a legerősebb fury-t is lenyomja. És az nem csúcskategória nv-nél arra ott az 1080 ti de az se a leggyorsabb. -
smkb
őstag
válasz
Malibutomi #28062 üzenetére
Kár, hogy az AMD számára, minden adatbányászatra vett vga keserű szájíz. Ugyanis ölik a pénzt a gaming piacba, a játékfeljesztőkre, apikra, a marketingre stb, erre a kártyák a szürkezónában a bányászoknál kötnek ki. Minden egyes játékpiaci dollár elköltése ezzel ablakon kidobott pénz, továbbá a játékpiaci részesedésükön is csak ront, ami meg a fejlesztőket ugyancsak nem ösztönzi.
Ahogy korábban írtam olyan ez, mint mikor a bio kenyér piacon reklámozod a terméked, ölöd bele a pénzt, hogy a biokenyér piacon potens résztvevő légy, erre a disznófarmok veszik meg disznótápnak, mert imádják a disznók, jól híznak tőle. 1 fillért is kár költeni így a biokenyér piacra, egyszerűbb és olcsóbb lenne eleve disznótápnak gyártani, minden sallangtól mentesen.
Az NV számára tökéletesen jó, hogy nem bányászni veszik a játékpiacra szánt termékeiket, hanem a játékos piacon kötnek ki, ott ahova a pénzt is költik, ott ahol a fejlesztők is látják mire kell optimalizálni.
-
gézu
őstag
válasz
Malibutomi #28062 üzenetére
Akkor örülünk, Vincent? A bevétel most majd emelkedik, mint a raketta, így a pirosak fel tudnak venni a 2 iqblaster marketingesük mellé egy hozzáértőt is?
-
tom_tol
addikt
válasz
Malibutomi #27941 üzenetére
Mivel egy deka infó nem jött a Liqid-től a kártyákról, feltételezem ajándékba kapták teljes titoktartásért cserébe.
-
arabus
addikt
válasz
Malibutomi #27941 üzenetére
Ja azt mondták egy ugyanilyen bemutatón hogy az lesz.
Ehhezképest hogy a bétában az üzemelne nincs alátámasztva.
Nvidia GRID M60-al megy. -
arabus
addikt
válasz
Malibutomi #27937 üzenetére
Q3-ban de a Vega sem elérhető.
Igy ez a hasonlitás felesleges.
Max jol néz ki a képen de gondolom akik
több ezer dollárért vesznek ilyeneket azokat nem tudják
becsapni igy mint a befektetöket.
Szoval nagyon szép bemutató volt kösz a semmit. -
#85552128
törölt tag
válasz
Malibutomi #27872 üzenetére
Számít, de nem arra amire te akartad használni, arra ugyanis GPU limites tesztet kell nézni.
Vicces azért, hogy a Fury X-nél két éve még nem számítottak az 1080p-s eredmények most meg egy 2x olyan gyors kártyánál ami tényleg alkalmas 4K-ra már igen.
-
TTomax
félisten
válasz
Malibutomi #27872 üzenetére
Remélem a Vega tesztnél is erre fogsz alapozni,és ott is elö fogod huzni ugyanezt a slideot FHDn...
Azért jó rafkós voltál ,mert még csak véletlen sem egy egy custom 1080Ti-t linkeltél...
-
TTomax
félisten
válasz
Malibutomi #27867 üzenetére
És ezt te a FHD felbontásra alapozod ahol hasit a proci limit?Nincs több kérdésem tényleg...
Hiszen mindenki 1080Ti vesz FHDra....
-
#85552128
törölt tag
válasz
Malibutomi #27867 üzenetére
Ne zavarjon, hogy a 1080 Ti már olyan teljesítményt nyújt, hogy 1080p-n CPU limit van a legtöbb játékban
A legújabb tesztben már 1440p-n is 28% a különbség ref-ref között...
-
TTomax
félisten
válasz
Malibutomi #27852 üzenetére
Nagyon rossz teszteket nézegetsz ahol a 1080Ti 20%al erösebb mint a 1080,a legrosszabb kiindulási alap.Inkább 30%az,de ha neked igy jó a te dolgod.
-
VTom
veterán
válasz
Malibutomi #27852 üzenetére
A 2x480-at csak a teljesítmény miatt számolgattuk, hogy kb. mennyire kellene erősnek lennie a csúcs Vegának.
A legjobb valóban az lenne mindenkinek, ha hozni tudnák a 1080Ti teljesítményét, feltéve, hogy nem méregdrágán adják majd, mint a Fury-t, én is remélem, hogy ebből tanultak.
Jó lenne, ha a Pascal árakat is leverné, és kicsit egészségesebb lenne a piac. -
Abu85
HÁZIGAZDA
válasz
Malibutomi #27751 üzenetére
Ez tisztán programhiba. Méghozzá mintavételi. Túl kevés lehetett a tesztelési idő, hogy kiadás előtt észrevegyék és javítsák.
(#27779) huskydog17: CryEngine-nel ez tipikus. Azért licencelik annyira kevesen ezt a motort, mert nem volt pénz a next-gen konzolokra való optimalizálásra. Tulajdonképpen a legmagasabb szintű hozzáférési módokon fut. Ennél mindkét konzolban van olyan futtatási módra lehetőség, ami tíz cikluson belül be tud írni egy rajzolási parancsot a parancspufferbe, de a PC-hez igazított, magas szintű hozzáférési módok erre csak 3-4 millió ciklus alatt képesek.
A saját motor esetében ezekkel azért nem lehet találkozni, mert ott annyi pénz megy bele a fejlesztésébe, hogy nem éri meg a legmagasabb hozzáférési szintet választani. -
huskydog17
addikt
válasz
Malibutomi #27751 üzenetére
Szerintem ez a videó sokkal érdekesebb:
Prey: PS4/ Xbox One vs PC - The Complete Analysis!Nézzünk néhány érdekességet:
PS4: 1080p/30fps
PS4Pro: 1080p/30fps
Xbox One: 900p/30fps
PC: szebb látvány mellett sokkal magasabb sebességAz előző videódból ami még kiemelkedő:
Geforce GTX 1050 Pentium CPU-val konzolos grafikai beállítások mellett: 60+ fpsVicces, hogy a 4K konzolnak beharangozott PS4 Pro is csak 1080p/30fps-t képes hozni itt, miközben egy GTX 1050 jól elp*csázza sebességben azonos grafikai szinten, az Xbox One "csodálatos" teljesítményét inkább meg sem említem. A Bethesda ezt a játékot alapból PC-re tervezte és készítette, a konzolosokat meg jó alaposan pofán köpték.
Oh és ezt a sebességet licencelt (nem saját) motorral és a "buta" DX11-el érték el.
-
Petykemano
veterán
válasz
Malibutomi #27751 üzenetére
Jóleredményesen működik a primitive discard funkció -
#85552128
törölt tag
válasz
Malibutomi #27756 üzenetére
Igen, csak attól hogy high shadow van beállítva még nagyon nem kéne teljesen eltűnnie az árnyékoknak..
Egyébként meg:
970 Very high - van árnyék
RX480 very high - nincs árnyékAhogy pl. a helikopteres szobánál is most épp AMD-n hiányzik a fényeffekt: [kép]
Szóval helyzetfüggő melyik effekt hol működik/hol nem, valószínűleg mert bugos a játék.
-
#45997568
törölt tag
válasz
Malibutomi #27753 üzenetére
Nem jatszik senki Prey-el, szoval nem szamit
Amugy meg cink, igy merni valamit DF is elegge szepen befekudt
ui: playersnek, Milkanak es Erdei-nek uzenem: Viszlat
-
#85552128
törölt tag
válasz
Malibutomi #27751 üzenetére
"UPDATE: We can confirm a shadow bug in Prey that affects both cards at varying points in the video - causing the effect to flicker on and off. This causes a variance in some scenes between GTX 1060 and RX 580, where it can disappear on either side, though the tests still show what you can expect in performance from each card right now. "
"Also worth noting: dynamic fog is in effect at 1:45 for both GPUs. After checking again, we can confirm this appears on both cards, though to varying degrees with each play-through."
pl. a másik két összehasonlításnál abszolút nincs árnyék egyik kártyán sem amikor kimegy az ajtón vagy a mimic rácsap az üvegre.
-
nubreed
veterán
válasz
Malibutomi #27751 üzenetére
Gondolom majd javítják a következő nv driverben.
-
Milka 78
nagyúr
válasz
Malibutomi #27007 üzenetére
Mondjam?
Deja vu fórumtárs kért egy erős amd vga-t én meg próbáltam teljesíteni a kérést -
mlinus
őstag
válasz
Malibutomi #26971 üzenetére
gondolom a sony a ps3-ra fejlesztett libgcm-t használja, ami jóval a dx12/mantle előtt létezett már.
-
Euromail
aktív tag
válasz
Malibutomi #26971 üzenetére
Ps4-ről GCN Architecture:
"As DirectX® 11 titles become more mature, game developers are naturally pushing the envelope of realism by utilizing a greater degree of special rendering effects. One such effect is tessellation, which can dynamically generate additional detail in a scene on the fly.
Here is a wireframe scene of a rally car in DiRT 3 driving through water. On the left, notice there are no ripples. On the right, after tessellation, there is new and dynamic detail in the game.
As with anisotropic filtering, tessellation is not new to GPUs, but the manner in which tessellation is executed can have a large impact on the gaming experience. Because of this, the GCN Architecture has again been optimized to deliver a measureable tessellation performance boost over previous-generation GPU architectures."Remélem megtaláltad hogy mi hajtja a "koncolt" ott van wikin nem nehéz meg a goggle is mielőtt még szibériában lefagynak a gépeid
-
Euromail
aktív tag
válasz
Malibutomi #26971 üzenetére
Jah lehet lemaradtam mesélj még mióta dx12 a ps4?
szerintem olvas kicsit [link] https://en.wikipedia.org/wiki/PlayStation
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Synology NAS
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Autós topik
- World of Tanks - MMO
- sziku69: Fűzzük össze a szavakat :)
- bitpork: MOD Júni 13 Augusztus 2- szombat jelen állás szerint.
- Suzuki topik
- Tőzsde és gazdaság
- Diabetes - Cukorbetegség
- További aktív témák...
- ÁRGARANCIA! Épített KomPhone Ryzen 5 9600X 32/64GB RTX 5070 12GB GAMER PC termékbeszámítással
- ÁRGARANCIA! Épített KomPhone i5 13400F 32/64GB RAM RX 7700 XT 12GB GAMER PC termékbeszámítással
- ÁRGARANCIA!Épített KomPhone Ryzen 5 5600X 16/32/64GB RAM RX 7600XT 16GB GAMER PC termékbeszámítással
- Új! Targus - USB-C Dual HDMI 4K HUB - 2 HDMI-vel. Saját töltő nélkül 2 monitorral (120Hz)
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 32/64GB RAM RTX 5060 Ti 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged