- Computex 2024: jóvágású Gigabyte alaplap Threadripperek alá
- Halasztja a Recall funkció aktiválását a Microsoft
- Hobby elektronika
- Apple asztali gépek
- Gaming notebook topik
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- HiFi műszaki szemmel - sztereó hangrendszerek
- 3D nyomtatás
- Computex 2024: Mini-ITX alaplapokat vár a Fractal két új háza
- AMD K6-III, és minden ami RETRO - Oldschool tuning
Hirdetés
-
The First Descendant - A legújabb fejlesztői videó a végjátékra összpontosít
gp Hosszú várakozás után jövő hónap elején végre megkapjuk az akciójáték teljes változatát.
-
Új belépő a Honornál
ma Az X6b ránézésre ugyanaz, mint a tavalyi X6a, de több ponton is erősít az elődmodellhez képest.
-
Kíváncsi az EU, milyen online védelmet adnak a pornóplatformok a kiskorúaknak
it Az EB felkereste a nagy pornóplatformokat, hogy megtudja, milyen intézkedéseket tettek.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
nagyúr
válasz Alogonomus #49222 üzenetére
AMD az RDNA2 kártyák őszi-téli tömeges kiszállításával lényegében évekre a saját táborába terelhetne minden GTX 1080 fölötti nvidiás fejleszteni kényszerülőt, mert az RTX 20xx kártyák abszurd módon drágák,
Abszurd módon? Nem hinném. A GTX 780 Ti anno 700$-on nyitott, a 780 meg 650$ volt. Vagyis az RTX 2080 nem sokkal volt drágább (a Founders Edition egyszerűen lefölözése volt a piacnak 800$-os áron). A 2070 és a 2060 többé-kevésbé hozta a szintet, ami figyelembe véve az inflációt is, nem volt annyira abszurd. A 2080Ti meg elfért a Titan RTX alatt...
BTW az nVidia azért árazhat így, mert nem igazán van verseny...
Ezért kellene az AMD-nek végre összekapnia magát, vagy az Intelnek végre kijönnie az Xe dVGA-kkal...Erre csak rátenne, ha valóban perf/watt értékben is elverné az Ampere architektúrát az RDNA2.
Te is tudod gondolom, hogy ez döntés kérdése. Ha hülyére húzzák a kártyát, hogy felvegye a versenyt az Ampere-el, akkor feltehetően a perf/watt ott is szét fog esni. Az Ampere perf/watt esetén per pillanat nem muzsikál túl jól FHD felbontásban, de 4K-ban már ő vezet. Legalábbis a 3080 és a 3090 esetén ezt láttuk. A perf/watt terén eddig az nVidia volt előnyben, érdekes kérdés lesz, hogy a Samu 8nm mennyiben felelős az Ampere várakozás alatt perf/watt értékeiben...Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Raki
aktív tag
válasz Alogonomus #49255 üzenetére
Igen erről hallottam én is, hogy nagy mellénnyel ment tárgyalni, hát ez öreg hiba volt, ráadásul lehet, hogy elég végzetes is, a piac kegyetlen.
Ha ez mind igaz, akkor ezek a kártyák gyakorlatilag tényleg csak papíron, mutatóba szerepelnek és komolyabb készlet hónapokkal később sem várható.
Azt amúgy lehet tudni, hogy mikor derült ki nv számára, hogy nem gyárthat TSMC-vel?
Egyébként itt jegyezném meg, hogy ez amit írtál megmagyarázná a 10 GB vram mennyiséget is, ugyanis a költségeket gom le kellett szorítani és eredetileg ők se ennyi vrammal terveztek. Számomra ez teljesen logikátlan, hogy előző gen-hez képest visszalépnek vram mennyiségben.
Az egészből nekem az érződik, hogy most ki kellett vmivel jönni, de ez így nagyon gáz...Intel® Core™ i9-10900K @ 5,0 GHz | Asus ROG Strix GeForce RTX™ 3080 Gaming OC 10GB | MSI MPG Z490 GAMING CARBON WIFI | 32 GB G.Skill Trident Z RGB @ 3600 MHz | Seasonic Focus GX 850W | NZXT H710 | NZXT Kraken X73 | MSI Optix MAG322CQRV @ 144 Hz | WD Black SN750 M.2 SSD @ 1TB + HDD
-
nagyúr
válasz Alogonomus #49255 üzenetére
Érdekes ez az okfejtés annak fényében, hogy még májusban arról volt szó, hogy nVidia jelentős 7 és 5nm-es gyártókapacitást foglalt le a TSMC-nél.
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
félisten
válasz Alogonomus #49255 üzenetére
mutass már errő la storyról valamitó konrét linket /cikket, a múltkor is kértelek erről, hol volt ez a nagy mellény és TSMC elzavarta.
Mert a hírek szerint annyi történt, hogy Nvidia lemaradt a gyártókapaciásról, AMD beelőzte és döntenie kellett hogy vagy vesz és bővíttet megint TSMC-vel jó drágán, mint azt tették a Turing idejében hogy egyedi gyártósort kaptak, vagy pedig más , olcsób megoldást néz mert le lett kötve az összes 7 nm náluk.
Az Ampere 100 azért készül a TSMC 7 nm -en , mert az kihozza azt a költséget amit megér illetve nem akkora volumen mint a gamer szegmens.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Alogonomus #49268 üzenetére
Olvasd el akkor a cikket amit belinkeltél és értelmezd. Tehát az a forgatókönyv amit én írtam nem amit te költöttél, hogy a TSMC kirúgta Jensent.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
atok666
őstag
válasz Alogonomus #49263 üzenetére
Miert nem rogton 5-600W?
Atok
-
félisten
válasz Alogonomus #49271 üzenetére
tehát nem érted mit Írnak .De nagyon ezt írtam.
segítek :
azt írja az általad belinkelt cikk, hogy Nvidia eleve azt fontolgatta, hogy ketté oszttja az Ampere gyártását hogy csökkentse a függőségét a TSMC től és megossza a költségeket, mert drágának tartja a TSMC gyártását.A felsőkategóriás termékeket hozták volna náluk a kisebbeket Samsungnál, mint a Pascalnal is tették.
Miközben tárgyalt a Samsunggal reménykedtek, hogya TSMC kedvezményt ad , de ez nem következett be és közben az AMD felvásárolta az összes tartalék 7nm gyártást és így a TSMC csak az előre fixen lerögzített Nvidia megrendeléseket tudja teljesíteni.
Tehát nem elküldték, meg ajtót mutattak nekik,ahogy te fogalmazol csupán nem engedtek az árból.Ez az üzleti szférában egy általános dolog, hogy partnerek tárgyalnak az árról.Nem csak Nvidia próbált alkudni rá, hanem több cég, ott a Digitimes jelentése szintén a cikkben. Nvidia elszúrta azzal hogy nem számított rá, hogy amíg alkudoznak addig AMD teljes áron felvásárolja a teljes tartalék kapacitást...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
gabika1972
tag
válasz Alogonomus #49255 üzenetére
Bár nyilván tele van a hozzászólás túlzással és költöi képpel, én még mindig szakadok
-
félisten
válasz Alogonomus #49280 üzenetére
Neked értelmezési gondjaid vannak, nem érted miről szól a cikk. Alapból nvidia abban gondokodott, hogy 2 felé dobja a gyártást. Ahogy írja is Abu. Ez nem úgy működik, hogy 2 hónap alatt átervezek egy GPU családot.A fentartott,licitálható 7nm gyártásra csapott le AMD az Nvidia elött. Gondolom valami nagyobb SKU-t arra tettek volna.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Alogonomus #49293 üzenetére
igen láttam mennyire tökéletesen értetted, sikerült is kiszínesítened a képzeleted szerint.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
arabus
addikt
válasz Alogonomus #49350 üzenetére
6900xt-re 340-350W-ot ir ami teljesen reális egy 80 cu-s gpu-hoz.
ez nagy valószinüséggel a gyári design.
custom kártyák 3x8 csatival plusz pcie sin akár 525w-ig is mehetnek.Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
Malibutomi
nagyúr
válasz Alogonomus #49359 üzenetére
Nem veletlen hozza az NV a refrest mar jovore ha igaz kisebb fogyasztassal
Amugy a 3080 csak 320W es a 3090 350W.
Nem tudom honnan szedted a 350-400W-ot[ Szerkesztve ]
-
arabus
addikt
válasz Alogonomus #49359 üzenetére
én óvatosan kezelem ezt a rengeteg számozást szerintem nem lesz ennyi varia.
xtx ha jól emlékszem utoljára a régi 1000-es szériánál ATI-nál volt.
nem tartom valószinünek meg nincs rá szükség.
AMD eladja a gpu-t a gyártók meg csinálhatnak rá erösebb custom kártyákat
nem kell annak uj szám ha az egy gyári is hozza a szintet.
5700xt ref is megy annyit mint a custom szóval inkább csak hütés,küllem más.
fogyasztás terén az rdna nagyon jó csak tul lett lőve marketing szempontok miatt.
rdna2-nél a 7+ hoz 20-30% csökkenést tehát elég széles mozgástér van a fogyasztás
skálázására.valószinüleg a legerősebb modellnél ki is tolják hogy tényleg
megszerezzék a teljesitmény fölényt.[ Szerkesztve ]
Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
Pug
veterán
válasz Alogonomus #49363 üzenetére
-
Pug
veterán
válasz Alogonomus #49373 üzenetére
TPC testing def:
Average (Gaming): Metro: Last Light at 1920x1080 because it is representative of a typical gaming power draw. We report the average of all readings (12 per second) while the benchmark is rendering (no title/loading screen). In order to heat up the card, the benchmark is run once first without measuring its power consumption.
Peak (Gaming): Same test as Average, but we report the highest single reading during the test.
Az általad felsorolt értékek mind peak fogyasztások,
Szerintem a Gaming AVG mérvadóbb, mint a single peak, amivel a kártya 98%-ban nem találkozik, de ezt már mindenki döntse el maga
[ Szerkesztve ]
-
Yany
addikt
válasz Alogonomus #49350 üzenetére
"fogyasztáselőnyben lesz."?
Ezt így kijelntő módban? Meg ugyanazt a hűtőt feltenni az AMD kártyájára? Igen, az Asus megcsinálta, nem győzött utána meaculpázni és új verziót kiadni, annyira jól sikerült.
Srácok, amit itt sokan írkáltok olyan szintű csalódottságnak ágyaz meg, hogy borzasztó lesz nézni. Nem azt mondom, hogy tuti szar lesz a Navi, de azt igen, hogy ez a fajta önmeggyőzés elég nagy mértékben táplálja a közösségi hőbörgést egy-egy csalódást okozó(??) debütöt követően.
A korábban felbukkant 60+20-as leosztás még érdekesen és viszonylag hihetően hangzik, viszont így a 3090-et nehezen tudom elképzelni, hogy beérte volna.
Építs kötélhidat - https://u3d.as/3078
-
Yany
addikt
válasz Alogonomus #49382 üzenetére
A HBM-et mennyire tartjátok valószínű (és egyben ésszerű) iránynak? Én szkeptikus vagyok ez ügyben, eléggé vakvágánynak élem meg a konzumer piacon.
Építs kötélhidat - https://u3d.as/3078
-
arabus
addikt
válasz Alogonomus #49379 üzenetére
Xeon Platinum 8490H,8468H,Ryzen 7500F,Gigabyte B650M K,Xeon Phi,i9 7960X,i9 7920X,Xeon w2135,Gskill royal 4400,Gskill Trident Z,Pico 4,Red Devil 7900XTX,Asrock W790 WS,Fury Pro RDIMM 6000,Z590,Intel Cryo,Intel 11900F,Ryzen 5600,Radeon 7600,Radeon 6800...
-
#09256960
törölt tag
válasz Alogonomus #49480 üzenetére
Ha ez a 12 GBos kártya azért jó mert van fölötte még egy.
Ha a 16GB-os akkor azért mert 16GB-os
Szerintem jók vagyunk ! -
Petykemano
veterán
válasz Alogonomus #49480 üzenetére
A helyedben nem ringatnám magam ilyen ábrándokba.
Az AMD nem szokott így altatni. Amikor a Vega videót mutatták be, akkor se kerteltek, az első csalódás akkor jött a vegával kapcsolatban. Aztán mindenki reménykedett, hogy de az csak biztos egy ES, meg majd a mature driver. De nem, az lett a végeredmény, amit akkor mutattak.Tehát itt még legföljebb egy 3-4%-kal túlhúzott vizes/anniversary editionre lehet számítani, de többre nem.
Ez így is órási progresszív teljesítmény
A vega64 bődületesen nagyobb lapkamérettel és fogyasztással alig tudta megszorongatni az nvidia második legnagyobb lapkáját (GP104)
A Navi10 korrekt lapkamérettel és fogyasztás mellett meg tudta szorongatni az nvidia második legnagyobb lapkáját (TU104)
A 3080 valójában a legnagyobb géming lapka (GA102), ha ezt meg tudják szorongatni korrekt fogyasztás mellett, az kiváló.Találgatunk, aztán majd úgyis kiderül..
-
GeryFlash
veterán
válasz Alogonomus #49669 üzenetére
Főleg hogy AMD-s VGA-m van és a következő gépem is AMD CPU + VGA kombó lesz, fölé-mellé sebaj
Televan, menpee: Nem tudok számokat, ha neked azt mondják a Tesla model 3 17 millióba kerül és 16,9 millió az előállítási költsége amiből akku 8,5 millió Ft akkor erről az állításról anélkül el tudod dönteni hogy f*szság hogy tudnád a pontos adatokat. Nem, nem tudok adatok de nem is dobálózok ,,xy titkos partner kontaktom mondta" kijelentésekkel.
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
TESCO-Zsömle
félisten
válasz Alogonomus #49716 üzenetére
Na igen, de a gondolattal eljátszva: Hova árazzon az AMD, ha tényleg sikeres a széria? Az MSRP-hez, vagy a bolti árakhoz?
Sub-Dungeoneer lvl -57
-
nagyúr
válasz Alogonomus #49787 üzenetére
Valahogy nem teljesen értem, hogy azt mi alapján döntöd el, hogy "pixelhelyesen" megjelenő kép nem fontos az MW5-nél, de fontos a Horizonnál. Főleg, hogy én nem nagyon vettem észre, hogy elmosódottak lennének a textúrák (ahogy te állítod) az MW5-ben.
Lehet(ne) azt mondani, hogy a Horizon esetén jobban néz ki a flóra és fauna alaphangon, de nem ez az indok, hanem hogy "elmosódottan" jelennek meg a textúrák?
Ez inkább szerecsenmosdatásnak tűnik nekem...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Malibutomi
nagyúr
válasz Alogonomus #49802 üzenetére
Azert ez a " varhatoan gyengebb teljesitmeny" kisse korai es nagyon optimista!
Elobb talan varjuk meg hogyvkijojjenek az AMD kartyak.
Ha nagyjabol shader teljesitmenyben beernek az Nvidiat mar a is nagy dolog
-
nagyúr
válasz Alogonomus #49802 üzenetére
Szerecsenmosdatásnak inkább az tűnik, hogy a néhány DLSS-es játékba kapaszkodva próbálják páran védeni az Nvidia kártyák várhatóan gyengébb általános játékteljesítményét.
Ezzel várjuk meg a teszteket inkább...
A DLSS nem csodaszer, csak egy lehetőség, de annak egyáltalán nem rossz, és láthatóan fejlődik, a DLSS 1.0 még eléggé sok hibával bírt, de a 2.0 és a 2.1 egy jelentős ugrás előre. Nem kellene csak úgy félresöpörni.
Így indult hajdan egy csomó dolog, amire kijövetelekor legyintettek sokan. Én még emlékszem arra az időre, amikor a játék színmélységét lehetett a beállításokban játszani, és károgtak sokan emiatt, hogy alig látható a különbség a 16 vs. 32 biten. Ahogy a élsimitás kapcsán is sokan mondogatták / irogatták, hogy ez nem ér annyit, hogy a játékban tapasztalható FPS nagy részét lehúzzuk a kukába.
Hogy mi lesz vele, az egy érdekes kérdés, majd meglátjuk.
Amúgy mókás, hogy ha valaki egy nVidia effektet nem fikáz, akkor az rögtön stigmát érdemel.
Láthatóan nem jött át a mondanivalóm: ha RT terén az RDNA2 nem fogja lelépni az Ampere-t, és közben nincs a DLSS-re sem értékelhető válasza az AMD-nek, akkor bizony megint hátrányban lesz a versenyben. Nekem fogyasztóként az a jó, ha verseny van, mert ez hajtja le az árakat. Ezt látni lehetett az RDNA megjelenésekor is, hiszen az nVidia nyilván jelentős haszonnal dobja piacra a kártyáit, ha nincs épkézláb konkurenciája, mikor kijött az RDNA, jött rá az nVidia válasza.
Én pont annak örülnék, ha az RDNA2 (és az Intel Xe, ha egyszer végre kijön) versenyképes lenne az Ampere kártyákkal...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Busterftw
veterán
válasz Alogonomus #49802 üzenetére
Mondjuk elobb arra kellene statisztika, hogy a jatekosok hany % "csodalkozik" ra aktivan a jatekterre es tolt el hosszu idoket a fauna kielemzesevel.
Attol, hogy valami nyilt vilagu, a jatekosok tobbsege nem virtualis turara es madarlesre hasznalja a kornyezetet.
En a Witcher 3-ban vagy Assasing Creedben is megcsinaltam a mellekkuldeteseket, de nem ugy, hogy orakat setaltam a kornyezetben csodalkozva.
A Horizonba is futva/lovagolva kozlekedsz, harcolsz ugralsz, ott ugyanugy tokmindegy ilyen szempontbol hogy nez ki. -
Busterftw
veterán
válasz Alogonomus #49821 üzenetére
Igen, mert a 100 kuldetes elvisz, ahol talalsz 300 mellekkuldetest.
De nem lesz tajleszo setaszimulator egy jatek, csak azert mert open-world.A mindenkeppen sokkal tobben jarjak be nem merheto.
-
Pug
veterán
válasz Alogonomus #49881 üzenetére
Nem, ez kb a realitasnak tunik... ami teljesen rendben is lenne a termekpalettatol
-
chewycl
tag
válasz Alogonomus #50011 üzenetére
Ettől félek én is, ősszel egyszer lett volna érdemes vásárolni: amikor mindenki szórta kifelé a turingokat és navikat, mert jön az 3080 250-ért . Az új AMD széria bejelentését még megvárom mit hoz + a black friday ajánlatokra is nem sokat kell már várni, hátha megint lesznek jó dealek. Mondjuk most látok akciósan egy 2060S strix-et 146-ért,az nem is tűnik rossz ajánlatnak és az alig marad el az 5700xt-től.
-
félisten
válasz Alogonomus #50228 üzenetére
nem azt mondta, hanem hogy a magasabb sávszél miatt kisebb a fogyasztása aránya maximális terhelés mellett. jobb power / bit eredményt hoz... A GDDR6 X a 3080 nál 18 Gbps sebességen megy, nem 21 en mint az Anandtech a megjelenés elött augusztus 20 körül a alapján ítélkezett és elemezgette, valamint a Navi nem 14 hanem 16 Gbps sebességűt fog használni. Szóval tégy igazságot.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Alogonomus #50230 üzenetére
Itt láthatod [link] ha OC val megy 20.5-20.8 ra ra húzva a GDDR6 x 3080 kártyán hogy mennyivel nő a fogyasztás. 76 W vs 55 W azaz a z Nv ref értékekhez képest 40 % kal rosszabb a fogyasztása . Nem véletlenül járatja Nv 20 Gbps alatt a GDDR6X ramokat. 18,5 az ideális a tesztek szerint fogyasztást nézve, tehát abból a szempontból igaza volt Abunak hogy nehéz megoldaniuk ezt az eljárást, ára van.
A Micron 21 Gbps hez adta meg a fenti adatokat 14 Gbps hez nézve, nem 19Gbps-t ami majd 40% fogyasztáscsökkenést eredményez, és a GDDR 6 pedig 16 Gbps verzió ami viszont fogyasztás többlet, de ezt ne vegyük most figyelembe. Ebből AZ OC értékből következtetve kb 15 % lehet a különbség szerintem.
Ha a Micron nézed, szerintük + 50 % teljesítmény és - 15 % bit / power.
az az ezt azért ki lehet matekozni Hogy ha 14 Gbps mondjuk 100 watt GDDR6 akkor 21 Gbps 137.5 wattot eszik, a 15 % bit / power alapon számolva, azaz valóban több lenne a fogyasztása.
ha ebből levonod a 38 % OC ból kimutatott eredményt akkor viszont 137,5- 52,25 ( ez a 38 % ) kijön a 85,25 W. és így jött ki nálam a kb . 15 % különbség...[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
korcsi
veterán
válasz Alogonomus #50230 üzenetére
referencia 5700(XT) plexi ARGB-s blokk eladó!
-
félisten
válasz Alogonomus #50242 üzenetére
De, a Micron szerint annyi, a 15 % bit / power. Én meg levezettem ezt a jelentést neked fogyasztásra ,19 Gbps en az Oc eredmények alapján. De úgy látom felesleges volt .
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Alogonomus #50249 üzenetére
A RAM OC fogyasztás eredmények szerinted feltételezésen vagy méréseken alapulnak? A 14 Gbps GDDR6 ramok szerinted amihez nézte a Micron, többet fogyasztanak mint a 16 Gbps ramok? lefelé skálázódásnál szerinted romlik a fogyasztás vagy nő?. még a megkérdőjelezésed is azon alapul ,hogy nem értetted meg mit írtam le neked. Már akkor éreztem hogy felesleges kört futok mikor elkezdtem.
Mondjuk milyen jó hogy leírtad hogy garatáltan eltér a sebesség/ fogyasztás grafikonja két eltérő sebességű ramnak. Ki gondolta volna Aztán mi van ha még sem?[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Devid_81
nagyúr
válasz Alogonomus #50276 üzenetére
Nem mondta, hogy melyik volt, nyilvan nem akartak elarulni cselesen.
Viszont ha az AMD-nek van egy 3090-et befogo kartyaja akkor keszulhetunk arra, hogy az is $1500 lesz.
AMD pont oda fogja ezeket arazni ahova kell teljesitmenyben.
Viszont ha a 6800XT az ami kozel jar a 3080-hoz akkor lesz egy kozel nagyon jo AMD kartya a piacon nVidia 3080 msrp korul.
Ha az ellatas jo, akkor a 3080-at felhelyezheti maganak az nVidia......
-
Pug
veterán
válasz Alogonomus #50348 üzenetére
Nem valoszinu, a chip-ben mar nem sok van, elegge a perf/fogyasztas gorbeje vegen van mar igy is a 3080, a 3090 meg foleg....
[ Szerkesztve ]
-
stratova
veterán
válasz Alogonomus #50458 üzenetére
Lehet én vagyok vak, de OC3D-n DX11 és 12 alatt is 2060S FE és 2070S FE közé futott be 5700XT, igaz az adott oldal DX12 módot (annak hibája miatt?) csak 1080P-ben vizsgálta. Vagy most a későbbi Radeon Boostra (mozgás alapú dinamikus felbontás) célzol?
[ Szerkesztve ]
-
Malibutomi
nagyúr
válasz Alogonomus #50458 üzenetére
Ez erdekes mert most megneztem es egyetlen tesztoldalt sem talaltam ahol ez lenne a helyzet.
Mindenhol a 2070 es 2070S kozott van Borderlands-ban (TPU, GURU, OC3D, stb)
Meg a sima 2080-tol is boven elmarad
[ Szerkesztve ]
-
awexco
őstag
-
félisten
válasz Alogonomus #50512 üzenetére
Látod Tomi milyen nehéz dolgunk van? Nincs érvelési lehetőségünk nekünk zőőődeknek, bármit mondasz fan vagyol..
szóval ne védd azt a rohadt szar 2070 super kártyádat mer az mán a múlté az 5700 kettéhugyozza.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
awexco
őstag
válasz Alogonomus #50653 üzenetére
Inel már elvileg 450 es waferekkel is dolgozik a 42 es fab jában .
I5-6600K + rx5700xt + LG 24GM77
-
Pug
veterán
válasz Alogonomus #50653 üzenetére
Igen, meg egy ostyara levilagitani barbap papat es hamupipoket... ne irjunk mar ekkor maflasagokat.... egy szeletre egy chipdesign-t fotozol... nem ossze-vissza tobb felet...
-
Pug
veterán
válasz Alogonomus #50834 üzenetére
Engem a fogyasztas teljesen hidegen hagy, perpill nalam a 4K pure performance a preferencia, barmi megy majd a gepbe (nV, avagy AMD) kerul ra egybol az FC blokk....
[ Szerkesztve ]
-
félisten
válasz Alogonomus #51555 üzenetére
RTX 3060 lesz.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
demmer123
őstag
válasz Alogonomus #51555 üzenetére
Felsorolt kártyák közül egyik sem képes ultran 60 fpshez :( Horizon Dawn, Control, Red dead redemption 2, metro exodus ezeket csak mediuomon tudják 60 fpsel.
-
félisten
válasz Alogonomus #51560 üzenetére
Sajnos még nem láttunk DXr 1.1 játékot, csak a Minecraft kapott béta verziót belőle. Én a 2070 kártyámmal simán végig toltam a Contorl és Metrot bekapcsolt RT vel. DLSS nélkül, kisebb kompromisszumok voltak.
Egy 2080 super sebességű 3060 Ti/Rx 6700 továbbfejlesztett RT magokkal jó és használható lesz , természetesen kompromisszumokra reméljük szükség lesz. A "reméljüket" arra értem, hogy nem optimalizálatlan szar lesz mint a WD, hanem valóba kihasználják a lehetőségét az RT nek és az új kártyák TFLOPS nagyságának.( egyébként WD ben az Ultra RT már jól néz ki)
Ezt a DLSS/ DirectML dolgot meg fogadjátok el , hy van és szükség is van rá.Egy bekapcsolható opció ,nem kötelező használni. Mind az AMD mind az Nvidia terén főleg a kisebb kártyáknál, mint a 6700/ 3060 egy nagyon jó opciós lehetőség, kitolja a kártyák használhatósági életartamát ami a mostani árak mellet nem elhanyagolható opció, hogy 2 vagy 3 évig használhatsz egy 2- 300 ezres kártyát.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Alogonomus #51638 üzenetére
és ezzel most mit kezdjek?
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
válasz Alogonomus #51658 üzenetére
Megertettem, csak hülyeség a hasonlatod.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
devast
addikt
válasz Alogonomus #51658 üzenetére
2 dologra világítanék rá:
1, a "lesz" az egy szép dolog, de amíg a gyakorlatban nincs itt addig nem létezik. Én is elhiszem, hogy az amd féle megoldás lesz a sztenderd, csak abban nem vagyok biztos, hogy mikor. 1 év? 2év? Azt el lehet felejteni, hogy bejelentés után 2 héttel már mindenben ott lesz.
2, A dlss nem kell, hogy minden játékban ott legyen. Bőven elég, ha az rt-t támogató játékokban bent van, ugyanis máshol nincs rá szükség. -
Busterftw
veterán
válasz Alogonomus #51677 üzenetére
Szerintem a 70%+ Nvidia marketsharet elnezve nem az, inkabb logikus lepes.
Nvidia mar eleve kinn volt egy RT kepes gennel, volt referencia a fejleszteshez.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.