- Akciókamerák
- Külső 3,5'' mobil rack-ek topikja
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Azonnali alaplapos kérdések órája
- Sony MILC fényképezőgépcsalád
- AMD GPU-k jövője - amit tudni vélünk
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Raspberry Pi
- Calibre, az elektronikus könyvtár
- Milyen TV-t vegyek?
Hirdetés
-
Megújult a Glorious GMMK klaviatúracsaládja, és már van benne analóg modell is
ph A GMMK 3 többféle méretben, házanyaggal, hagyományos és mágneses switch-ekkel, vezetékkel, illetőleg anélkül egyaránt választható.
-
Érkezik a Redmi Watch 5 Lite
ma Szeptember 25-én Indiában lesz az aktivitáskövető premierje, és lehet, hogy marad is azon a piacon.
-
SWORD ART ONLINE Fractured Daydream - Elindult a nyílt teszt
gp Az open béta rajtjával együtt a készítők egy hosszabb gameplay videóban magyarázzák el, hogy mire számíthatunk a játéktól.
Új hozzászólás Aktív témák
-
#94257664
törölt tag
Egyrészt 900W-ot PCI kártya méretben esélytelen hűteni, másrészt az NVIDIA rohadtul nem vállalná be azt az arcvesztést hogy kazánokat kell gyártani az AMD-vel való versenyhez.
Ez idáig is nonszensz volt és bárki átlátta.
Viszont remélem már nem spórolják le majd a megfelelő mennyiségű VRAM-ot a kártyákról, néhány esetben a 3060 gyorsabb a 3070-nél, mert előbbi 12, utóbbi 8 gigás, pedig sokkal gyengébb GPU van rajta - ez is nonsensz.[ Szerkesztve ]
-
Youri
veterán
RTX ON
-
veterán
Már az is elképesztő amit a mai csúcs kártyák és processzorok fogyasztanak. Érdekes ilyenkor egy zöld gittegylet sem hőbörög....
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
őstag
Remélem az AMD vonal nem lesz ilyen, ma még nVidia-t használok, de ha eljön a váltás ideje és az AMD még mindig max 400W-ot eszik akkor biztos hogy inkább azt választom.
PC: https://hu.pcpartpicker.com/list/8Pb6z6
-
Atee94
tag
A vicc az hogy majd azt a maradék 1-5-10 százalékért cserébe dupla akkora fogyasztással lehet számolni.
A vicc az hogy az rx 6700 xt-ryzen 7 5800x esetében csak azzal hogy picit visszavettem a fogyasztást a ryzen 7 5800x esetében, ppt 144 wattról 130-ra, hozzáigazítottam a tdc-t és edc-t, a max temp 85+-ról 65-70 fokra zuhant 1,5 százalékos all core teljesítményvesztés mellett, még az rx 6700 xt órajelét 2609mhz-ről 2400-re vettem le(átlag 2-5 százalékos teljesítmény vesztés, a fogyasztás 60-70 wattal csökkent, mert annyira alacsony feszültség kell neki.Így teljes kihasználtság esetén benne vagyok a 300 wattban, a seasonic titanium 600 wattos tápom meg 96 százalékos hatásfokkal viszi a rendszert. Az biztos hogy ha cserélem a setupot majd egyszer, nálam a max fogyasztás 300-350 wattban kell hogy maximalizálódjon."The only thing here built to last is the engine that turns your world to trash" - Slum Planet, 3teeth
-
copass
veterán
nem igazán érdekel senkit a fogyasztás, ha a teljesítmény jó.
mert hiába eszik keveset, ha gyengus a teljesítmény.
pl. az új mac studiot úgy hozták fel hogy rtx 3090 verő, hááát nem. rtx 3050...egy közel 2 millás gépben...[ Szerkesztve ]
"amikor valaki baromságokat beszél, megszületik egy unikornis"
-
veterán
A tranzisztor halmozást nem nevezném fejlesztésnek. Azt a hülye is tud. Látszik, hogy sok gyártó abba az irányba megy el, hogy növeljük a fogyasztást aztán majd nő a teljesítmény is. Szerintem ez nem jó.
Az M1 ultra egy egyedi gyerek. Van amiben veri a 3090-et de réteg felhasználásra jó.
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
lo_jo
senior tag
Mutathatnál olyan tesztet, ahol a 3060 gyorsabb, mint a 3070. Én eddig 2 ilyennel találkoztam, de mindkettő csak a számok tekintetében "győzelem".
1: Mobile GPU-k összehasonlítása. Szép és jó, a 3060 elverte valóban a 3070-t, csak azt felejtette el a "tesztelő" leírni, hogy a 3060 egy 115W-os verzió volt, a 3070 pedig egy 80W-os. Persze ez az nV sara is, hogy ugyanabból a GPU-ból csinálnak 80W és 115W között többet is, amivel átfedik egymást a típusok, ráadásul erre jön még a boost 5-20W többlettel, ami meg a konkrét laptop hűtésétől függ, az meg már tényleg almát körtével.
2: Azok a tesztek, ahol mindkét kártya értékelhetetlen eredményt ért el. Jó példa volt erre egy Far Cry 6 4k teszt, ahol a számok a végén valóban a 3060 javára döntenek, de az egy számjegyű 1% és 0,1% fps egyiken sem eredményez játszható értéket, hiába 30 körül van az átlag. (3060: 0,1% 8fps, 3070: 0,1% 6fps, mindkettőnél avg 32fps)
A valóság az, hogy pár tényleg sarkított példától eltekintve a 3070 előnye megmarad a 3060-nal szemben játékokban és mindenki tudja, hogy azért lett a 3060-on 12GB VRAM, mert a 6 már ciki és valóban kevés lett volna. Én sem azt mondom, hogy a 8GB örökélet, sőt, de azért a több VRAM a gyengébb GPU mellett nem lesz időtállóbb egy fokkal sem játékok alatt.
-
#16939776
törölt tag
Gyenge a fantáziátok, 2x450w is 900w, azaz két visszafogottabb étvágyú csúcs gpu egy pcb-n.
-
Alogonomus
őstag
Leginkább szerintem azért nem valószínű a 900 wattos kártya megjelenése, mert semmi értelme nem lenne. Az AMD simán ugyanúgy emelhetné a fogyasztást, és tartani tudná a perf/watt előnyt.
A jelenlegi kártyák esetén volt némi értelme kiadni a nagyobb fogyasztású Ampere kártyákat, mert az RDNA2 látványosan megakadt 2,8 GHz környékén, de inkább csak 2,6-ig szeretett elmenni. A TSMC N7P chip valószínűleg 2,8 GHz környékén hibákat kezd produkálni, míg a Samsung 8N chip megfelelő tápellátás esetén túlpörgethető, csak nagyon leromlik a hatásfoka.
A most érkező kártyák viszont azonos gyártó nagyon (teljesen?) azonos technológiáját használják majd, így a sima túlhúzás esetén is várhatóan hasonlóan viselkednének. Szóval hiába adna ki az Nvidia egy 900 wattos kártyák az 500 wattos AMD kártya leelőzésére, ha az AMD simán kiadhatna válaszként egy 600 wattos kártyát, amivel megint AMD kártya lenne a leggyorsabb. Ugyanaz a helyzet, mint a Turing/RDNA1 időszakban, amikor semmi értelme nem lett volna kiadni egy RX 5800 XT kártyát 300+ wattos fogyasztással az RTX 2080 Super/Ti ellen , mert az Nvidia is emelhette volna a kártyái fogyasztását az erősorrend fenntartásához, ahogy tette azt az RDNA1 ellen behozott Super kártyák esetén. -
#94257664
törölt tag
Doom Eternal (2020) 4K RT. Egy viszonylag jól optimalizált és okosan megcsinált játék.
Amit te "sarkított példának" említesz, egyre többször fog előfordulni az új játékok, engine-k alatt. és vérciki hogy már előfordul bármilyen esetben most, nem fogok megvenni egy 600USD+ kártyát aminek ilyenjei vannak..[ Szerkesztve ]
-
copass
veterán
a vram mennyisége nem a gyorsaságról szól, hanem arról hogy mennyi adatot tudsz használni egyszerre. nagy texturák, részletes modellek.
tehát ami nem fér bele azt behúzza ssd-ről, az meg lassú. ennyi.
én speciel azért vettem 3060-at mert csak 12 GB tudok 4K képet számolni."amikor valaki baromságokat beszél, megszületik egy unikornis"
-
#94257664
törölt tag
Plusz ahogy látszik a bench képen, a 2080Ti, ami fej-fej mellett halad a 3070-el (GPU kraftban), amúgy bőven elég Doom alá, és a 11GB VRAM miatt sokkal gyorsabbnak tűnik mint a 3070.
Sokak fejében úgy él ez az egész PC-s világ mintha ilyen egyszerű bottleneck calculatoros okoskodás lenne, viszont itt kiderült hogy a GPU bőven tudna annyit mint a 2080 ti, a textúra memória mégis kevés neki, ráaadásul nem is egy extrém esetben, mert egy jól optimalizált játékról beszélünk ami nem használ sok RT effektet.[ Szerkesztve ]
-
-
lo_jo
senior tag
válasz #94257664 #13 üzenetére
Tehát nem sarkított példa, hogy a 6 gigás 2060 jobban teljesít, mint a 8 gigás 3070? Sőt, a 2060 annyira csoda kártya, hogy natív 4k-ban jobban teljesít, mint bekapcsolt DLSS mellett. Ennek inkább ehhez lesz köze: [link]
@copass: Tudom, hogy miről szól a VRAM mennyisége. Itt most csak a gamingről volt szó, teljesen más felhasználás az, ahol a sok VRAM előny egy erősebb GPU-hoz képest, nem véletlen, hogy a workstation kártyák jóval kisebb GPU teljesítmény mellé (még ha ugyanaz a chip is van rajtuk, mint a desktop verziókon, fele fogyasztás -> fele órajel) több memóriát kapnak.
-
-
#94257664
törölt tag
Nyilván képes voltál kiragadni a grafikonon látható játszhatatlan eredmények közül két tök random adatot és erre egy hülyeséget építeni. Az oldal ahonnan hoztam a mérést, nyilván nem egyszer tesztelt, szóval kizárható valami random anomália megléte is.
A hülye is látja hogy az eredmények szerint a 3060 alatt gyakorlatialg nincs élet 4K RT-ben, tök felesleges a 2060-at idehozni.
Viszont az is látszik, hogy a 3060 ugyan köztudott hogy gyengébb GPU - RT nélkül pl. simán látszik, cirka 80 fps körül tud ebben a játékban 4K-ban, a 3070 meg 120 körül, de bekapcsolt RT mellett mégis gyorsabb mert ilyenkor a játéknak több textúra memória kell és a 3070-en ebből kifut. -
ttt
senior tag
Most kezdek ott járni a mostani cégek, mint anno amikor átvették a stafétabotot az elődöktől.
Ott is már a külön táp meg a több processzoros megoldásokat tudták csak elgondolni, aztán jöttek a friss innovációval rendelkező - addig bukdácsoló - cégek és visszaesett fogyasztással többszörözték a teljesítményt.
Azaz, vagy jön a piacra 1-2 új cég/ötlet vagy saját kardjukba dőlnek a mostaniak az előre látható fogyasztásokkal.Az energia nem sokára - ha így pazaroljuk továbbra is, és így emelkedik a világpiaci ára és nem lesznek kis napóleonok, akik kereszt finanszírozzák mondjuk más forrásból (az is a te zsebed csak adónak hívják) - iszonyatos hányada lesz a keresetnek. Az amúgy is irreálisan drága hardverek mellé még a magas vellany számla nem lesz opció - már ha enni is akarsz (az is hiper sebességgel drágul)....
Tehát vagy a hardvert kell újra gondolni vagy a szoftvert kell(ene) optimalizálni (utóbbi nem érdeke valós nagyságban egyik csapatnak sem) ahhoz, hogy ne millió forintos fűtőberendezéseken amőbázzon a jónép.Egyelőre nem erre halad a világ és persze addig, míg a gyártott mennyiségre van fizetőképes kereslet ez változni nem fog.
Persze a hagyományos izzókat meg dobjuk kifele, mert 60 Watt-al szinte semmit se világítanak és legyünk energia tudatosak, meg a wc kefébe is szereljünk netes vezérlést, hogy tudjuk mikor annyira sz.ros, hogy már muszáj legyen leöblíteni.... De a videókártyánk az fogyaszthat 5-6 vagy 8-10 100W-os villanykörte mennyiséget, amellett, hogy haszna annyi sincs , mint a kidobott 60 Wattos Volfram körtének. -
tibaimp
nagyúr
Az a fura, hogy mindenki sír itt, mintha ez a fogyasztás a világ vége lenne! Eleve, ha játszol fogyaszt csak sokat egy mai modern VGA, alap állapotban nem. Magamból kiindulva, az esetek nagy részében csak hétvégén tudok játszani, nyáron akkor se sokat, eleve elhanyagolható a plusz költség.
De! A népek beépítik az 5kW-os klímát, mert semmi toleranciájuk nincs a melegre/időjárásra és járatják egész nyáron, meg szól a TV, csak úgy, hagy menjen, hogy "zsinyegjen" valami a háttérben, kocsival megy még a WC-re is, nehogy már biciklit/tömegközlekedést használjon, stb, de ezek nem gond...Persze, az irány, általában véve, nem jó, de el kellene gondolkodni kicsit, úgy általában....
[ Szerkesztve ]
A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...
-
Teljesen igazad van. Egyébként 3080 tulajként 200-240W a max fogyasztás ultra extrém hiper szuper giga mega max grafikán. 1440 és korlátozva 144 fps-re. Ezeket a 400+W számokat a Benchmarkokon kívül nem sok játék hozhatja ki. FH és Bf 5 amit játszom, de ennyi a fogyasztás. CPU meg 50-70W.
8k felbontás 10.000 fps persze, de az nem az átlag. -
őstag
Elgondolkodtak Töltöd a villany autód + nyomatod a klímát és már nem akarsz 2 kW-ot számolni a gépedre illetve 3 fázisú konnektort bekötni otthonra csak hogy a CoD 72 menjen Gondolj bele a RAM-nál az a cél hogy egyre kisebb feszen kevesebb fogyasztással gyorsabbak legyenek, erre az (nvidia) GPU meg to*ik a csökkenő fogyasztásra. Nem baj, alakul az alternatíva: Intel ARC, Apple M1 stb..
PC: https://hu.pcpartpicker.com/list/8Pb6z6
-
válasz zebra_hun #26 üzenetére
3080Ti Diablo II Resurrected - 320W+ 76% utilization mellett.
A gyári kúlerrel throttlingol 5 perc alatt és a termelt hő meg elfűti az alaplapot, RAM-ot. Ezért vennem kellett rá AIO-t és egy új házat ahol elfér a plusz egy radi. Vettem volna 6900XT-t, nem lenne ilyen gondom. -
Én a Bf és Forza 5-ről tudok nyilatkozni, ott az átlag 260-280W-ot teljesítményvesztés nélkül ~200W-ra hoztam ki. Persze, tudom 1440 az nem épp divatos, de a gyári extreme preset-tel ezt hozom ki. HWInfo elején és végén.
[link]
Léggel nem tudnám így hűteni, de van örökös bio hűtés.[ Szerkesztve ]
-
Alogonomus
őstag
A legtöbben főleg nem a szoba esetleges befűtése miatt problémáznak, hanem a számítógépházak kiszellőzéséhez szükséges ventilátormennyiség és azok hanghatása miatt. Amerre haladni látszik a helyzet, lassan egy szerverteremben érezheti magát a játékos, és a fülhallgatót már nem az 5.1-es hanghatás élvezete érdekében teszi majd föl, hanem a legalább 10 db 100-120 mm-es ventilátorból származó monoton 35-55 dB kiszűrése érdekében.
Nem az 1-2 ezer watt a lényeg, mert annyi egy szobában fűtési szezonban bőven "elfér", hűtési szezonban pedig akinek van/lesz pénze 1-2 ezer wattos konfigurációra, annak van/lesz pénze légkondira is. A biztosíték pedig ha bírja az 1-2 ezer wattos mikrót, vízmelegítőt, tűzhelyet, porszívót, stb, akkor a gépet is el fogja bírni. -
válasz zebra_hun #30 üzenetére
Azt tudod, hogy ez így nem mérvadó?
Alacsonyab hőmérsékleten alacsonyabb Vcore-t kap, így a fogyasztása is alacsonyabb. Ezt próbáld ki az üzemi 70-90C°-on, mindjárt meg is lenne a 300W.
Anno GTX 770 OC úgy nézett ki, hogy chillerrel 0 C° alá hűtött vízzel 3D mark alatt 1400Mhz fölé boostolt a kártya automatikusan, miközben a TDP limit-et sem érte el. Hidegben csökken a szivárgás. -
tibaimp
nagyúr
válasz zebra_hun #26 üzenetére
zebra_hun:
Alogonomus: ez így egy kicsit túlzás, de részben elfogadható. Nekem a HAF932-ben most is 3 darab 20/23cm-es és 1 darab 14cm-es venti dolgozik, szép halkan, mert van külön venti szabályzó, szóval megoldható minden!
(Sajnos erre, a mai üvegpalota, csoda házak nem biztos, hogy jók.)A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...
-
Én 1 éve kezdtem el "túrni" a BIOS-t, hamarosan készült is a bio vízhűtés. Jelenleg nem vagyok messze az átlagos vízhőfoktól, de még tartom ezeket. (12C most) Pl ac 5GHz-hez elég 1.1V, de tavaly nyáron amikor összeraktam a pincehűtést, felmelegedett 18C-ra a pinyó. Ok, mások 25-27C-os szobában hűtenek, ez csak kicsi segítség. Ez a video télen készült nyitott pincével, látszik is, hogy ~5C a cuccos. Watt nagyon jó így, de ha a leírásban szereplő videot is megnézed, ott nincs UV, ott már 260-280W.
Persze a cikkhez kapcsolódva, bízom benne, hogy nem kell 8-900W-ot hűteni, mert az már nálam is melegítene. 6900xt-vel én jobban jártam volna, de a gsync monitor miatt maradtam itt. FH5-nél meg nincs meg stabilan a 144 min érték, gsync pont jól jön. -
-
Bocs, lehet bénán fogalmazok. Én adom a fesz limitet, 0.9V-ban határoztam meg, 1980MHz-ben meg a frekit. Ha automatán hagynám, akkor elszáll a fogyasztás, ahogy a másik videon is van.
Benchnél meg pont az ellenkezőjét csinálom, fixálom a feszt 1.1V-on és oda rendelem a kb. 2235MHz-et. Függ persze a tesztprogitól, mindegyiknél mást. Bocs, ha félreérthető voltam, de így elmegyünk off-ba. Firestrike-ba így tartom a rekordot pl fix fesz és frekivel. "Cntr L" (lock) -
1dude
aktív tag
Még a fele is sok.
-
Öcsémnek XFX Swift 6900XT van egy CM NR400-as mATX házban. Pont ugyan olyan háza van mint amilyenből a 3080Ti-al költöznöm kellett egy jóval nagyobba. Hivatalosan 280-300W a TDP-je.
Ez pedig 10 perc CP2077 RTX 3080 Ti-al:
Peak 400W volt, ott jön a TDP limiter...
Ezelőtt egy Aorus 2080 Super Water Force volt az 350W-volt kitolt TDP-vel, de az messze jobban hűthető volt. Már bánom, hogy eladtam azt a kártyát. -
nagyúr
Milyen 900W @Abu? Világosan látszik a számokból, hogy 1500W-ot fog fogyasztani
Amúgy meg sztem eljutottunk az információkáosz olyan szintjére az új generációkkal kapcsolatban, hogy semmilyen "információnak" nem érdemes hitelt adni. Mindent olvastunk már, és mindennek az ellenkezőjét is...
"... and with your wicked wishes we will rise again"
-
arn
félisten
Dugjatok fel ezeket a cpu/gpu kazanokat
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
arn
félisten
válasz Találtgyerek #43 üzenetére
En attertem macbookra meg konzolra, aztan majd veszek megint pct, ha normalis hwek lesznek normalis arban.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
arn
félisten
válasz Találtgyerek #45 üzenetére
no igen, ott annyi amennyit rairnak, nem 700 eur aztan lehet 2000 lesz. Ebbol lett elegem, meg a fogyasztasbol. Elvbol nem veszek mar semmit msrp felett, sem ilyen sokszaz wattos kazanokat.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Találtgyerek
veterán
A fogyasztás tényleg kicsit magasabb lett. Én most alulfeszlve használok egy 3070Ti-t, ami így is erősebb a gyári teljesítménynél és kevesebbet fogyaszt, mint egy 1080Ti alulfeszelve.
Sokan persze jól megkínálják a 3080-at meg a 3090-et, ott van pár 100W fogyasztás.06-3o/9759I39
-
Robitrix
senior tag
Azért nem lineáris a grafikai feldolgozó egységek számának növelése a a feldolgozási sebesség növekedésével. Ha veszem az én GTX 1660-as kártyámat, amiben 1408 shader feldolgozó egység van és veszek egy RTX 3090-et amiben 15360 ha jól tudom. Vagyis elméletben egy 3090-es kártya vagy 11-szer annyi pixelt képes egy időben számolni egy képen, mint az én kártyám. Persze jóval gyorsabb a memória átviteli sebesség, a VRAM méret a sávszélesség de még a memória órajel is stb. Mégis mindent összevetve nagyjából úgy 3-szor olyan gyors nyers teljesítményben egy 3090-es kártya, mint az én 1660-asom. Ráadásul tényleges játék teljesítményben mondjuk FPS számban még ez a 3-szoros különbség se jön ki egy játékban. Ahol az én kártyám csinál mondjuk 100 FPS-ta akkor ott egy 3090-es ugyan abban a felbontásban és minőségben meg csinál 200-220-at. Vagyis a ténylegesen elérhető teljesitmény nem lineáris a feldolgozó egységek számával. Vagyis a grafikai feldolgozó egységek mennyiségének nővelése azért nem csodaszer a teljesítmény szempontjából. Az árakba nem is mennék bele azért. Ok, hogy van mondjuk FPS tekintetében 2-2,5 szeres szorzó, de árban meg ott a 6-7-szeres árkülönbség...
Új hozzászólás Aktív témák
Hirdetés
- Akciókamerák
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Eredeti játékok OFF topik
- iPhone topik
- Fűzzük össze a szavakat :)
- Kerékpárosok, bringások ide!
- Külső 3,5'' mobil rack-ek topikja
- Borotva, szakállnyíró, szakállvágó topic
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Programozás topic
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen