- Karácsonyfaként világíthat a Thermaltake új CPU-hűtője
- Az USA vizsgálja a RISC-V kínai terjedésének kockázatát
- Kicsit extrémre sikerült a Hyte belépője a készre szerelt vízhűtések világába
- Egészen nagy teljesítményspektrumon fedné le a mobil piacot az AMD
- Kihívás a középkategóriában: teszten a Radeon RX 7600 XT
- Azonnali informatikai kérdések órája
- Egészen nagy teljesítményspektrumon fedné le a mobil piacot az AMD
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Autós kamerák
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Gaming notebook topik
- Milyen videókártyát?
- Házimozi haladó szinten
- Milyen TV-t vegyek?
- VR topik (Oculus Rift, stb.)
Hirdetés
-
Saját Redmi Note 13 Pro+ a világbajnok focicsapatnak (és indiai rajongóiknak)
ma Argentína nemzeti válogatottjának mezével díszítik az új Redmi különkiadást.
-
Megjelenési dátumot kapott a Star Wars: Hunters
gp A tervek szerint június elején végre befut a teljes kiadás mobilokra/tabletekre és Nintendo Switch-re.
-
Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
it Egyre nagyobb probléma az AI hallucinálása – most az osztrák adatvédelmi hatóság veheti elő a ChatGPT miatt az OpenAI-t, alapvetően a GDPR megsértése miatt.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz FLATRONW #26954 üzenetére
Kb. hasonló a gyakorisága, minthogy egy DirectX 12 vagy Vulkan alkalmazás fagyása az OS-t úgy kivégzi, hogy többet nem bootol be. Csökkentett módban sem. Nem gyakori, sőt, kifejezetten ritka, de megvan rá az elméleti esély. A paraméter sűrű állításával csak növeled az esélyét, mint ahogy az explicit API-knál ugyanezt a problémát, ha többször futtatsz ilyen alkalmazásokat. A legtöbb cégnek mások az ingerküszöbök az elfogadható kockázatoknál. De egyébként ezt amúgy is megoldja az új WDDM, ami már tud úgy kidögleni az OS alól, hogy a fájlrendszerben károsodás maradjon utána.
Ezek mind kockázatvállalások. A DirectX 12 és a Vulkan esetében azért vállalják fel a kockázatot, mert a nyereség elképesztően magas egy nagyon elhanyagolható mértékű, kvázi OS bedöglésével járó kockázatért cserében. A HBCC esetében a hierarchikus lapozás a fontos, ami eleve nincs exkluzív cache módban, tehát nem biztos, hogy megéri kockáztatni egy végzetes fagyást, miközben inkluzív cache módod mindenképpen lesz.
Emellett a DirectX 12 és a Vulkan esetében azért vannak a validátorok, hogy szóljanak, ha valami para van az alkalmazással, és a fejlesztőnek komoly felelőssége egy programot úgy kiadni, hogy a validátor nem jelzett problémát.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #26957 üzenetére
Mert a Vega esetében még nem volt annyi tapasztalat vele. Hasonló a helyzet, mint az Intel procik sebezhetőségénél. Amikor kiadták a hardvert még nem tudták, hogy lyukas. Viszont miután kiderült, sorra jönnek az új lapkák, amelyek foltozzák a lyukakat. Ugyanez a helyzet szoftveres szinten az exkluzív cache móddal. A teszteken jó volt, aztán jött a szélesebb körű elérhetőség, ami már feltárt némi problémát. Ezért is lesz erre megoldás az új WDDM-ben, mert előbb a hibát kell megtalálni, hogy javítani lehessen.
(#26958) GeryFlash: Mert fícsőrként el lett adva, így már nem tiltják le. De alapértelmezetten nincs bekapcsolva. Sokan amúgy sem tudják, hogy mi az, így hozzá sem nyúlnak a driverben.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Callisto
őstag
válasz FLATRONW #26962 üzenetére
Érdekes. Biztos hozzá nem értő laikus lehetsz. Én is hekkeltem már Intel CPU-kat, de a HBCC-vel sosem volt gondom.
Igaz egy ember nem mérvadó, de hány hacker célpontja vajon egy PC (a sok-sok CPU-val) és hányan használnak professzionális célra HBCC-s kártyát... Nem beszélve arról, hogy előbbi tud igazán kárt okozni, ha odáig jut valaki. Elgondolkodtató, ha már hülyeséget írunk, nem?"A wise man can learn more from a foolish question than a fool can learn from a wise answer." - Bruce Lee
-
GeryFlash
veterán
válasz FLATRONW #26964 üzenetére
,, Ettől függetlenül annak a kevés embernek is aki használja a HBCC-t, arányaiban kb. nagyobb az esélye hogy gondja legyen vele, mint az Intel sebezhetőségekkel. "
Ez egy fura arányosítás. Hasonlítasz egy csoprotnak egy nagyon szűk szegmensét hogy esetleg nagyobb az esély (még ez se biztos). Miközben a becsült számok valahol úgy alakulhatnak hogy ‹100 embernek okozhatot problémát az HBCC és mondjuk több tízezres/százezres nagyságrend az Intel sebezhetőségei. Ugye mennyire nem ugyanaz a kategória?
Ettől függetlenül abban egyetértek, hogy Abu kolléga nyugodtan írhatott volna erről cikket. Előtte valami olyan duma ment hogy hát úgyse használják a felhasználók, inexkluzívat talán a Far Cryon kívül senki nem támogatta, és talán azért nincs már a NAVI-nál hogy megvegyék az akkor topnak számító Radeon VII-et (ezt nem Abu mondta, csak itteni találgatások voltak amit Abu nem cáfolt azzal hogy nem srácok, arra van szó hogy az AMD letiltotta mert van egy kisesély hogy gallyra vágja az OS-t).Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
félisten
válasz FLATRONW #27102 üzenetére
ha ez az árazás igaz, [link] azért nem félnek árazni. PS5 550$ az alap verzió és 650 $ a nagyobb SSD verzió. az Xbox szerintem ennél drágább lesz vagy legalább ennyi.....ez azt jelenti , hogy nálunk kisebbik 200-220 ezer forint nagyobbik pedig 230-250 ezer forint lesz....
elfelejthetjük azt hogy a kisebb kártyákkal le kell mennie Nvidiának árban..[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Carlos Padre
veterán
válasz FLATRONW #27333 üzenetére
Hallgass Cerni-re, ő lehet jobban tudja. A 2233MHz az "alapórajel" azt képes tartani minden gép minden körülmények közt, azt lehet/kell célozni a programozáskor, a hardver meg majd teszi a dolgát és visszaveszi a tempót ha nincs rá szükség a fogyasztás és a melegedés kordában tartására. Gyakorlatilag pont fordítva működik, mint amit eddig megszoktál. Egy általad felvázolt gépre nem lehetne játékot optimalizálni, és hatalmas lenne a szórás is a gépek közt, egyiken laggolna mint az állat, a másikon vajpuhán futna.
Genyó vagyok, ha hülye vagy megmondom.
-
félisten
-
-
nubreed
veterán
válasz FLATRONW #28539 üzenetére
Hol írtam én ilyet? Az FHD mainstream. Az emberek túlnyomó többsége nem fog 1000 vagy akár 500$ kártyát venni, ez csak az egész piac kb 10% -a talán. Tudom a Steam HW survey nem releváns, de mégiscsak egy indikáció arra, hogy miből mennyi van az emberek konfigjaiban. Meg lehet nézni mennyi 2070S/2080S/Ti, stb van mondjuk egy 1060 -hoz vagy akár egy AMD580/590 -hez képest. Igen, valaki feljebb vált az évek alatt, de a nagy többség ugyanebben az árkategóriában gondolkozik majd továbbra is, azaz ők nem fognak 500 - 1000$ kártyát venni, ők max 250$ -ből akarják kihozni a maximumot. Amíg ezek a kártyák nem tudják nevetve a 4K-t nem diavetítésben, addig nem lesz mainstream a 4K. Így már érthető?
We are the first of cyber evolution. We are the first to program your future.
-
cyberkind
félisten
válasz FLATRONW #28541 üzenetére
Konzolon is azért lett az a mainstream mert elérhető lett minden ehhez a dologhoz, nem kell mélyen a zsebbe nyúlni. Ugyan nekem bőven megteszi egy jobb tv is játszani, de sokaknak nem, csak a monitor, az meg 4K-ban drága, amellett még vas is kell.
Paranormal Cocktivity
-
MPowerPH
félisten
válasz FLATRONW #30587 üzenetére
Szerintem aki ilyen aron vesz VGA -t, az nagy ivben tojik a fogyasztasra. Felolem egyen 500W -ot, de 4k -ban se reccenjen a kep, es legyen fix az FPS.
De persze a 1,9 performace/watt az jo marketing duma. Mindenki igy csinalja, csinalna, ezen nem kell fennakadni.
Itt valszeg tenyleg kapsz valamit a penzedert, elnezve a speceket.[ Szerkesztve ]
Don't Tread On Me
-
arn
félisten
válasz FLATRONW #30717 üzenetére
Engem jobban erdekelne ez az ut... mint prociknal, lehessen tdpt allitani, aztan a kartya dolga abbol mit hoz ki. Vagy homersekletmaximumot, zajszintet allitani. Aki hatekonysagot akar, azt is kapnat, aki tobb teljesitmenyt, azt.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
BiP
nagyúr
válasz FLATRONW #35442 üzenetére
csak a linket kellett volna elolvasni
NVIDIA is working on a next generation GPU architecture based on the mathematician Ada Lovelace
wiki (mert amúgy én sem ismertem): [link]Yutani: na igen, kinek mi (ki) ugrik be
De hát ez az egész 30-as széria bevezetése egy nagy torkos, szóval nem csoda, ha ezen a vonalon kutattak valami passzoló nevű tudós után -
-
félisten
-
Alogonomus
őstag
válasz FLATRONW #36496 üzenetére
Még ha a Tom's Hardware listája kicsit túlzó is a 16 és 22 százaléknyi különbségekkel, az új játékokban az 580 a valóságban is bő 10 százalékkal, míg az 590 bő 15 százalékkal erősebb, mint a 6 GB-os 1060. Az a 10+ % pedig bőven jelentheti a különbséget egy éppen már szaggató, meg egy éppen még nem szaggató játékélmény között.
-
Alogonomus
őstag
válasz FLATRONW #36501 üzenetére
Több játék esetében pont a két kártya közötti teljesítménykülönbség jelenti a lehetőséget az eggyel magasabb részletesség vagy felbontás eléréséhez. Az 580 esetében egyébként szerintem inkább a Doom Eternal a kiugró érték, nem is a RE: VIII.
A tesztből is kiderül, hogy míg az 580 4 játékban (RS 6, Doom, RE: VIII, CP: 2077) volt jelentősen erősebb, és 2 játékban (WD: Legion, Apex) határozottan erősebb, addig a 1060 egy játékban volt jelentősen erősebb(Dirt 5), és egy másik játékban (Star Wars) határozottan erősebb. Ráadásul a Dirt 5 eredményeket Steve is valami hibának tulajdonítja.
Vagyis az új játékokban, mint a Doom, RE: VIII, CP: 2077, WD: Legion az 580 egyértelműen erősebb, ahogy fogalmaztam is a korábbi hozzászólásomban, hogy a 1060 a "tavaly karácsonyi szezonra megjelent játékoktól kezdve már nem igazán elég".
Jó, a Doom-ra FHD mellé elég, de a 133 vs 169, vagy 105 vs 125 azért lényeges különbség a képkockasebességben.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz FLATRONW #36504 üzenetére
Persze, hogy javul. De ez főleg amiatt van, hogy az NV DX12 drivere valami beteg módon hajigálja a kódba a barriereket. Pont tegnap találtam egy olyat, amikor egy erőforrást olvasott a program, a driver pedig behajított egy barriert egy másik munkafolyamat elé, ami szintén csak olvasni akarta azt az erőforrást. Mire gondolhatott a driver? Félt az olvasás utáni olvasásfüggőségtől? Nem normális, ahogy az NV DX12 drivere működik, kb. egy idiótának is fel kellene tűnnie, hogy semmi értelme az éppen olvasott erőforrások elérését korlátozni, ha egy másik folyamat is csak olvasni akarja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #37049 üzenetére
Klasszikus hődiódából már egy sincs az AMD-nél. A régebbi lapkákban, illetve a még klasszikus rendszerű, más gyártótól származó dizájnokban 1-3 hődióda szokott lenni. Attól függ, hogy mekkora a lapka. Ha nagy, akkor érdemes többet alkalmazni. Az elhelyezést pedig a prototípuson végzett terhelésminta segíti. Azon látják, hogy a lapkának mely részei terhelődnek leginkább, és ajánlott oda rakni a hődiódá(ka)t.
A klasszikus megoldás sem rossz, de pontatlan. Viszont vannak nagyon jól alkalmazható trükkök rá. Például az NV úgy számolja a turbót, hogy a mért hőmérséklethez hozzáadnak +15°C-t, mert annál a legforróbb pont tuti nem lehet forróbb. Nem tudják mérni, de egy egyszerű trükkel "szimulálják". És így pontosabb lehet a turbó is, méghozzá anélkül, hogy a lapka komplex hőtérképet kelljen hozzá alkalmazni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Petykemano
veterán
válasz FLATRONW #37252 üzenetére
Biztosan okoz. Kábé annyit, mint amikor a 4x Pcie-s kártyát beteszed PCie3-as alaplapba.
a HWBU a videós tesztben megemlítette, hogy ritkán, de előfordult , hogy egy tesztet kétszer vagy háromszor kellett lefuttatnia, és nem a 4GB VRAM miatt, hanem mert amíg sikerült a szükséges adatokat beolvasni - az első futás során - addig dadogott.De azért szerintem van különbség a kettő között. Az első PCIe3-as alaplap 2011-ben jelent meg. még a felsőkategóriának nehezen nevezhető 2015-ös R7 360 is (ami persze átnevezett termék) 16x széles PCIE3 busszal rendelkezett! A PCIe4 platform szinten a felső kategóriában 2019-ben jelent meg, az olcsóbb termékek (alaplap/cpu) még talán ma is PCIe3-mal jelennek meg. Még a 2022-es Barcelo is csak PCIe3 (ráadásul csak 8x széles). Tehát még bőven forgalmaznak a gyártók régebbi szabvánnyal rendelkező platformokat, de már a megjelenést követő két és fél évvel elkezdik szűkíteni a sávok számát.
Valószínűleg a PCie5-tel is ugyanez lesz.
Egyébként azt nem értem, hogy .... azt értem, hogy azért PCi3 a PCIE4 helyett, és azért x4 vagy x8 a nagyobb helyett, mert spórolnak. De igazán megtehették volna azt a szivességet, hogy a CPU/MB terén és a GPU terén egységes spórolási metodikát alkalmaznak, nem pedig azt, hogy a platform terén spórolunk a szabvánnyal a fogyasztás miatt, a GPU-k terén pedig spórolunk a busz szélességgel a lapkaterület miatt, mert így épp a legrosszabb kombinációk jönnek ki.Találgatunk, aztán majd úgyis kiderül..
-
Abu85
HÁZIGAZDA
válasz FLATRONW #37912 üzenetére
A fogyasztás elég baj akkor, ha a konkurencia hozza ugyanazt jóval kevesebb energia elégetésével.
#37914 Devid_81 : Nem lesz EOL az Ampere. Eleinte semmiképpen, mert árban nem fedik át egymást. Később persze a GA102 megy, de a GA104 jó darabig marad.
#37915 b. : Biztos nem lesz elhozva a Samsungtól. Túl drága lenne, és túl kicsi haszna. A Samsung tudja gyártani ameddig kell.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #37921 üzenetére
Ha neked ez jólesik, de a Fermi és a TeraScale 2 között lényegesen nagyobb különbség volt, mint utána bármelyik generációban a két dizájn között. Nem véletlenül jöttek a fermis sütős mémek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz FLATRONW #37923 üzenetére
Nagyon jó képeket raktál be, amiből láthatod te is a problémát.
Az újabb generációknál az összehasonlított VGA-k között vagy generációs különbség volt, vagy nem voltak egymás versenytársai a teljesítmény alapján.
Eközben a GTX 480 és a HD 5870 teljesítménye egymáshoz közel áll, és így is olyan lemaradásban volt a GTX 480, hogy a fenti különbségeket összehozta. És ez azért volt, mert ugyanazt a teljesítményt sokkal-sokkal-sokkal magasabb fogyasztás mellett biztosította.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yutani
nagyúr
válasz FLATRONW #37966 üzenetére
Igen, ez a cikk az. Szépen megmutatja, hogyan fejlődött az NV kártyák hatékonysága. Annak idején arról beszéltünk, hogy az AMD-nek azért ilyen rossz a perf/W mutatója, mert általános GPU-nak készültek, így nem tudtak hatékonyak lenni gamingben. (De majd jön Abu és megmondja.) Majd jött az RDNA, ami csak játékra lett kigyúrva (véletlenül csákánynak is kiválók ), itt kezdődött a javulás.
Ami a Power Limit állítást illeti: azért el kell ismerni, hogy sokkal felhasználóbarátabb a driverhez tartozó GUI-n egy csúszkát állítani, mint parancssorból vagy 3rd party alkalmazásból variálni. (Saját tapasztalat, amikor kőfejtő munkához állítok be egy AMD vagy NV kártyát.) Ettől függetlenül persze adott a lehetőség, de valószínűleg a userek kis része babrál bármi ilyesmit. Mennyen a kártya, oszt gyüjjön az FPS!
#tarcsad
-
nagyúr
válasz FLATRONW #38198 üzenetére
Azon elsősorban a megrögzött AMD-hívők sírtak. 60-70% ugrás teljesítményben, és 40-50% ugrás ár / teljesítményben nem volt akkor sem szar.
Az egyetlen baj az volt velük, hogy a piac túl nagynak ítélte a javulást, és sokáig nem lehetett őket (1070 és 1080) MSRP-áron kapni.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
félisten
válasz FLATRONW #38206 üzenetére
Nekem már az 1060 is megjelenéskor nagyon bejött, emlékszem a GTX 980 karik ott roskadoztak 200 ezer körül az AQUA polcain, kutyának nem kellett akkor az már a GTX 1060 100 ezres ára miatt.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
KillerKollar
senior tag
válasz FLATRONW #38563 üzenetére
Szerintem az Ő érdekük is, hogy találjanak valami megoldást, se az NV se az AMD nem gyárt tápegységeket, nekik semmi hasznuk nem származna abból, hogy tápcserére kényszerítsék azokat is, akik amúgy kellően erős táppal rendelkeznek, de mondjuk nem az utóbbi 1 évben vásárolták (vagy igen de nincs rajta az új fajta csatlakozó, pl a Corsairnak ha jól láttam a mai napig nincs olyan tápja amin rajta lenne).
-
Devid_81
nagyúr
válasz FLATRONW #38606 üzenetére
Digital Foundry is nagyon jo, de azzal a videoval ahol az RTX 3080 2x gyorsabb mint az RTX 2080...picit ellottek a labdat nalam
Ettol eltekintve vannak nagyon szuper elemezeseik vannak, kb egyeduallo a netenTulajdonkeppen Gamer Nexus maradt joforman aki tenyleg jo es nem qrwul...legalabbis eddig nem tette
Anno buildzoid videokat is neztem, mert ha PCB elemzes kell, akkor a csavo aztan kivesezi a cuccot rendesen...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Samsung Univerzum: Így ismerhető meg a Galaxy AI bármilyen telefonon
- Vicces képek
- Mobilinternet
- Kerékpárosok, bringások ide!
- EA Sports WRC '23
- Videó stream letöltése
- Azonnali informatikai kérdések órája
- Ubiquiti hálózati eszközök
- Egészen nagy teljesítményspektrumon fedné le a mobil piacot az AMD
- Motorola Edge 40 neo - színre és formára
- További aktív témák...