Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz nyunyu #67 üzenetére

    bertapet11 arra reagált, hogy én beírtam a múltkor, hogy egy-két címben megtöcsköli az 1080-at is, például RE: Village. De Linusék kimértek a Forza Horizon 4-ben is egy elég kemény GeForce GTX 1070 verést tőle (annyival gyorsabb, hogy az 1080-nak se lenne esélye): [link] - amelyik játékban nagyon hatékonyan tud működni az Infinity Cache a 16 MB-os kapacitás ellenére, ott azért oda tud pakolni rendesen. De ez nem általános, hanem inkább kivételes eset, csak ő úgy értette, hogy biztos általános. Viszont tény, hogy van pár játék, ahol veszettül gyors, ami tipikusan fekszik a felépítésének.

    Néztem róla a teljes guide-ot. Ez a kártya a szélsőségek kártyája. Ki tud kapni a 8 GB-os RX 570-től, de agyon tud ütni egy GeForce GTX 1080-at is. E két szélsőség között ingadozik a teljesítménye játék és beállítás függvényében.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DEAQ #197 üzenetére

    Ha nem kell ez, akkor még mindig vehetsz lassabbat kétszer ilyen drágán, rossz esetben használtan. :)) Nézd meg a piac árait a teljesítményben gyengébb konkurenseknek. 200 dollárért masszívan jó vétel, mert ennyiért 1050 Ti-ket árulnak, amit fél kézzel kettécsap.

    Emellett a bekezdés folytatódik úgy, hogy ha valaki nem tudja vállalni a 4 GB-tal a kompromisszumokat, akkor ez nem az ő kártyája. Vannak 200 ezer forint fölött erős 8 GB-os VGA-k, már ha kaphatók a boltban.

    Arra kell vigyázni idén a VGA-vásárlásnál, hogy a mostani árak masszívan spekulatívak. Bármikor bezuhanhat a kártyák értéke, és a jövő sem tartogat sok jót a régi hardvereknek, mert a next-gen Navi 33 már működik normális órajelen is, és hát nem egy masszívan anyagigényes hardver a maga 128 bites buszával, és nem túl erőteljes kiterjedésével, mag a 150 watt körüli fogyasztásával, miközben a programokban még a kezdetleges szoftveres háttérrel is vonalzóval csapkodja a Navi 21 hátát. A mostani top kártyák 1500-2500 dolláros árazásából könnyen lehet még idén 300 dollár, ami nem egy kevés amortizáció fél éves távon. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bobalazs #210 üzenetére

    Az AMD nem bontja le a részegységek kiterjedését, és az összehasonlítást torzítja a 7->6 nm-es váltás, de a korábbi Navi 2x lapkákban az x16-os PCI Express PHY és kliens az ~10 mm^2. Ebből egy x4-es kiépítés az konkrétan a negyede PHY szinten, és valamivel kisebb a kliens, tehát itt úgy ~6 mm^2-t spóroltak, mert az I/O nem skálázódik jól a csíkszélesség csökkenésével. A media engine az ~18 mm^2 körül van, és ennek a nagy része az AV1 dekóder és az enkóder tömb. Ezek nagyjából összesen ~12 mm^2-esek, de a 6 nm-es váltást figyelembe véve legyen mondjuk ~11 mm^2, ennyit valószínűleg jelent a kisebb csík, még ha csak half-node is. Tehát összesen úgy ~17 mm^2-t spórolhattak a lapka szintjén 6 nm-re konvertálva.

    A tokozás szintjén sokkal többet jelent a változás, mert az x16-os PHY az négyszer több kivezetés lenne, amit elhagyva a tokozás NYÁK-ja sem annyira bonyolult, és így ez számottevően kisebb, illetve az egész VGA komponensigénye lényegesen csökken. Tekintve a tokozás méretelőnyét, és azt a komponenshiány, ami miatt a tokozások limitálják a gyártást, lényegében másfélszer több kártyát is elő tudnak állítani azzal a lépéssel, hogy x16-ról x4-re vágják a PHY-t. Ez tetemes mennyiség, miközben valós hatása ennek nincs a teljesítményre, mert ahol probléma az x4-es sávszél, ott már eleve a VRAM fogy el, ami már önmagában is baj, és jelzi, hogy lejjebb kellene venni a beállításokat, mert a VRAM hiánya kisebb akadásokban fog megnyilvánulni, és itt már mindegy, hogy van-e x16-os csatolód, akkor is helyenként akadni fog a rendszer. Ez az fps-ekben nem látszik, de a frame time-ban észrevehető, csak azt manapság senki sem méri, de elképzelheted, hogy rég rossz, ha kifutsz a 4 GB memóriából, és azon a teljes PCI Express slot sem segít. Ergo ahol ez bekövetkezik, ott az x4 és az x16 is akadásokkal tarkított játékélményt ad, még magas mérhető átlag fps mellett is, mert a memóriatörlés még az explicit API-kkal sem egy ingyenes művelek, annak bizony egy-egy frame erejéig komoly ára lesz, csak ezt elfedi az átlag, illetve az 0,1%-os képkockasebesség, utóbbi ugye kidobja a nagyon sokáig számolt frame-ek. Csak attól, hogy ezt nem jelzik a tesztekben, még látni fogod. Tehát olyan mindegy, hogy milyen PCI Express portba kötöd, a problémát a 4 GB limitje idézi elő, és ez a probléma létezne x16-os sávnál is. Ahol viszont a memória nem fogy el, ott semmi különbség nincs az x4 és az x16 között.

    #211 Petykemano : Baszki, ezt megkönnyeztem. :DDD

    #214 Chaser : A cikk világosan fogalmaz. Ha 200 dollár lesz, akkor az úgy jó vétel, mert olcsóbbá válik sok lassabb VGA-nál.

    #215 carl18 : Azért erre elég sok esély van. Egyrészt a gyártás jelentősen felfut az év második felében. Másrészt elég sok a kérdés a kripto körül, mert számos kedvezőtlen tényező történik idén, amit a jó ég tudja, hogy miképpen reagál le egy masszívan spekuláns befektetés. Harmadrészt pedig a next-gen fejlesztéseknél egy 128 bites (tehát eléggé antikripto) Navi 33 nagyjából ott tart, hogy a mostani csúcskártyákat vonalzózza hátulról. Ennek a gyártási költsége egyáltalán nem nagyobb egy 6700 XT-nél, inkább 6600 XT 6700XT közötti. Ez nem tesz majd jót a mostani generációnak.

    #221 GypsFulvus2 : Az EU szabályozásának pont az egyik tervezett eleme, hogy a PoW megy, mert veszélyt jelent a Net Zero 2050-re. Innentől kezdve csak a PoS marad, amit szabályoznak majd. Igazából a kriptovalutával nincs semmi gond. Csak a PoW a probléma, mert az fenntarthatatlan, de ha ezt kiveszed a képletből, akkor nem látom, hogy miért nem maradhatnának a piacok kriptovaluták fenntartható formában.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Chaser #227 üzenetére

    De ezt írtuk a cikkben, hogy 200-250 között jó vétel, plusz folytatódik a bekezdés, hogy a 4 GB miatt kompromisszumos, mint minden 4 GB-os kártya. De az AMD azt ígéri, hogy ebből lesz elég sok mennyiség. Általában meg szoktam várni két-három hetet egy termék startja után, hogy látni lehessen tényleg elérhető-e.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Chaser #235 üzenetére

    Nem tüntették el. Láttam a Kitgurun a hírt gyakorlatilag a megjelenéskor. Meg is kérdeztem az AMD-t, és ezt a linket adták: [link] - ugyanúgy ott van. Nem telt el 5 perc az üzenetváltás során. Még mindig elérhető a linken.

    Nem tudom, hogy mennyitől marad MSRP-n. Az a baj, hogy az eddigi legnagyobb készlettel készültek a termékstartra, és eléggé kipucolták ezt is. Tehát igény az van bőven, kérdéses, hogy ezt ki tudják-e elégíteni. Ez csak két-három héten túl derül ki.

    #241 Sundesz : Igen. Kb. négyszeres készlet volt, mint amit eddig hoztak az RDNA2-es kártyák megjelenésekor. A probléma az, hogy iszonyatosan nagy az igény a DIY kereskedők részéről. Az látszott, hogy amelyik kereskedő tudott venni, ott azért nem fogytak el azonnal, de így sem volt optimális a készlet. Ezért kell két-három hét, hogy látni lehessen mire elég.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sundesz #337 üzenetére

    A 4 GB a baj. A PCIe x4-gyel semmi gond, ha lenne 8 GB.

    Írtam már, hogy nem leszel előrébb az x16-os interfésszel sem, ha elfogy a 4 GB. Egyszerűen ugyanúgy jönnek a megszaladó frame time-ok, amik a teszteken nem látszanak, mert 0,1%-ra ki van szűrve a minimum, de ettől még ott lesznek. Ilyen szempontból mindegy, hogy x16-os vagy x4-es interfészen fog időnként akadozni a játékmenet a 4 GB VRAM miatt. A végén ugyanott kötsz ki: leveszed a grafikát, hogy beleférj a 4 GB-ba, és ezzel megszűnjenek az akadások.

    A 64 bit pedig csak egy buszszélesség. Ami valóban számít az a memória-sávszélesség, annak pedig csak egy eleme a buszszélesség.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #339 üzenetére

    Minden RDNA támogat HBCC-t inkluzív cache móddal. Ezt használják a konzolok is. Ami eltűnt a Vega óta az az exkluzív cache mód, ami az újabb játékokkal nem igazán stabil, és nagyon nehezíti az olyan funkciók implementálását, mint a SAM. Inkluzív cache módot viszont használhatnak a fejlesztők, ahogy a konzolon is teszik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ughhh #346 üzenetére

    Továbbra sem értitek, hogy amikor a PCI Express 3.0 korlát lesz, akkor ott maga a 4 GB a korlát. És azon az sem segít, ha x16-os lenne a slot, mert a 4 GB-ból ott is kifut. Amikor a hardver kifut a memóriából, akkor az nem jelent azonnal drasztikus teljesítménycsökkenést, mert némileg kompenzálható az adatok folyamatos betöltésével, de ez már önmagában azt jelenti, hogy a programnak allokációkat kell törölnie és újakat kell létrehoznia. Ez addig nem látszódik meg, amíg átlag sebességet nézel, és az abszolút minimum helyett 0,1%-os minimumot nézel, de amint csinálsz egy frame time-ot pont látni lehet, hogy a sok ezer frame-ből pár rendelése igen jelentősen megnő, és ez azért van, mert az allokáció törlése nem ingyenes művelet. Tehát hiába másolod az új adatokat gyorsabban egy szélesebb buszon, maga a törlés a probléma, hogy egyáltalán ehhez kell folyamodni, mert ilyenkor ellenőrizni kell, hogy a törölni kívánt allokáció tartalmaz-e éppen használatban lévő adatokat, stb, és ez processzoridőt is igénybe vesz ám, amitől végeredményben lesz egy olyan frame, ami bőven több ideig készül, mint 40 ms. Tehát végeredményben semmit sem nyersz az x16-os csatolóval, mert a törlést nem akadályozza meg, ami az akadást eredményezi. Azt tudod elkerülni, hogy ezt megmutasd az olvasóknak, ha nem csinálsz frame time-ot, mert anélkül ez a probléma nem látszik.

    #352 gbors : Az már azt jelenti, hogy nem elég a 4 GB ahhoz a beállításhoz. Mert ha elég lenne, akkor nem kellene adatokat másolgatni a PCI Express buszon. Utóbbit a mai motorok igen erősen kerülik, mert a busz késleltetése 300 ns, függetlenül attól, hogy mennyi sávod van, és ez azért nem kevés késleltetés ám, ami meg fog látszódni még PCI Express 4.0-s alaplapokban is, mert elfogy a VRAM. Nem sokszor, de annyiszor igen, hogy pár akadásod azért legyen percenként, és ezzel pont kikerülöd a 0,1%-ot is. Tehát ilyen formában a PCI Express 4.0 sem ment meg ettől, és az x16-os csatoló sem mentene meg, mert az alapproblémát az idézi elő, hogy a VRAM kevés, és szükséges adatot törölni, illetve másolni lassú a PCI Express magas késleltetése miatt. Az innen származó akadásokat az tudja megszüntetni, hogy lejjebb viszed a grafikát, mondjuk low-ra. Persze a gyorsabb csatoló ettől eredményezhet magasabb átlagsebességet, mert kis allokációk is cserélhetők a VRAM és a RAM között, de az akadásokat nem fogod vele mellőzni, ahhoz több memória kell, vagy kisebb részletesség. Márpedig a problémát az akadás fogja eredményezni egy játéknál, mert azt a játékosok nem szeretik, és ezt egy 4 GB-os kártyánál ugyanúgy megkapnák x16-os PCI Express 4.0-val is. Azért írtuk a teszt végére, hogy aki magas részletességet akar, menjen 8 GB-ra. Maga az AMD is kimutatta, hogy ennek bizony nagy előnye van már 1080p-ben is, csak nem most, hanem korábban, de ettől ez ugyanúgy igaz maradt. Ez a kártya csak azoknak való, akik hajlandók elfogadni a 4 GB jelentette kompromisszumokat. Ezek esetenként jelentősek, de ez van, 2022-t írunk, nem javulunk a memóriaterhelés tekintetében, hanem romlunk, tehát ez a gond csak még jelentősebb lesz a jövőben. A tesztben direkt azért vannak külön eredmények 4 GB-os határra helyezett beállításokkal, illetve olyanokkal, ahol ezzel a határral nem foglalkoztunk. Látszik rajta, hogy hova jó a kártya, és hova nem az.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fLeSs #354 üzenetére

    Röviden igen. Akármilyen gyors a PCI Express sáv, az nem ment meg attól, hogy ha elfogy a VRAM, akkor bizonyos allokációkat törölni kell. Már maga a törlés időigényes, és explicit API-kkal különböző ellenőrzéseket kell futtatnia a CPU-val a programnak, hogy ne töröljön olyan adatot, ami éppen használatban van. Ez eléggé szopás lenne a programfuttatásra. DirectX 11-ben ez még rosszabb, mert ott aztán az allokáció törléséhez egy rém lassú és processzorigényes folyamaton keresztül vezet az út.

    Az is probléma, hogy a fejlesztők nincsenek a helyzet magaslatán az explicit API-kkal, és még ma is előfordul, hogy kb. 1 GB-nyi adat szemetelt adat, és nem is távolítja el a megírt kód, mert a törlés még explicit API-val sem ingyenes. Ez például a 4 GB-os kártyáknak nem egy fasza dolog. Vagy mondjuk a Far Cry 6, amiben basszus a VRAM telítődése konkrétan játékösszeomláshoz vezethet, mert annyira el van baszarintva a menedzsment, hogy ha pont akkor lesz out of memory, amikor konstansot direkten a root signature-ba ír, akkor azt a motor nem tudja lekezelni alkalmazásfagyás nélkül. Egyszerűen meghal a cucc, kilép és ennyi. Ezért pofázza a Microsoft teli szájjal évek óta, hogy a root signature nem buffer viewek tárolására való, azokat leíróhalmazokba kell rakni.

    Ha valamelyik fejlesztő nem tud jó menedzsmentet írni, akkor fel lehet használni a D3D12MA és a VMA libeket. Előre megírt menedzsment egy rakás beállítással, ott a Horizon Zero Dawn, a Strange Brigade, a World War Z (Aftermath), akármi, fejből nem jut eszembe több, ami használja ezeket. Meg lehet nézni, hogy mennyire veszettül működnek ezek a motorok ha menedzsmentről van szó. Különösen a World War Z: Aftermath és a Strange Brigade, amelyek valós idejű defragmentációt is alkalmaznak, így időnként az allokációkat egymásra tolják és korrigálják a pointereket, vagyis anélkül szabadítanak fel, pontosabban tesznek egybefüggővé VRAM-ot, hogy bármit is törölnének. De még mindig van olyan fejlesztő, amelyik inkább szenved egy saját menedzsmenttel, ami némi eséllyel kifagyhat (igen a Far Cry 6-ra gondolok).

    #357 gbors : Nem mindegy, hogy mennyi adatot másolsz. Általában ez minimumra van véve a magas késleltetés miatt, de ha elfogy a VRAM, akkor nyilván nincs más út. És innentől kezdve semmi sem ment meg az időszakos akadástól, hacsak nem veszed lejjebb a beállításokat.
    Attól függ az akadás gyakorisága, hogy mennyi VRAM fogy el. Az allokációk különböző méretűek, lehet nagy és kis allokációt is másolni, a kicsi nyilván kedvezőbb. Vagy példát lehet venni a World War Z: Aftermath és a Strange Brigade játékokról, amelyek defragmentálnak, és akkor nincs probléma.

    Az általános ajánlás, és a saját ajánlásom is az, hogy 1080p-re is 8 GB-os kártya kell. Ez a minimum. Hacsak nem szénné optimalizált csúcsmotor van a játék alatt, mint az Asura, vagy a Swarm. De ezek a fehér hollónál is ritkábbak, így inkább a 8 GB. Csak ezekért kurvára zsebbe kell ám nyúlni manapság.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #361 üzenetére

    A BL3 specifikusan a texture streaming beállítás miatt fut így. Ez nem igazán változtat a textúrák minőségén, de az egyre magasabb beállításokkal egyre agresszívebb a streaming, egyre több textúrát tölt be, és teszi ezt állandó jelleggel. A megoldás a low beállítás erre, mert akkor a streaming kevésbé agresszív, így kevésbé terheli a buszrendszert. Ettől a textúrák részletessége viszont nem igazán változik, csak a streaming jellege. Én is így játszom a 4 GB-os RX 570-en, mert mediumon már akadozik, és még a kurva x16-os csatoló se ment meg ettől, holott a Tom's Hardware tesztje szerint nekem ez Kánaán lenne. Játszanak vele ők így, ha akarnak. :)

    És csak megjegyzem pro tippként. Ha van a VGA-n 8 GB-nál több VRAM (a 8 GB az kevéske lesz), akkor érdemes a játékot a -NOTEXTURESTREAMING paraméterrel indítani, mert ekkor megszűnik a busz terheltsége is, tehát az x16-os PCIe VGA-kon is megszűnnek az akadások, amelyek a motor jellegzetességei miatt még Ultra szinten is jelen vannak.

    #363 lo_jo : A GT 1030 azért drága, mert lószar mennyiséget gyártanak belőle. :))

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gejala #809 üzenetére

    Nem. Az SSAA nem csak felskálázás. Volt erről cikkünk: [link] - Ez a funkció még ma is elérhető a driverekben.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fLeSs #842 üzenetére

    A GA107-ből mind megy a notebookokba. Ezt a Compal írta nemrég. Az asztaliba hónapokig nem jut le. A 3050 elérhetősége attól függ, hogy a gyártók a GA106-okat mennyire szívesen adják el 3050-nek, mert a kihozatal tekintetében szinte mind eladható 3060-nak is, és azon nyilván sokkal többet keresnek, miközben az előállítási költség nem igazán magasabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák