Új hozzászólás Aktív témák
-
Egyetértek, a 4790k-ról nemigazán látnál játékok alatt nagy előrelépést kb semmilyen mai procival. (A hedt cuccok erősek, csak épp a játékmotorok nem sok hasznát látják még 10-12 magnak). Ráadásul ott a probléma, hogy minden generáció új lap az intelnél. Egy dolgot tehetsz, hogy delideled a mostanit és felrántod 4.8GHz-re (ha nem tetted volna még meg), azt minden szeretni fogja
-
Én 7700K ról "léptem vissza " 6800K ra, eleinte nem éreztem a különbséget, sőt meg is bántam, de most már, hogy dobtam rá vizet bizony előjön, főleg Stremlésnél az a plusz 2 mag 4 szál előny.
A deszka meg..eszméletlen , pedig egy alap MSI HEDT deszka, 75 K ért vettem. Most már örülök nekiTR alatt egy eléggé előremutató motor van,de sajnos a legtöbb játék nem ilyen, sok tesztben az 1800X bizony elmarad a 7700K-tól, mivel a magasabb órajel és IPC előjön, mikor folyamatosan az első 2 magot terheli az engine.Ha megnézed, az általad betett tesztben is a másik játéknál már más a kép.[link] és a TR alatt is a 7700K alapórajeleken ment, ami azért nem életszerű.
-
Weareus
addikt
Köszi a részletes választ.
Különben már érdeklődtem is, igaz nem a cpu, hanem a vga-totyikban, remélem, azért nem eb rudalnak ki.
Elviekben ott is tudniuk érdemes, hogy egy adott vga alá mi kell, mi jó.
Egyébként pont néztem egy öszehasonlító tesztet i7 7700k és Ryzen 1800X-ről 1080Ti-vel különböző felbontásokon játékok alatt és hát, biza, ahogy írod is: a Ryzen szépen helyben hagyta az Intel procit, igaz, ahogy növelték a felbontást, az előnye egyre kevésbé volt szignifikáns, bár azért 4k-ban is megmaradt, noha ott már csak 4-8 fps körül volt a különbség. (Főleg a min. fps-ben volt jobb a Ryzen).
[link]I7 4790k-val tolom, 4.8-4.9-et megy vízzel (nem rossz példány),de hát ez ugye még DDR3-as platform, hiába csúcsproci, csúcslap, 32 GB ram, azért csak kifutó széria.
-
ÉN annyira nem értek hozzá, inkább itt [link] érdeklődj szerintem, okosabbak vannak mint Én.
Gondolom ilyen VGA mellé komolyabb gépet szeretnél, bár amid most van az sem semmi, nem hinném, hogy segítségre szorulsz ilyen konfiggal
DE persze van személyes véleményem, az hogy :
-Fontos a pénz amit rá kívánsz szánni.
-Fontos a monitor és a felbontás, amin játszol. Minél magasabb felbontáson / több Hz-n akarsz játszani annál inkább dől a VGA fele a mérleg nyelve a CPU felől.
ÉN ha most újítanék nem vennék 6 mag alatti processzort, ramból meg soha nem elég, de a mostani ram árak mellett 16 GB val egyenlőre beérném, mert lesz ez még olcsóbb.
Intel oldaláról megvárnám, míg kijön pár hónap múlva a végleges Coffe lake chipset, ( Z390) és abba tennék vagy egy 8600K-t( 6 mag HT nélkül) vagy pedig egy 8700K-t,de ha a pénz nem számít és minőséget akarsz alaplapok és tudás terén, akkor ott van a HEDT éppen kifutó( 2011-3) és most bejött( 2066) platformja is játszhat éppen, főleg, hogy vízzel operálsz. Nekem 6800K most 4.8 Ghz-n stabilan megy.
A deszkák 70 K tól kezdődnek, de már belépőn is nagyon magasan felszereltek. A kifutó 2011-3 ban kapsz már újan 6 mag 12 szálat( 6800K) 95 K ért,de 115 K ért van az új HEDT platformba is ugyan ilyen proci és ez később még tovább fejleszthető magok / CPU szempontjából.
AMD oldaláról egy 1600X-1800X , egy jó tuning deszkával, vagy ott is már bejött a HEDT, bár a mostani pocidhoz képest ezek csak magszámban jelentenének előrelépést, IPC-ben nem. -
válasz
t72killer #118 üzenetére
Valószínűleg ezért van a minimumm FPS is sokszor alatta, bottleneckel egyet a CPU első magja, megzuhan az FPS. Szerintem 1080 TI mellé 6 valós fizikai maggal rendelkező proci kell már,magas órajelen, hiába mond bárki bármit. A felbontás cpu mentesítéséről annyit , hogy itt is látszik,az AC origins-nél, hogy a 7700K már megpadlózik sokszor első maggal WQHD alatt is egy sima( nem TI) 1080 karival, azt pedig 4 K ra nem érdemes azért még használni vagy pedig ügyeskedni kell a felbontás- VGA-CPU megfelelő beállításával játékonként és / vagy magas felbontáson kell tolni akár kevesebb FPS - számmal.
Persze erősen játékfüggő, de ez pl egy elég népszerű cím manapság. -
-
válasz
Raysen623 #115 üzenetére
Na írtam egy kommentet de igazából lehet nincs igazam,de azért itt [link] például jól kivehető a Vega kártya előnye CPU használat szempontjából.
1080 TI nél nem ritkán 100 % on pörög az első mag míg pl Vega-nal 50-60 % . Hozzá kell tennem, hogy elsődlegesen a VGA még mindig a legszűkebb keresztmetszet játéknál és azért az FPS szám jóval magasabb ennél a tesztnél NV kártyáknál, de a CPU is izzad rendesen a kártya mellett.Ebből azt gondolom , hogy elég sok plusz munkát vállaltat fel a kártyával a Radeon, de az is igaz,hogy aki ilyen kaliberű kártyát vesz az nem i3 procival tolja. Ettől függetlenül azért látható az a dolog, mire törekedtek.
-
-
Raysen623
addikt
válasz
#06658560 #97 üzenetére
Közben dolgoznom is kellet, ezért nem tudtam reagálni. Igen driverrel használom a VGA-imát kérdésedre válaszolva. Azonban a tesztek végére ettől függetlenül illene beleírni, hogy igen van itt egy remek kártya, azonban a végeredményhez bizony beleszól a processzor is, mert a driver átadja a CPU-nak az adott részt mivel a VGA nem tudja.
Oda próbáltam eljutni vajon kimérhető e valahogyan mekkora lenne a különbség ha le lenne kapcsolva a driver ezen funkciója és csak a VGA-ra támaszkodna a mérés. Vagy vajon van e olyan funkció ahol a piros kártya is igénybe veszi a CPU-t. Egyáltalán lehetne így is tesztelni a kártyákat?!
Eddigi információk alapján piros gyártó szeretne mindent a GPU-val elvégeztetni, míg zöld gyártó a szoftveres részt fejleszti és inkább emulálja a hiányosságokat, egészen addig amíg nincs elegendő fejlesztés low level apira, mondjuk vulcanra. Ameddig pedig ez a helyzet áll fent, addig hiába jön a Navi piros oldalon, vélhetően a Vega nyomdokait követi majd. Tehát eleve nem lesz az sem igazi gamer kártya. Raja-nak pedig már rég kijárt volna egy keresztre feszítés, amiért ezt a vonalat erőltette közben meg totál elfelejtették tolni az új képességeket a fejlesztők irányába (legalábbis nagyon gyér az eddigi eredmény). A termék piaci elérhetőségéről meg ne is beszéljünk. (Ez persze csak az én véleményem.) -
-
gV
őstag
elhiszem h így volt, de most az van h az 56 is drágább mint az 1080 ha kapsz, lsd t72killer hsz-ét. lehet lesz változás és visszaáll a "rend" addig viszont elég k**i a vega helyzete
t72killer: ennyi, részemről még annyit, h aki előbb ad 1070 áron és fogyasztással 1080 Ti teljesítményt azé a pénzem, az már elég a 4K-ra és mókuskerékkel (TJ08E-hez ezt ajánlja a SS) is halkan lehűthető.
-
válasz
t72killer #111 üzenetére
Gyors németajkú körkép: Vega 56: kb 600€, jellemzően 2 hét körüli várakozási időkkel, Vega 64:legolcsóbb refkari (blehh..) 640EUR, ezt se szállítják már idén, mindeközben 1080-asból nem is akármilyen egyedi hűtőset vihetsz haza 540EUR-ért!
Szóval a számomra elérhető piac alapján tényleg nem fair a 1080-ashoz hasonlítgatás, főleg, hogy a használhatóbb egyedi hűtésű vegákért sokszor egyedi 1080 ti árat (~750EUR, pl giga aorus) kérnek.
-
, korrekt, nekem is hasonló arányok rémlettek - németajkú piacon. Amúgy hetente ugrálnak az árak 100EUR körüli összegekkel, attól függően, hogy hol van épp akció és melyik típus van/nincs raktáron, kb lehetetlen pontos ár/teljesítmény arányt megadni. Nagyjából stimm, hogy a V64 drágább szokott lenni a sima gtx 1080-nál. És az is stimm, hogy utóbbi a "régi", dx11-es játékokban kicsit gyorsabb, dx12-ben pedig kicsit lassabb.
Engem amúgy mindíg a képminőség izgat a régi geforce FX blamázs miatt, erre ritkán szoktak tesztelni. Bár feltételezem, hogy így 2017ben azonnal rájuk borítanák az árnyékszéket, ha a képminőségen csalna valamelyik játékos...
-
hajbel
addikt
1 hónapja vettem Vega 56-ot 420 fontért, egy héttel később 390 volt. A 64-es 470 volt akkor. Egy hónap alatt nagyot változott a világ. Az összes ref. 56 flashelhető 64-re, ezt én is megtettem. Egyébként összteljesítményt nézve nem erősebb semmivel a Vega 64, mint a GTX 1080, sőt inkább lassabb 1-5%-al.
-
-
A teszteredményei a 1080 és 1080 ti közé teszik - ahogy az árcédulája is. Úgyhogy ezek közül érdemes kiválasztani, melyikhez akarod hasonlítani. Tudom, OpenCL-csodákban felülmúlja a titan xp-t is, de ilyesmit ritkán futtat otthon az átlag gémer, játéktesztek relevánsak. A bányászat megint más téma (ott ugye aratnak a vegák), arra megint külön teszteket érdemes nézni és a minerhez legjobb karit kiválasztani
(ha nem vitték el az utolsót is a nagykerből
)
-
gV
őstag
de miért az 1080 van ellenfélnek állítva a vega 64-nek mikor műszaki paramétereket nézve a Titan Xp-vel van pariban, árban meg az 1080 és 1080 Ti között van, utóbbihoz közelebb
-
-
hajbel
addikt
válasz
t72killer #100 üzenetére
Ezt eddig nem is láttam. Az általad linkelt Vega 64 megjelenésekor készített tesztben 11% a különbség, ami Press Beta driverrel lett készítve. A Crimson ReLive Edition 17.10.3-ra (amit én linkeltem, a 1070 Ti megjelenésének idején) már 16.7% volt a különbség, legalábbis 4K min. fps-ben. Adrenalinnal nyilván még egy fokkal jobb a Vega, mármint 1-3%-al max.
-
-
nyakdam
aktív tag
válasz
t72killer #87 üzenetére
Neked meg b. nek is, nem azt írtam, hogy aláz az AMD vagy szar az NV, hanem , hogy fekszik az AMD-nek. Ahogy látszik nem kulog az AMD az NV után DX12 /Vulcan alatt mint DX11 alatt. Személyes tapasztalat pedig, hogy a gyengébb procikon meg segítenek az új API-k, Vulcan nagyon jó példa erre bármelyik kártyával, ellenben a DX12 alatt nem tom kihasználni a prociterhelés csökkenést az 1050ti-vel (ezért tolom DX11-el
).
-
-
-
Abu85
HÁZIGAZDA
Ez a Wolf 2 esetében helytálló, csak az igazsághoz hozzá tartozik, hogy amíg az AMD a patch-ekkel gyorsul, addig az NV ugyanott tanyázik, mint a legelején, mert az id a konzolos PSSL kódokat gyorsítja, és azt direkten csak GCN-re tudják fordítani. Amennyire jó tehát az, hogy külön van sztenderd SPIR-V az NV-nek, és speciális SPIR-V az AMD-nek, ugyanannyira hátrányos, ha a sztenderd kódokhoz hozzá sem nyúlnak. És a második Wolf 2 patch nem kicsi boostot pakolt bele a GCN-be. Bő +20%-ot.
-
hajbel
addikt
válasz
t72killer #87 üzenetére
Nem akarok belefolyni a vitába, mert nem vagyok márkab*zi, de PH! Félisten ne linkeljen már guru 3D-t. b. által bevágott grafikonon látszik, hogy az egy ligában versenyző, és egyébként össz játékot figyelembe véve lassabb GTX 1080-ra majd 40%-ot ver min. fps-ben a Vega 64, de az 56 is 33%-ot. Mondjuk valami nem kóser a mérésekkel, mert a 1070Ti csak 22%-ot kap az erősebbik Vegától.
-
-
-
nyakdam
aktív tag
válasz
#06658560 #82 üzenetére
Amit te AMD techdemónak tartasz az úgy lett megírva/módosítva, hogy az NV külön kódokat kapott, hogy ne legyen teljesítmény romlás. Az igazi DX12 teljesítményről a Vulkán adhat képet(mivel az hasonló a valódi DX12 -höz), ott az AMD kártyák eléggé ott vannak. De ugyan azért nem dúskálunk rendes DX12-es címekben (csak átírt/portolt DX11), mint Vulcan címekben, mert valszeg drága és hosszadalmas a motorok átírása. De ami késik nem múlik.
-
Abu85
HÁZIGAZDA
válasz
#06658560 #82 üzenetére
A bekötés nem igazán erről szól. A Tier3-es pure bindless szint alapvetően annyi lenne, hogy a GPU multiprocesszoraiban van egy programozható feldolgozó, ami minden munkát elvégez a lapkán belül. Minden memóriahozzáférés, akár a szűrt adattal visszatérők is beleprogramozhatók a shaderekbe. Így működik a GCN.
Az NV emuláció tulajdonképpen annyi, hogy ezeket a feldolgozókat a processzormagok helyettesítik. Az NV meghajtója úgy működik, hogy egy processzor oldali rutin helyezi el az erőforrás-leírót egy tömbben, méghozzá az alapján, hogy mi van leprogramozva a shaderbe. Amikor a wave-ek elkezdenek futni a multiprocesszoron, ezt a tömböt fogják igényelni. Ennyi, azt, hogy ez hol van meg fogja mondani a GPU-nak a CPU. Ezt a GPU betölti és addig mindenki boldog, amíg nincs divergens indexelés. -
#06658560
törölt tag
válasz
Raysen623 #77 üzenetére
Melyik a hatékonyabb? Adott chipen belül megcsinálni valamit, vagy kiadni egy másiknak, megvárni míg megcsinálja, majd az adatokkal dolgozni tovább?
#80: Csomagot. Vagy te szoftverek nélkül játszol a kártyáidon?
#81 GodGamer5: Még egyszer: AMD szponzorált, tech demó játék, aminek egyetlen célja a DX12 bemutatása, mire is képes, és tényleg minden bele van pakolva, minimum úgy fut NV-n, annak elmaradott hardverén, mint AMD-n. Ilyenkor tényleg nem lehet gondolkodni, hanem csak tolni a mantrát, hogyaznvnemfejlesztéslefizet?
-
GodGamer5
addikt
válasz
#06658560 #75 üzenetére
Csak az AMD is compute irányba ment el a GCN-nel, és ezt kéne az engine-ekbe is megfelelő módon implementálni. A Wolf2-vel is szépen gyorsult a Vega és ott még nincs is semmi extra a grafikában, de pl egy komolyabb szimulációnál+felezett pontosság már ütne a Vega. Nyilván amíg a nagyobb részesedéssel az NV a domináns, addig nem erőlködnek a fejlesztők. Amúgy meg még azt a szintet sem lépték meg a fejlesztők, hogy a rajzolási parancsokat kitolják annyira, hogy elhagyják végre a dx11-et. Akkor szerinted mit ér a dx12 ? (A pascal is csak lassul dx12-alatt. Nekem az új Tomb Raider az 1050 ti-n durván szarul megy dx12 alatt.
-
válasz
#06658560 #75 üzenetére
Ott a pont, én a minereken kívül olyan progit nem láttam, ahol a Vega 64 érdemben (10%+) verné a sokszor olcsóbb(!!!) 1080-t, hiába annyira hazai pálya neki a DX12...
#78: Így érthető, hogy a VGA-limites felbontások esetén, amikor a CPU-erőforrások egy része felszabadul, miért húznak el jobban az nvidia karik
.
-
Abu85
HÁZIGAZDA
válasz
Raysen623 #77 üzenetére
Az emuláció nem csalás. Teljesen működőképes, csak procierőt is igényel.
A bekötési modell TIER_3-as szintjét sokféleképpen lehet implementálni. Az Intel is például részben a procimagokat használja arra, hogy bizonyos GPU által nem elvégezhető feladatokat megoldjon, igaz ezt hardveres formában teszi, de ettől ugyanúgy használni fog egy kevéske procierőt. Az AMD csinálja egyedül proci használata nélkül, de nekik meg szükséges ehhez egy dedikált skalár ALU a CU-kba, ami megoldja az igényelt munkát. Ingyen ebéd tehát sehol sincs, maximum dedikált részegységek.
-
Raysen623
addikt
válasz
#06658560 #75 üzenetére
Honnan tudod valójában melyik kártya él valódi előnnyel DX12 alatt? Amikor a cikkben is le van írva, hogy NV emulálja Tier3 bekötést és CPU-val számoltatja le, tehát 'csal'. Akkor tudnánk melyik VGA a jobb, ha ezt az emulálást lekapcsolva néznék és úgy futna a teszt. Kérdés ez megoldható e driveren belül, tehát van e hozzá elérhető kapcsoló avagy nincs. Gyanítom utóbbi eset van. Felhasználó persze ebből nem lát semmit, csak a hardware igénynél max kicsit nem érti minek olyan erős proci a játék alá.
-
Abu85
HÁZIGAZDA
válasz
t72killer #48 üzenetére
A Wolf 2 alatt mindenképpen, ez látszik is, főleg az újabb frissítéssel, ami még tovább javított, mert a PS4-re kiadott frissítések optimalizált PSSL shadereit újrafordították AMD specifikus SPIR-V-re. Azt sajnos nem tudni, hogy ezeket az optimalizálásokat a sztenderd SPIR-V megkapja-e, mivel az GLSL kódokat használ, és azt nem nagyon babrálják. Ez a nyilvánvaló hátránya annak, amikor két eltérő SPIR-V kódbázisból szolgálod ki a PC-t. Ha csak az egyik optimalizálására van erőforrás, akkor az csak a hardverek egy részén ad előnyt.
-
#06658560
törölt tag
válasz
GodGamer5 #73 üzenetére
És miért kellene addig felmenni? A motorok megvalósíthatják, a szabvány alapján pedig amit egy adott GPU nem tud, majd emulálja, vagy számolja a CPU. Ha a Vega tényleg olyan jó lenne, mint ahogy itt te is beállítod, meg ahogy a PH-n is olvasható írások beállítják, akkor DX12 alatt el kéne vernie az NV kártyákat, mert hisz arra lett fejlesztve, azért kéne jó legyen! De a helyzet az, hogy ezt az AMD támogatta, DX12 pilot projekt és referencia programokban sem tudják bemutatni.
-
Petykemano
veterán
válasz
GodGamer5 #73 üzenetére
elméletben lehetm hogy igazad van.
A gyakorlatban azonban - sajnos - a válasz az, hogy nem fogod látni. A pascal nem fog 11_0 fölé menni és nem lesz tier 3 full bindless se. De igény se. Ezek a szoftveres igények majd akkor fognak megjelenni a programokban, amikor a geforce-ok fel lesznek rá készítve/készülve. (Addig tesztelni, meg próbálgatni, kutatni és kísérletezgetni az AMD hardverein lehet.)
Ez persze nem valami eszelősen jó terméktervezés vagy jósgömb eredménye, hanem szoftveres környezet megfelelő irányítása -
GodGamer5
addikt
Igen csak megnézném, hogy ha a feature level szintben a “dx12-ben” 11_0 fölé mennének a geforce-ok -minimum Pascalig bezárólag- hogy fosnák össze magukat, ebből is látszik, hogy nem érted,hogy miért erős kártya a Vega. Amúgy meg megnézném, mikor lesz Tier 3-as full bindless a geforceon...
-
-
gV
őstag
Akkor ezekszerint az nV a Voltában még mindig a Fermis alapokat foltozgatta?
Gondolom ha tiszta lappal kezdtek volna a fejlesztés rajtjakor nem lennének már ezek a hiányosságok.
-
válasz
Petykemano #62 üzenetére
ezt nem értem, de mindegy
-
Petykemano
veterán
Nos hát persze ez egy nvidia volta cikk topicja, de máshol is ez a jellemző: kevés szó esik a chillről, hogy mennyiben javít a fogyasztáson, miközben itt már az Ampèret várjuk.
De ok. Megfigyelem majd az amd következő bejelentését, higy megelőzi-e valami nvidia jóság 😃
-
Volta szempontjából az, Ampere szempontjából nem feltétlen, mivel lehetséges olyan új NV által fejlesztett memória cache ürítési mód, ami nem követel x86 licenszet, és előfordulhat,hogy ez miatt szerepel ez a táblázatban. Legalább is a fenti német oldal fórumán ezt fejtegetik erre a témára kitérve pár hozzám hasonló,de a szakmához sokkal jobban értő NV fanatic,
Egyébként én támogatom a sok fedélzeti valós memóriát, ha azt a megoldást választják mégis.
Túl sok még a " ha".. -
Anaren91
senior tag
válasz
t72killer #42 üzenetére
Igen azt akartam írni csak melóba vagyok és suttyomba kell írni aztán a nagy kapkodasban elirtam🙂
#58: Az a baj az egésszel hogy most elkezdhetné az amd is ugyan azt amit az nv kiberhal mindent a gpu ból és ramegy a dx 11 teljesítményre, meg alacsony fogyasztásra, de így akkor még 50 év múlva is dx 11 nél tartanánk.... Próbálnák szerencsétlen low level apikat erőltetni, de amíg az iparág többsége az nv kezében van és tolja a dx11 et addig mindenki azt fogja venni amin azok a játékok jól futnak és arra is fognak fejleszteni... Szal ez ilyen 22 es csapdája
-
-
#53: aouch, ezekszerint az új nvidia karik csak őszre várhatók, nem tavaszra
? Francba, most cserélődik a gépem és lassacskán egy komolyabb VGA-t is szeretnék bele.
-
Ebben van valami, csak a cikkben azért nem látom értelmét a Dx 12 hiányosságok okfejtésének, mert nem rég látott( dec 17.) napvilágot ez a nem hivatalos road map , ami lehet , hogy fake, de a GPU neve is(GA102-108) már az Ampere-re utal és ebből kifolyólag lehet ez lesz az egyetlen és utolsó gamer Volta kártya a piacon.
Ampere nem biztos, hogy kiherélt Volta lesz, 12 nm en jön, és sok mindent nem tudunk még róla, mit fog támogatni és mit nem.persze benne van a pakliban , hogy marad a Volta, de Én személy szerint kétlem...
-
válasz
Petykemano #50 üzenetére
Szerintem az NV-nek nem nagyon van ilyen stratégiája, s ha van is, nem ez a fő tényező. Szimplán csak a piaci részesedés okozza a jelenlegi helyzetet. Az AMD hiába ugrál, mint a kiskutya, túl kevés ahhoz hogy az egész játékpiac fejlesztőit befolyásolja.
-
-
Nemrég még azt lehetett olvasni, hogy a Far Cry 5 mellett a Wolfenstein II is támogatja a Rapid Packed Math-et, vagyis a 16 bites pontosságot. Ráadásul PlayStation 4 Pro-n is. Ez az információ akkor végeredményben fals volt?
-
jaj ne írj ilyeneket mert az alattad lévő tag nem érti az iróniát.
Szerintem az érkező NV széria szempontjából nem mérvadó ez a kártya, már egyre több infó kering a consumer vonalon Ampere-ről..
Kérdőjeles a Volta gamer szegmensbe való behozatala egyenlőre,de ha jön is, akkor biztos hogy erősen át lesz alakítva.
DE azért tényleg kurv@ gyors -
-
Anaren91
senior tag
Tudom hogy kb semmire nem volt jó az a teszt néztem én is ma másikat, nameg igen consumer változat kap driver támogatást satobbi ezt csak hozzafűztem hogy azért már pár kártya megfordult a keze alatt és hát na ezzel zárja le a videót hogy perpil gamingre nem érdemes kiadni a Pascal v ért 3k dodót
-
Jövőre meg különben is gddr6-tal fogják szerelni a menőbb nvidia grafikusokat, szóval nem lesz hiány memsávszélből.
-
tibaimp
nagyúr
válasz
t72killer #12 üzenetére
Ott a pont!
Sajnos a vega nem lett jó, legalábbis a játékos piacra. Hozott egy csomó újítást, de kb semmi nem használja azokat ki, a fogyasztása meg vicc kategória. Azt nem értem, hogy az amd miért erőlteti az a szar hbm-et a consumer kategóriában. Az Intel meg az nv bezzeg a szerver vga-kban illetve öntanuló csipekben használja csak, ahol megfizetik, a gyártási nehézségek nem okoznak hiányt, megoldható a hűtés, és a gddr5 és gddr5x sávszéle már kevés.
-
kpal
nagyúr
Bányászok vinni fogják elég szépen .
-
válasz
GodGamer5 #36 üzenetére
Mondjuk úgy, hogy elhiszed a marketinget....
Az a"múlt", az 1070 TI pl a For honor dx 12 tesztjében hozza a vega 64 Stock verzióját, Destiny 2 ben pedig a cikkben említett Titan V 88 átlag FPS-t produkál a vega 64 55 FPS hez.., vagy Vulkan alatt leduplázta a Vega 56- 64 kártyát.( 71 / 132)
Hidd el nekem addig jó az AMD nek míg van mire hivatkoznia, mert itt TIER 3 bekötéssel és Dx 12/ Vulkan alatt már nem nagyon lesz mire fogni a lemaradást... -
GodGamer5
addikt
válasz
[CS]Blade2 #26 üzenetére
Csak az a baj, hogy az Nv jelene már évek óta tart,- sőt ez inkább már a múlt- és ki tudja hány évig fog még tartani, ha így haladunk.
-
-
leviske
veterán
válasz
Petykemano #33 üzenetére
"Csak kevésbé sikeresen."
Így is meglehet fogalmazni, hogy a GCN óta várják, hogy a szájukba repüljön a sült galamb.
-
Petykemano
veterán
válasz
[CS]Blade2 #26 üzenetére
Hogy jobban megértsd, próbáld úgy nézni, hogy nem választod le a szoftveres környezetet a hardvertől. Az nvidia nem csupán hardvergyártó, aki elképesztően jó érzékkel állítja össze az adott évi hardveres képességeket, ami pont kiválóan passzol az azévi szoftverekhez. Az nvidia fejleszti a drivereket is, valamint jelen vannak a fejlesztőknél is szakmai és pénzügyi támogatóként is (TWIMTBP)
Persze ezzel nem azt mondom, hogy minden döntés meghozója az Nvidia, de nagyonis igyekszik azon, hogy ne történjen olyan szoftveres váltás, amire az ő hardvere nincs felkészítve. Nagyonis tudatosan törekszik arra, hogy ami az ő hardverében csak 2-3 év múlva lesz benne, az pont 2-3 év múlva kerüljön kihasználásra szoftveresen. Se nem korábban, hogy ne tudja a hardver, se nem később, hogy a hardverben felesleges tudás ne legyen.
Természetesen ugyanezt csinálja az AMD is. Csak kevésbé sikeresen.
-
érdekes cikk lett abu, amiben kitértél és kiemeltél minden negatívumot a kártyával kapcsolatban.Mit is vártam...
Továbbra sem játékra adták ki ezt a kártyát és nem ez lesz a gamer Volta, ha lesz egyáltalán ilyen....
Ebben tesztben [link] a minimum FPS sem túlzott probléma, az 1080 TI-re meg rávarr kb 10-20 % ot, játéktól függően.
nem hinném, hogy ez alapján kell megbecsülnünk a következő generációs Nv gamer kártyákat. -
satz18
őstag
"Btw ma néztem linus tesztjét a titan v ről igaz csak gta 5 öt nyomott gyorsba a titan xp ellen de nem volt elragadtatva az új csoda nvtol"
Abból a "tesztből" max a a CPU limit fogalmával ismerkedhettünk meg, meg kicsit láttuk Linus dobóképességét, de a kártyáról értelmes dolgot nem tudtunk meg.
Persze voltak értelmes tesztek is. pl: [link], itt pont azt a minimum fps problémáét feszegetik, amiről ABU is beszélt.
-
-
berVi
senior tag
Az ilyen cikkeknel nem tudom eldonteni, hogy Abu mindenkit expert-nek nez, ezert nem erzi ugy, hogy magyarazatra szorulnak azok a fogalmak, amiket utana 2 bekezdesben taglal, vagy o sem erti az eredeti angol cikket, ugyhogy inkabb csak tukorfordit, aztan lesz ami lesz.
-
leviske
veterán
válasz
[CS]Blade2 #26 üzenetére
"Ezzel nem lassítja a fejlődést, hanem optimalizálja."
Fejlesztettél már játékot? Vagy bármit. Hogy a fenébe teszteled a kódod, ha nincs alá hardver? Miután van hardver, onnantól kellenek hónapok vagy akár évek, mire annak tényleges látszatja van. Ráadásul a DX12, vagy még inkább a Vulkan és Metal egyfajta paradigma váltást követel fejlesztői oldalról. Ez nem történik könnyen.
-
[CS]Blade2
addikt
Szerintem az Nvidia csinálja jól, hogy mindig arra épít ami idén a legjobb, így a jelenben mindig a legoptimálisabb az adott feladatra.
Ha olyan dolgokat építene be a kártyáiba, amit semmi nem használ, akkor gyengébbek lennének a valós felhasználás alatt.
Tökéletesen elég lesz 2-3 év múlva berakni azokat a dolgokat, amik 2-3 év múlva kellenek.
Ezzel nem lassítja a fejlődést, hanem optimalizálja.
A játékokat kellene 1 nap alatt megírni, hogy mindig a legjobb megoldást tartalmazzák. Ezzel a tempóval, mire elkészül valami, ami jobban futna úgy, akkor beteszik a következő szériába.Minden ilyen előre rohanás bukta. Pl.: az első 4K-s TV-k már most elavultak, miközben l***sz 4K-s anyag van.
Az ilyenből látszik, hogy az Intel és az AMD mostani megoldása elavult lesz, mire hasznos lenne, még, ha ez egy jelentéktelen apró dolog is.Az lenne a legjobb megoldás, ha minden szereplő évekre tervezve konzultálna az ilyesmiről, hogy mikor mire kell fejleszteni.
A felhasználó is jobban járna. -
leviske
veterán
Szerintem olyan játék, hogy "csak" DX12-es, már nem lesz. Mikor eljön az idő, hogy a fejlesztők nem használják már egyfajta vezérfonálként a DX11-et, akkor célszerű lehet eleve Vulkan-ra portolni. Az iparág komolyabb tagjai a Vulkan mögött állnak és az olyan tagoknak, mint az Intel és nVidia, sokkal inkább biztosított a beleszólás lehetősége. Már a HLSL sem szól a Microsoft mellett, hiszen ott a SPIR-V, ami meg lehetővé teszi a MSL támogatást.
(#24) Raysen623: Hát, ő. A multiplatform játékok most inkább a DX11 elvek kimaxolására játszanak mind konzolon, mind PC-n. A Sony-nak vannak érkezőben olyan címei, amik ennek az egész low-level dolognak a lényegét elkezdik kihasználni.
-
Raysen623
addikt
-
-
-
cyberkind
félisten
-
Abu85
HÁZIGAZDA
válasz
t72killer #15 üzenetére
Ha így működik egy program, az már rég rossz. Ma már sokkal inkább job rendszerek vannak a motorokban, vagyis elindítanak egy munkát egy szabad erőforráson, az lefut és jön a következő munka. Így a skálázódás állandó, vagyis ha négy magod van, akkor négy magot próbál használni, ha 16-magos a procid, akkor pedig 16-ot.
AZ NV megoldása igazából az API szemszögéből nem rosszabb. Ugyanúgy fog működni egy DX12-es programnál, csak van egy CPU oldali API a meghajtóban, ami elvégzi a GPU helyett a bekötést. Kell egy kis plusz erő itt és nagy hátrányt nem kapsz. Nem kell tehát arra gondolni, hogy ez a fajta emuláció egy halott dolog. Ennél például az is nagyobb probléma, hogy az erőforráshalmaz támogatása limitált. -
-
Kérdés, hogy ez a "procierő" ugyanazt a szálat foglalkoztatja, amire a játék is leginkább nehézkedik, vagy pl abban a 6magosban szépen meghúzódik az 5.-6. magban, mialatt az AI/egyebek foglalják az 1-4. magokat?
Az új procikkal és VGA-kkal jövő tavaszra jó lenne egy CPU-VGA párválasztó teszt, nagyon régen volt már
.
-
Dtomka
veterán
válasz
Kristof93 #10 üzenetére
"Egy fecske nem csinál tavaszt."
De valamit mégis csinált, hiszen a Mantle majd vulkán api is életre kelt."önző gondolkodással"
Ezt most rám érted?Igaz amit írtam vagy sem? Az amd oldalon a HD7900 sorozat már támogatta a dx12 -t. Akkoriban még az nvidia sehol nem járt ezen a téren.
És, most, hogy már Ők is felzárkóztak remélem a következő játékokban a Dx12 már túllépi a dx11-et mint látványban és föleg teljesítményben.
-
Az AotS nem igazi DX12? A 1080 (sima, nem ti) abban is hozza a vega 64 szintjét.
És ez PH-teszt, aligha vádolhatjuk őket NV elfogultsággal
. Vulkan (Doom) alatt is hasonló a szitu.
#11: mondjuk az AMD nem panaszkodik vásárlóhiányra, a bányászok tehervonatszámra viszik a kártyáit...
-
[CsuCsu]
őstag
Epeszu fejleszto nem fog olyan jatekot fejleszteni, ami a felhasznalok gepenek nagy reszen nem fut. Ha tovabb akarunk menni 1-2 kikapcsolhato gimmick effektnel, a Tier 3 DX12 megkerulhetetlenne valik es eladhatatlan lesz a jatek Nvidia es regebbi Radeon tulajok szamara (Intel IGP-rol nem is beszelve).
Nvidia jol tudja ezt, es ra is jatszik. Addig nem lesz itt valodi DX12 amig az atlaguser kartyaja nem kepes ra, ez pedig manapsag az Nvidian mulik. Viszont ok nagyon nem akarnak lovat adni az AMD ala, igy inkabb maradnak DX11-en.
-
#06658560
törölt tag
Mivel már vagy hat generáció óta azt hallgatjuk, hogy tele a padlás DX12 képes hardverrel, tulajdonképpen semmi nem akadályozza meg a fejlesztőket annak kizárólagos használatában. Ahogy az AMD-t sem abban, hogy letarolja ilyen hardverekkel a piacot és agyon marketingelje magát. Aztán a valóság az szokott leni, hogy az NV megoldásai minimum nem lassabbak az AMD termékeknél.
-
GodGamer5
addikt
Na az nvidia megoldotta még pár évig a dx11 létjogosultságát... Ílyen kiherélt hardverrel nem is várok semmit, maradnak a dx11/kamu dx12 játékok. A sok nv fan meg majd lovagol rajta, hogy milyen jó a fogyasztása a voltának... A Vega meg kb elavul mire elkezdik használni minimálisan a képességeit. Vicc az egész.
-
Pipó
őstag
így is van, szar ez, nem jó semmire. "csak és kizárólag a megfelelő AMD GCN".
Aki nem veszi ne babrálja, menjen az anyja vala-hol várja!
-
Dtomka
veterán
Amíg nem lesznek csak DX12 játékok, addig nem is kell az nvidia-nak kapkodnia. De a hír örvendetes
Új hozzászólás Aktív témák
- FÓLIÁS! Inno3D RTX 4080 SUPER 16GB GDDR6X Videokártya! BeszámítOK!
- GIGABYTE RTX 5080 16GB GDDR7 AORUS MASTER - Új, 3 év garancia - Eladó!
- ASUS ROG Strix GeForce RTX 4090 BTF 24GB GDDR6X Graphics Card
- ASUS RTX 5080 16GB GDDR7 TUF GAMING OC - Új, 3 év garancia - Eladó!
- 27% Számla! GIGABYTE RTX 4090 GAMING OC 24G GDDR6X Videokártya
- LG 65C2 - 65" OLED evo - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox!
- BESZÁMÍTÁS! ASROCK H310CM i5 8500 16GB DDR4 960GB SSD RX 5700XT 8GB Rampage SHIVA Zalman 600W
- Törött, Hibás iPhone felvásárlás!!
- ÁRGARANCIA! Épített KomPhone Ryzen 5 9600X 32/64GB RTX 5070 12GB GAMER PC termékbeszámítással
- 126 - Lenovo Legion Pro 7 (16IRX8H) - Intel Core i9-13900HX, RTX 4080
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest