Hirdetés
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- OLED TV topic
- Mini-ITX
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Bluetooth hangszórók
- Kormányok / autós szimulátorok topikja
- Hisense LCD és LED TV-k
- Épített vízhűtés (nem kompakt) topic
- ThinkPad (NEM IdeaPad)
Új hozzászólás Aktív témák
-
válasz
cyberkind #32169 üzenetére
Ennek már több köze van a CPU-hoz, lehet az a limit. De ugye az a helyzet, hogy az átlagos konzolosok telibetojják az fps-t, így feleslegesnek tartják a fejlsztők a 60+ fps-t. Ha van is hozzá CPU, lehet másra költik el azt, nem a fps-re. Én se vennék konzolt pont emiatt, mert nem céljuk a 60 fps.
-
Ez hatalmas bullshit, hogy a konzolokban kevés a CPU. Ez nem asztali PC, egy konzol jóval kevesebb CPU-val is elvan, mert nem korlátozza az API. Az Xbox One X meg PS4 Pro félgeneráció ezt jól illusztrálja, hisz 4 év után a CPU magokon csak 30-40%-nyi órajelt emeltek, miközben a GPU-k teljesítménye 2.5-4x-ére nőtt.
-
válasz
huskydog17 #32135 üzenetére
Ha megnézed, akkor nem minden kártyánál van hatalmas PCB, s ha van is, akkor szerintem szerintem a nagy része tök üres, vagy combos VRM van rajta. De a HBM-nek az az előnye megmaradt, hogy jóval olcsóbb a nyák, mivel a memóriabusz nincs rajta.
-
válasz
Petykemano #32090 üzenetére
Öhm, az olcsó termékek kisebb lapkákat tartalmaznak, ergo ugyanahhoz a mennyiséghez jóval kevesebb gyártókapacitásra van szükség. A Vega meg ugye jó nagy lapka.
-
válasz
Petykemano #32098 üzenetére
Az árazása szvsz pont azt igazolja, hogy a gamer piaci igényt rosszul mérték fel. Ha tudták volna, hogy nem tudják ellátni a gamer piacot elég kártyával, akkor drágábban adták volna.
-
válasz
Petykemano #32026 üzenetére
Az AMD-nek mindig volt baja az arányok terén:
GCN1: A Pitcairn vs Tahiti viszonya érdekes, utóbbi jóval gyorsabb is lehetne a CU-k alapján, de nem elég ugyanaz a frontend / backend.
GCN2: A Hawaii a Tahiti-hez képest frontent- és backend-duplázás a +40% CU mellé (kb egy dupla Pitcairn), de valahogy mégsem annyival gyorsabb. WTF.
Kistesónak maradt a Tahiti.
GCN3: A Tonga leváltja a Tahiti-t, a Hawaii-ból örökölt overkill frontenddel, amit nem tud hasznosítani. A Fiji egy CU-val telepumpált Tonga, dupla ROP-pal, számok tekintetében egy dupla Tahiti. És fail.
GCN4: A Polaris ugyanaz a recept, mint a Hawaii, csak magasabb órajeleken, így ugyanaz kevesebb CU-ból és felezett ROP-ppal is megvan. De nagytesó nincs...
GCN5: Jön a Vega világot megváltani, de pofáraesés Fiji módra, mivel a wunderfeature-ök nincsenek kihasználva.
-
Szerintem tök egyértelmű, hogy az AMD a GloFo-nál fog maradni, ugye anno az a saját fabja volt, nagyon közeli kapcsolatban vannak, ez pedig nagyon nem elhanyagolható. A 28nm-rel elég komoly gondok lehettek, mert a GCN-eket a TSMC-nél gyártották, viszont a 14nm eléggé bejött. A linkelt cikk után pedig nem sokkal kiderült, hogy a GloFo-nál lesz egy 12nm halfnode is, s ezt jövőre az AMD használni fogja. Meg 2019-től a 7nm-t is, ami a TSMC 7nm-ével ellentétben nagy teljesítményű lapkákra lesz kihegyezve. Csak oldják meg azt, hogy legyen elég GPU, gondolom most azért nincs, mert a CPU-kra koncentrálnak, az jóval nagyobb piac.
-
válasz
keIdor #24773 üzenetére
A bolsevik AMD-mozgalom hamarosan megváltja a világot, halad az 5 éves Crimson-terv, a vöröshadsereg a GPUOpen-puccs keretében már sikeresen beolvasztotta a forráskódokat a TSZ-be, az utópia nincs messze, hamarosan mindenki Vega lesz.
Az NV logóban lévő Geforce Experience nagytestvér szeme pedig eközben vigyáz az überalles PC Masterrace-re, hogy ne higyjék el a vörösek hazugságait, halál a hardver-fogyatékos konzolokra, már zajlik a kétfrontos Middle-war, a Intel GPU-k már a gázkamrákban vannak, a Gameworks hadsereg tankjai pedig már lapítják a gyengéket sokmillió Pascallal.
-
Én anno az NV-t ismertem meg az Intelt. Celeront akartam venni AthlonXP helyett, igazi hülye voltam. Aztán kiderült, hogy a másik gyártó jobb, nem kell félni. Ati-t meg egyáltalán nem is ismertem, egyértelműen NV vga-t választottam (MX440
), hisz azelőtt is az volt (TNT2). Pár évre rá egyik haverom mondta, hogy a 9550 az tökjó, 9600 XT szintre lehet húzni (napersze
), így ismertem meg az Atit.
Abból indulok ki, hogy az AMD miatt sokkal többször fikázzák, mint istenítik a konzolokat, szerintem ez jó alap.
Nincs ennek semmi összeesküvés illata. Mióta van marketing, az emberek szeretnek kötődni gyártókhoz / márkákhoz, aztán ezt racionalizálni. Ez nem csak NV vs AMD viszonylatban igaz, csak most ez a téma. Az AMD a második gyártó, s egyben az utolsó is. Jóval kisebb piaci részedéssel, termékválasztékkal, CPU fronton gyenge teljesítménnyel. GPU-ban jók, van faja márkanév is, de valamiért mégsem úgy megy a biznisz, mint kéne. Béna a marketing. Jó marketinggel a semmiből is nagyon sokat el lehet adni, lásd ófaubé.
-
válasz
Solymi81 #24763 üzenetére
Nem ez a fő probléma persze. Arról beszélek, hogy az emberekben nagyon benne van az, hogy az AMD az valami utolsó dzsunka gyártó, vagy épp sosem hallottak róla. Ha picit jobban benne vannak a tech-ben és valami eszközben megtalálják, akkor rögtön elindul mindenféle mondvacsinált hibák keresése, hiszen nem létezik, hogy ez a nóném cég jót tudna gyártani. Az embereknek ugye fekete-fehér ellentétek, szélsőségek kellenek a winner oldalra álláshoz, hogy tudják, jól döntöttek. Az egyiket isteníteni kell, a másikat meg lenézni. Lásd autóknál, amikor a BMW slusszkulcspörgetők fújnak pl a Mercire, hogy az szar.
Rendes marketing kéne az AMD-nek ezzel teljes mértékben egyetértek, szerintem a nagyköltségvetásű AAA játékok piaca az kevés, legalábbis úgy tudom pl az eSportot az NV nyomja nagyon, az AMD nem, pedig abban rengeteg a lehetőség, a jövő a social marketing.
-
válasz
Solymi81 #24759 üzenetére
Ha rá is jön a júzer, akkor láttuk, hogy az megy, hogy azért vannak "problémák" (alacsony felbontás, fps, stb), mert AMD-s kvarcjáték. Kész, rá van fogva. Fel sem vetül, hogy az MS vagy a Sony kért olyan hardvert, az AMD csinálhatott volna erősebbet is. S erre most végül reagáltak is, jönnek a "pró" konzolok.
-
Nem zavar mert nem volt így. Rámutatott, hogy rosszul értelmezett egy cikket, s meg is indokolta mit. Most nem szabad leírni, hogy nem volt képes szöveget értelmezni, hanem helyette a saját vízióját vetítette rá? Egyébként is, mit számítana ez? Ha az egyik fél elkezd személyeskedni, akkor másik jogosan személyeskedhet vissza? Most második bekezdésed pont színtiszta személyeskedés, tehát most már nekem is lehet, hisz úgyis te kezdted? Tiszta óvoda.
-
válasz
huskydog17 #24721 üzenetére
Heh, ha elfogyott az érv, akkor el kell kezdeni az érvelést leminősíteni? Külön vicces, hogy pont a politikában divat ez az általad javasolt elhatárolódás, azaz csak azzal szabad "vitatkozni", akinek a véleménye semennyire vagy csak kicsit tér el a tiédtől.
Hányingerem van ettől a 21. századi "vitakultúrától".
-
-
válasz
cyberkind #24544 üzenetére
Hát Te tudod neked mi a jó. Szerintem amúgy a DoF az egy tök jó effekt, sokat ad a realitáshoz. Csak már oda jutottunk, hogy elkezdte az embereket zavarni a szép grafika, mert elérkeztünk ahhoz a ponthoz, ahol már elég közel vagyunk a fotorealistikussághoz, hogy zavaró legyen, hogy nem az (uncanny valley).
-
Ez világos, de attól még nem azt a grafikát méred, amit szerettél volna. Nem tudod detektálni azt, hogy X VGA-nál a játék VRAM limites. Másrészt a játékosok részéről meg menni fog a sárdobálás, hogy ronda homályos a játék maxon, pedig valójában csak kevés a VRAM a VGA-jukon.
-
-
Miért? Legalább van valami, amíg nem jön a hamm-hamm. Ráadásul kezd feljönni a multiGPU mióta DX12-vel sokkal egyszerűbb implementálni. Ma sokkal több létjosogultsága van egy két GPU-s kártyának. Ezelőtt még úgy kellett a játékokkal szöszölni, hogy legyen valamennyi skálázódás.
-
válasz
Petykemano #24421 üzenetére
Szerintem egy tégla, két Polaris GPU-val, legalábbis hülyeség lenne a Vegának nem 5xx nevet adni.
-
válasz
Ren Hoek #24305 üzenetére
Légyszi linkelj valamit, ami szerint brutális grafika meg általános mindenhol hatalmas gyorsulás lesz az új API-któl. Ez csak primitív hozzállás szülte félreértések miatt van, ezért megy ez értelmetlen károgás meg hiszt hogy süllyed a színvonal.
Az AotS-nál csak a felületet kapargatod, annak a techdemo-jellegű játéknak pont az a lényege, hogy rengeteg egységgel képes futni millió effekttel, anélkül, hogy az API komolyan korlátozná. Maga a játék engem sem érdekel, s szerintem se szép, de nem károgok ezért, mert tudom, hogy nem erre gyúrták ki.
-
válasz
Ren Hoek #24284 üzenetére
Ehhez a demóhoz szoftver sem ártana. Lehet nem véletlenül nincs, mivel komoly kutatások kellenenének ahhoz, hogy egy ilyen komplex alkalmazást összedobjanak, már ha egyáltalán most van ár erő.
Ezt az egész minden explicit apis forradalmat olyan szinten félreértetitek, hogy hihetetlen. Nem lesz holnap tánc meg zárcsökkentés, és nem kell rohanni a boltba az áemdé kártyákért. Ez az egész legfőképp a fejlesztés megkönnyítéséről szól, ami a felhasználóknak közvetetten előnyös.
A Cudára az AMD már válaszolt, elkészítette a saját fordítóját, amivel könnyen lehetséges a CUDA programokat futtathatóvá tenni a Radeonokon. Ez elég nagy pofon az NV-nek.
-
válasz
#85552128 #24258 üzenetére
1. De most ez miért lényeges? 10 dollárral többe kerül a gyengébb XO chip, mert az MS az ESRAM-mal próbál a PS4 elé kerülni, persze ez nem sikerült. Most lapátolják ki a semmire a pénzt.
2. Elég jelentős pénz jött be az AMDn-nek a konzolokból, ez tény.
3. A legolcsóbb verzió kb 1 jaguár mag + 1 cu lett volna, ennél azért picit többet tud az XO. Amúgy lásd 1-es pont.
4. Ez olyan tipikus semmisosemelég hozzáállás. Ha a DX12-t nem hozhatnák át, még nagyon baj lenne. -
válasz
#85552128 #24255 üzenetére
1. Így sem releváns.
2. Miért kéne ettől pozitívnak lennie? Sok pénz jött be, el is költötték. Baj?
3. Legolcsóbbat? Custom chipből nincs olyan, hogy legolcsóbb, mivel nem konkrét termékek körül választasz.
4. A DX12 kvázi az XO-ról jött. A SM 6.0 miért ne jöhetne szintén így? Az MS érdeke, hogy a PC piac menjen, így a legjobb, ha a shaderek egy az egyben átjöhetnek. -
válasz
#85552128 #24252 üzenetére
1. Hogy jön ide a Sony? Vagy ez most valami überelés-verseny?
2. Jóval többet, mint amennyit a többiek a korábbi konzolok után.
3. APU-t akartak, az AMD tudott csak ilyet adni. Nem pénz kérdése volt.
4. Ööö, erre mit lehet írni? Tartom a színvonalat: Ne beszélj hülyeségeket. -
válasz
Peat;) #24218 üzenetére
Általásságban értem, olvass vissza. Arról volt szó előttem, hogy ha egy cégnek nagyobb a piaci részesedése, biztos jobb terméket is gyárt. Hát nem. Az NV és az AMD is ugyanolyan jó termékeket csinál, csak az NV-nek a marketingja sokkal jobb, ennyi.
Az AMD gyűlöleteddel nem tudok mit kezdeni, az egyéni szoc probléma. Én meg az NV üzletpolitikáját utálom, de nem írom le ötezerszer.
-
válasz
Ren Hoek #24213 üzenetére
A júzerek nem a fogyasztás miatt vették a Maxwell-t, hanem azért, mert az NV volt jobb. Az egységsugarú vásárlónak nem sok fogalma van arról, hogy mit vesz, max a dobozon lévő dolgokat látja meg a marketinget, jobb esetben benchmarkokban lévő fps-eket. PH!-n is a tesztek utolsó oldalának van messze a legtöbb oldalletöltése.
Az a baj, hogy a legtöbben túl naivan vagy türelmetlenül állnak ehhez hozzá. Nem azonnal varázsütésre lesz ebből egy halom teljesítmény. Ezért hülyeség csak ezt figyelembe véve AMD-t választani. Másrészt amíg NV-re is optimalizálnak, addig nem is lesz nagy különbség. Harmadrészt pedig még a nagy oldalak se tudnak normálisan mérni, ugye az új apik alatt nem használhatók a régi benchmark toolok, így az eredmény pontatlan lesz. De a tendencia látható, általában NV-n lassul az új API, míg AMD-n gyorsul. Jelenleg még lehet választani a régi API-t, viszont amint a Windows 10 elterjed, nem fognak többé DX11-re fejleszteni.
Nekem a Frostbite 3 2013-ban áll leejtős volt (a BF4 pár órás "játékélménye" más kevésbé
), pedig az csak DX11. Azóta meg nem igazán van hova fejlődni. Vagyis lenne, csak ott az uncanny valley, s emiatt sokkal nehezebb a feladat, mint régen, amikor még közelébe sem voltunk ennek a rejtélyes völgynek. Pl ott a DoF, ami egy tökjó effekt, de csomóan kikapcsolják, mert zavaró, túl reális. Így próbáljanak reális grafikát csinálni. Semmisejó, a játékosnak fogalma nincs, hogy pontosan mit akar, csak legyen jobb. Legyen tánc. Meg zárcsökkentés.
-
válasz
Ren Hoek #24209 üzenetére
Miért lenne volna tévút? Az kimaradt, hogy az első két GCN generáció elég nagy pofon volt a Ferminek meg a Keplernek, a két új konzol erre épít, új apikat hozott?
Ekkora probléma lenne, hogy a Maxwell óta +30% fogyasztás? Bezzeg a Fermi idején ez senkit sem érdekelt. A GCN ugyanazt tudja, ugyanazon az áron, más különbség nincs a tudást leszámítva, ami az új apik alatt ad egy kis boostot. Annyi probléma van, hogy jelenleg épp nincs kártyájuk a felsőkategóriában, mert megcsúszott a Vega. De ebből arra következtetni, hogy a GCN hülye ötlet volt, az egy baromság.
És mire írod az API-t, ha nincs hardver? Mantle-t is úgy kellett letuszkolni az MS torkán, hogy kiadja a DX12-t. Aztán most meg a GPUOpen / AGS megy ugyanígy a SM 6.0-ért. Hogy lehetne másképp, konkrétan?
-
A piaci részesedés nem csak a terméktől, hanem a marketingtől is nagyban függ. Sikeres termék != jó termék.
Ez egy szakmai topik. Ha nem érdekel a technika, akkor nem kell hozzászólni, mivel nincsenek érveid.
Egyébként meg nem mondtam, hogy AMD-t kell venni, nekem se az van. Ezt is valahogy mindig sikerült idekeverni, ahogy a fanboyságot is. Ez az egész már olyan, mint a politika, csak itt zsidózás meg nácizás helyett a fanboyozás, abuzás meg zöldszemüvegezés megy.
-
Sose fogják (akarni?) megérteni miről beszélsz. Alapvetően a mai helyzetet veszik alapnak, hogy az NV-nek nagyobb a piaci részesedése, így csak az az út lehet jó, amit az NV jár. Az is baj, hogy az AMD nem elég pszichopátiás működésű cég, inkább jövőtálló, rugalmas architektúrát csinál, ami a fejlesztőknek kedvez, stb. Ha pedig minden érv elfogyott, akkor jön a primitív hozzáállás: nem érdekel a jövő meg a technoblabla, most jó minden NV-n, kit érdekel az AMD?
-
válasz
Ren Hoek #24095 üzenetére
A legutóbbi infók szerint a Radeon Pro SSG prototípuson két db M.2 SSD van. De egyáltalán nem tartom elképzelhetetlennek azt, hogy forrasztva lesz, mivel a szabványos interfészek nem elég gyorsak. S akkor ugyanott vagyunk, mint HBM előtt, csak RAM helyett NAND chipek lesznek a HBM-es GPU körül.
-
válasz
schawo #23821 üzenetére
Mondtam, "kevésbé melegszik". Vagy pl alig melegszik. De az, hogy hűvös az hülyeség, mert nem az. Legalábbis a hűvös egy abszolút fogalom, az enyhén hideget jelenti. A hűvösebb szóból pedig a hűvösség következik, tehát az se jó. Nekem ez ilyen proli fogalmazásnak tűnik, mint amikor a 2.1-es bögreszett-júzerek azt mondják, hogy remeg a padló a méjjtől.
Pedig ez nem igaz, legfeljebb csak rezonál (pl fafödém esetén), aminek egyébként nem is kéne célnak lennie.
Na mindegy, ennyit a szavak valódi jelentéséről, nem szándékom ezen pörögni, csak megjegyeztem.
Pedig nincs olyan nagy különbség, valós fogyasztás terén sem. 120 és 160 watt.
Nem létezik, hogy az a +40 watt ennyit számítana. A 470 stock az meg majdnem ugyanannyit eszik, mint az 1060. Szerintem az esetedben az AMD-n egy elcseszett hűtés volt.
-
válasz
Kolbi_30 #23807 üzenetére
Egyik kártya sem hűvös, max kikapcsolva. Legalábbis nincs 20 °C alatt hőmérsékletük. Akkora baromság ez a hűvösség. Kevésbé melegszik. Nincs olyan, hogy hűvös kártya, nem tudom ki kezdte ezt, de ez egy nagyon hülye kifejezés, aminek semmi értelme.
Egyébként az 1060-t azért valamivel könnyebb lehűteni.
-
Valóban, a TDP % alapján számolt fogyasztásnak már van köze a valóshoz. De azért nagyon pontosnak nem nevezném. Meg kérdéses, hogy csak a GPU vagy a RAM is benne van-e.
Az AIDA64 FPU tesztje az úgy tudom AVX, és az alatt 40 wattot mutat a szenzor. Kevesebbet, mint a notimnál.
-
Azt hittem elég nagy hülyeséget írtam, hogy ne vegyetek komolyan, de látom még is sikerült.
Ez az egész szoftveresen mért Watt dolog kamu. Nálam a GTX 970-nél szőrös fánk alatt a AIDA-ban lévő GPU VRM nevű szenzor 60 watt körül szokott lenni, amikor 165 wattos a kártya. Nem is nagyon értem, hogy ez mire való, ha hülyeséget mutat. CPU-ból 84 wattosom van, de a "mért" érték ennek közelébe sem szokott lenni, akármit eresztek rá.
-
válasz
Ren Hoek #23680 üzenetére
Ja hát persze, de még mindig jobb a gameworksnél.
A GPUOpen legalább megágyaz az SM 6.0-nak, igaz az vagy 2 év mire elterjed. De amúgy a DX12 is unfair az NV-vel szemben, szóval nem csak az van.
Az NV-nek a DX12 miatt muszáj AMD irányba mennie, vagy legalábbis valahogy követni a szabványt. A Volta úgy tudom az AI-ra fog ráfeküdni, elvileg nem lesz okos. De persze ez csak spekuláció.
Az AMD-re ráférne azért valami, eléggé mélyponton van piacilag.
-
válasz
Ren Hoek #23677 üzenetére
Az AMD mindig nagyot harap technológiában, csak sosincs hozzá szoftver. De azért jó látni, hogy ez ellen végre tesz valamit, pl GPUOpen, amit azért használnak már rendesen.
A Fijivel nem a 4 GB (volt) a gond, hanem az, hogy a specek alapján bőven rá kellett volna dupláznia a Tongára / Antiguára, befogva a 980 Ti-t. Sajnos ez nem sikerült. Egyébként jó kártya lehetne, bár a 4 GB ma már elég sovány, de hát a HBM1 ennyit tud.
-
válasz
keIdor #23630 üzenetére
De az R600 nem is tudott DX 10.1-et. És amúgy származott valami hátrányod abból, hogy 4xxx AMD-t választottál? Ha nagyjából egyforma két kártya, akkor a proféciát azt választom, hisz a másik nem ígér semmit. Mondjuk a 4870 még olcsóbb és gyorsabb is volt, mint a 260 anno.
Pl ha a 480 és az 1060 között kéne választanom (és gyártófüggetlenek a játékok, amivel játsztom), akkor az előbbit fogom, mert ott van prófécia. Hátha bejön, vesztenivaló meg nincs. Persze ha fontosabb a melegedés / fogyasztás, akkor gondolkodás nélkül NV választok.
Szerintem egyáltalán nincs gond a próféciákkal. Csak helyén kell kezelni, mert az alapján Pl 480-at / Furyt venni, hogy majd odaver az 1070 / 1080-nak, mert DX12 / AGS 4 / anyámkínja, na ez tényleg hülyeség.
-
válasz
->Raizen<- #23587 üzenetére
BF1-ben van beépített bench, s ha igen, azt használták?
-
Szerintem nem egy dologról beszéltek. Nem a 460 lapkához képesti teljesítmény kevés, hanem túl gyenge lapkát terveztek hozzá. Hatalmas a lyuk a 470 és 460 között, a 460-at szvsz is 450-nek kellett volna nevezni, vagy a mostani RX 470-et kellene RX 480 Castrated Editionnek nevezni.
-
Az elmúlt pár nap statisztikája alapján a topikot zárni kéne, mivel csupa OFF.
-
válasz
Ren Hoek #23091 üzenetére
Fos konzolportok mindig is voltak, ne ezekből következtess egy API jövőjére. Bár erre problémára legalább lesz valamikor megoldás a SM 6.0 formájában, igaz nagyon nem mostanában.
Amelyik stúdiónak nincs pénze fejlesztésre, az úgy csinálja ahogy eddig, licenszel valami motort vagy DX11-et használ, stb; én nem látok veszélyt. Semmi sem kötelező. Arról nem is beszélve, hogy a nem AAA játékoknak nincs nagy követelményük, csak abban az esetben ha optimalizálatlanok, de ez utóbbi nem az új API-k baja.
Neked hátrányos az, hogy a kártyádra van optimalizálva a kód? Amúgy ez egy átmeneti dolog, a shader instrinsic gyakorlatilag a SM 6.0 elődje, csak gyártóspecifikusan. Előbb-utóbb minden szabványos lesz, és a hardverek felépítése is az API-hoz igazodik (régen is így volt). A korábbiakhoz képest annyiban más a mostani helyzet, hogy az API alacsonyabb szintű, s az MS a DX12-t kvázi az AMD-től vette, ami az NV-knek hátrányos lehet. De utóbbi azért nem durva, nincs az, hogy ha DX12, akkor csak AMD-t választhatsz, mert NV-n használhatatlan.
-
válasz
Venyera7 #22745 üzenetére
A Fury X is másfélszer akkora elméleti számítási kapacitást meg memóriasávszélt tudott, mint az ellenfél, aztán gyakorlatban mégis elég furi teljesítménye volt.
Valami csodát fel kell mutatnia a GCN5-nek vagy magas órajelen kell járatni, különben ez kb az 1070 ellen lesz csak elég szerintem.
-
válasz
Petykemano #22709 üzenetére
Túlkombinálsz. Sokkal inkább érdemes most kiadni a 1080 Ti-t, mondjuk pontosan az 1080 és a Titan X ára közé belőve, aztán majd csökkentik az árat, ha olyan lesz a Vega. Egyébként ha lesz 4096 számolóegységes Vega, akkor szerintem nagy örülhetünk ha egyáltalán az 1080 szintjét tudni fogja.
-
válasz
Petykemano #22647 üzenetére
Még jó, hisz tett érte (Polaris) és van is honnan feljönnie.
-
válasz
Ren Hoek #22618 üzenetére
Szerintem most felesleges agyalni azon, hogy pontosan mennyit fogsz bukni. Ha most kell 1070 / 1080 szintű kártya, akkor azt vedd meg, hisz nincs AMD-s alternatíva, s nem is lesz a közeljövőben. Vega / Volta előtt eladva lehet minden bizonnyal a legkevesebbet bukni így, de szerintem ezzel nem mondtam semmi újat.
Ha 1060 / 480 közül kellene választani, akkor lenne érdemes kicsit gondolkodni, hogy inkább alacsonyabb fogyasztást akarsz / NV-s játékokkal játszol vagy várod-e messiást az AGS4 / "rendes DX12" / akármi személyében.
-
A külön kódút annyira azért nem divat, ha a shader intrinsicet kivesszük a képletből (konzolok miatt létezik csak). Persze egy olyan újféle motornál, mint a Dawn (Deus Ex) mindenképp kell a külön kódút, mert az NV-k még annyira se mennének mint most. Itt az valódi probléma, hogy az NV hardverei nem igazán barátok a DX12 apival, nem az MS ajánlások szerint érdemes rá programozni. Ez nem az NV hibája persze, hanem az MS-é, hisz pl Vulkanban nincs ilyen probléma.
S ugye hardvereket régen is az aktuális API-khoz igazították, ez nem hiszem, hogy változni fog. Most a DX12 a GCN alapján lett kidolgozva, s ehhez minden bizonnyal a Volta majd alkalmazkodni fog, hogy ne kelljen külön kódot írni, ha olyan a motor.
-
válasz
TTomax #22601 üzenetére
Hát én még mindig nem értem hogy milyen ürüggyel sikerült idehozni azokat a bugokat.
Egyáltalán nem szükséges gyártóspecifikusan optimalizálni. Ettől szabvány. A shader intrinsic pl ugye nem szabványos, az egy járulékos dolog a konzol miatt.
Az OpenGL-lel el vagy tévedve. Az elmélet szép volt, de aztán egy széttöredezett bloatware api lett a kiterjesztésekkel. Ha valami nagyobbbat akarsz csinálni benne (pl játék), ott pont hogy mindenre külön meg kell írni.
-
válasz
TTomax #22597 üzenetére
S ezek problémák biztos új API-któl vannak? Nem értem miért kéne menden problémát rájuk kenni meg idekeverni a fejlesztőket. Úgy érzem eléggé kisiklott a téma, már nem is arról van szó amiről eredetileg volt.
Látszik, az elején kisebb volt a CPU limit, meg egyre jobban gyorsul. Ez nem úgy megy, hogy hopp kész, új, szuper, de ez is milliószor ki lett már tárgyalva.
Nekem nincs több kedvem ezt folytatni, terelsz, s ugyanazok a körök mennek le.
-
válasz
TTomax #22593 üzenetére
Hát, most nem azért, de ez nem egy olyan hűdenagy bug. Persze az, biztos zavaró, de érted, csak egy réteget érint.
Milliószor le volt írva, hogy az új API-knak az előnyei és hátrányai. Ne kelljen megint, mondjuk gondolom felesleges is lenne. Ezek tények. A marketing pont az, hogy kutyának nem kell DX12, meg azelőtt DX11, meg stb. Aztán végül valahogy mégis minden jó lett.
-
válasz
TTomax #22587 üzenetére
"Hát ne haragudj,de nem.Néha egy felbontás vagy monitor frissítési probléma javítása hónapokig tart,vagy egy MultiGPU support..."
Erre légyszi muti valami példát. Nem azért, mert nem hiszem el, csak egyszerűen nem értem mire gondolsz.
"az nVnek egyszerre több csapat ír drivert, (ami több ember mint egy átlagos studió) és még így is csúszik be hiba, brand függő.Tudod mikor fognak ezek vele foglalkozni,nagyon szépen látszik máris,még abból a kis supportból is buktunk ami eddig volt..."
Szerinted a driverfejlesztők hamarabb / jobban megcsinálják azt, amire nincs közvetlen rálátásuk? Fejlesztő észlel valamit, nemjó, kommunikál, kapnak egy fejlesztői drivert, aztán ha az sem jó, akkor mehet az egész előlről. Ha nem kell átszólni drivereseknek, akkor a fejlesztő csak észreveszi, és rögtön nekiállhat javítani.
-
válasz
Peat;) #22583 üzenetére
Érdemes erre rápillantani, ez a kulcs. A két API másképp működik, más igényük van, szóval két különböző alap kell alájuk. Mondjuk azt én se értem, hogy miért nem hagyják a fenébe a DX11-et, ha szívás. Gondolom van vele még rengeteg tapasztalat ami biztos pont és érdemes kihasználni (ezért gyors meg szép); illetve nem minden támogatja a DX12-t (Windows 10 kell hozzá, pff); na meg a DX12-vel még nincs túl sok a tapasztalat, túl nagy a kockázat. De ez csak spekuláció a részemről.
Annyi biztos, hogy a Deus Ex motorja Stage 3, azaz DX12 támogatás mellett DX11-barát. A(z aktuálisan elérhető) maximumot próbálja kihozni a két apiból. Kíváncsi leszek mi sül ki belőle. Egyelőre még shader intrinsics sincs, de jelenlegi eredmények alapján DX12 prófétának tűnik.
Pedig úgy tudom, hogy még NV-re is külön optimalizált kód út van, szóval anélkül mégjobban elmaradna. Fura.
-
válasz
Peat;) #22578 üzenetére
DX12 alatt is le lehet cserélni a shadereket, csak már nem lehet nyerni vele annyit. Pl anno a Keplernél kb muszáj volt a shader csere, hogy jól menjen.
Én egyébként kicsit unom hogy ezt a DX12 driver-kérdést direkt félreérteni meg értetlenkedve ugrálni rajta. Van driver, csak kisebb a szerepe, rengeteg dolog, ami a driver feladata volt átkerült az alkalmazásba. Így nem kell olyan szinten driverből felkészülni rájuk, gyorsabb a fejlesztés. Persze pl a low-level drivert folyamatosan tökéletesíteni kell, hisz nem sok DX12 alkalmazás van még. Majd kiforr, aztán örülünk.
-
válasz
schawo #22423 üzenetére
Alapból onnan indult az egész, hogy az NV-k tuningpotenciálja igen jó. Le lett írva, hogy miért. Nem szabad?
Az egyéb paraméterek irrelevánsak, egy dologról volt szó. Nem értem miért kell idekeverni azt, hogy overall az NV gyorsabb, kevesebbet fogyaszt, stb. Ezt eddig is tudtuk.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- IFA 2025: Nem is látszik, hogy strapatelefon
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- Kínai és egyéb olcsó órák topikja
- One mobilszolgáltatások
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Apple Watch Series 10 - évfordulós kiadás
- PlayStation 5
- sziku69: Szólánc.
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- OLED TV topic
- További aktív témák...
- ÚJ Lenovo LOQ 15IRX9 - QHD 165Hz - i7-13650HX - 16GB - 1TB - RTX 4060 - Win11 - 3 év garancia - HUN
- Lenovo ThinkPad X13 Gen 2 i5-1145G7 16GB 512GB FHD+ 100% sRGB - 1 év garancia
- BESZÁMÍTÁS! Apple Macbook Pro 16" 2019 i9 64GB 1TB 5500M 8GB garanciával hibátlan működéssel
- Azonnali készpénzes AMD Radeon RX 9000 sorozat videokártya felvásárlás személyesen/csomagküldéssel
- LG 65C3 - 65" OLED evo - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest