- Computex 2024: Itt az új ROG Ally
- Nvidia GPU-k jövője - amit tudni vélünk
- iPad topik
- Amazon Fire TV stick/box
- Gaming notebook topik
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Kedvező árú Loewe WOLED TV érkezik
- TCL LCD és LED TV-k
- OLED TV topic
- Fejhallgató erősítő és DAC topik
Hirdetés
-
2024 - Íme a 23. héten megjelenő játékok listája
gp Az elkövetkező napokban érkezik a Destiny 2: The Final Shape, valamint befut iOS-re az Assassin's Creed Mirage.
-
Komolyabb készülékekkel is készül a HMD
ma Eddig belépő és középkategóriás modelleket láttunk a HMD saját neve alatt, de jönnek a konstrukciók is, például a Skyline.
-
Computex 2024: Minden a mesterséges intelligencia körül forog
ph A kiállítás fókuszát semmi sem mutatja jobban, hogy még a megnyitó zenéjét is AI szerezte.
Új hozzászólás Aktív témák
-
nagyúr
Nagyon kvantáltak ezek a teszteredmények, vagy a mérés rossz, vagy van valami szoftverhiba a háttérben (akár game, akár driver). Érdemes még várni egy kicsit az eredményhirdetéssel - és nyilván csak feledékenységből nem írtad, hogy a Tahitin is igencsak gyengén megy
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
A 780ti és a titan black a 290x ellenében jöttek, annak idején jobbak is voltak annál, ha nem csal az emlékezetem. Mostmeg egy nyíltan nv-s játékban rosszabbak 10%-al (gamegpu-s teszt) mint a sima 290. Mi ez, ha nem átkúrás?
3 (vagy több) generáció óta hasonló trendeket lehet látni - 2 évvel a megjelenés után az azonos kategóriában lévő GeForce-Radeon párosítások közötti egyensúly 10-15%-kal a Radeon javára tolódik el. Ha cinikus akarnék lenni, akkor azt mondanám, hogy a Radeonok 10-15%-kal jövőállóbbak. Hogy ennek mennyi a jelentősége, azt mindenki döntse el vásárláskor
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
... és akkor meg is van a megfejtés. Bizonyos tesztekben (amilyen volt a PCGH, ill. amilyen a Pclab tesztben a Forest) a kártyák majdnem egy az egyben a pixel throughput szerint sorakoznak fel, a memória-sávszélre alig érzékenyen. A Radeonoknak van egy kis előnyük (valószínűleg a teljes sebességű blending miatt), ill. a PCGH tesztben szerintem rossz a 780 és a Titan (classic) mérés (merthogy a 780Ti már belepasszol a mintába). Szokásos konzolport effektus - postprocessben próbáljuk szebbé tenni a PCs verziót (ie. Ultra beállítás), ami zabálja a backendet.
(#5687) Szaby59: amit írtam, az igaz a 480-5870, 680-7970 és 780-290 viszonylatban is (az 580-6970 esetében bizonyos okból nem).
A GCN 1.2 és 1.0 között azért van számos különbség - ill. a Kepler-Maxwell ugrás annyira nem drámai mértékű. Mindettől függetlenül, én nem tartom elfogadhatónak, hogy a last gen erősen csökkentet supportot kapjon - különösen, hogy a Maxwell line-up nem teljes, azaz a last gen káryák 1/3-a igazából current gen...Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
A Project Cars-ban meg ugye pont fordítva van. Felesleges ilyen nagy ívű kijelentéseket tenni egyes eredményeket kiragadva (főleg, hogy még ugyanabban a játékban, ugyanazokkal a beállításokkal is jelentősen más eredmények hajlamosak születni, ha más helyszínen tesztelünk), a szomorú (de nem meglepő) igazság az, hogy ma már sem a 7970-nel, sem a 680-nal nem mész semmire ultra beállítások mellett.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Laja333 #5710 üzenetére
A 290X és a 780Ti egymáshoz képesti mozgásáról korábban írtam, most viszont nem ezekről volt szó - én a 680-7970 viszonyról beszéltem.
Minden játék kiragadott eset. Reprezentatív eredményt akkor fogsz kapni, ha mondjuk a top10 népszerű játékot leméred 3-3 karakterében eltérő helyszínen, és az eredményekből csinálsz egy (mértani) átlagot.
(#5712) HSM: Legyünk már pontosabbak - nem a játék szívatja meg az AMD driverét, hanem az AMD drivere a játékot. Mégpedig azért, mert a a játék igyekszik azt az irányt követni, amit az AMD is bőszen propagál a Mantle-lel, csak DX11-ben sz**ik rá. A PhysX-et felesleges idekeverni, jelen esetben az csak egy fizikai middleware. A Witcher 3 pedig indokolatlanul nagy mértékben jutalmazza a ROP-teljesítményt.
Amúgy meg ld. 2. bekezdés[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Biztos megvan rá az okuk, de az is biztos, hogy ennek még gyakorlati előnyét nem láttam Hátrányát viszont annál inkább.
Azt ugye tudod, hogy ha a ROP-limit relevanciáját hangoztatod, azzal a jelenlegi megközelítésű konzolportolást támogatod? Just saying
A számtani átlag csak akkor jó, ha mindegyik játék kb. hasonló FPS-eket produkál - de akkor jó a mértani is. Viszont ha nagy az ingadozás, akkor számtani átlag esetén azok a játékok lesznek komolyabb hatással a végeredményre, ahol eleve magas az FPS. Szerintem az egy kicsit counterproduktív
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Locutus #5718 üzenetére
Szerintem rossz pillanatot választottak a cikk írói egy historikus alapú elemzéshez (ami önmagában akár lehetne korrekt is). Két olyan jelentős változás jön 2016-ban, amiből az AMD komolyan profitálhat:
- Egyfelől a DX12 / Vulcan segítségével megmutathatják, mire képes valójában a GCN architektúrájuk
- Mársrészt a HBM addigra eljuthat az APU-kig, és ezzel a gyakorlatilag döglött koncepciónak újra értelmet adhatEgyik sem garancia semmire, de a potenciál ott van, és ezzel a cikk nem számolt (nem is számolhatott). Innentől a konklúziók is nagyon esetlegesek.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Srácok, a személyeskedést próbáljuk mellőzni
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Amúgy, a potenciális csonkolást perspektívába helyezve:
- A két SM (256 ALU + 16 TEX) letiltása átlagosan kb. 5% teljesítményvesztést jelent
- A fél backend blokk (8 ROP + L2 + a gyakorlatban egy 32-bites memória kontroller) pedig kb. 3%-otNyilván azonos órajelek mellett.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Ja, a memóriabuszt nem, csak a ROP-okat, azt viszont sokkal idiótábban (ld. 5830). Amúgy állatira nem értem, mi a nagy probléma a backend megvágásával
(#5769) zoli7903: Ott valami nem kerek - az egyik tesztben a 980Ti azonos órajel és kevesebb unit mellett gyorsabb, mint a T-X. Vagy fake a teszt, vagy jóval magasabbra boostol a tesztben a kisebbik kártya, vagy power / temp limitbe fut a T-X.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Műszakilag, vagy üzletileg? Műszakilag szerintem a 970-nél megérte, itt viszont már nem - pont azért, amit írsz, túl kevés a differencia. Üzletileg viszont megéri, mert jobban kommunikálható, különösen, ha a teljes memóriamennyiséget kommunikálják, mint a 970 esetében. És amúgy ez f***ság, mert szerintem a 970-nek ez az egyetlen problémája - az OS azt hiszi, hogy van 4GB nagysebességű memória a kártyán, közben meg csak 3.5. Meggyőződésem, hogy ha a kártya 3.5GB-osnak kommunikálná magát, akkor nem lennének a beakadásos issue-k.
(#5776) Loha: a power limit emlékeim szerint a GPU-val foglalkozik, nincs benne a VRAM. De amúgy lehetséges a power limit a GPU miatt is - csak ha nem azonos a boost sebesség, akkor felesleges összehasonlítani a két eredményt.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Szerintem felesleges magyarázni a bizonyítványt, meg "vonalakkal" dobálózni - mindkét oldalnak voltak hülye húzásai. Azon meg elméletben lehet vitatkozni, hogy a flex memóriavezérlés nagyobb probléma, vagy a lefelezett ROP partíció - a gyakorlat viszont azt mutatta, hogy míg az 5830 teljesítménye néhány tesztsor lefuttatása után is rettentő összevisszaságot mutatott, a 660Ti-vel és a 660-nal egyetlen egyszer sem futottam bele ilyen problémába, pedig ezeket nem csak teszteltem, hanem több, mint 2 éve ilyenek vannak a gépben is. Sőt, tesztet sem láttam, ami ezt igazolná, de ha mutatsz egyet, szívesen megnézem, mert érdekel, mivel lehet megszívatni a flex vezérlést
A 970 pedig, leírom még egyszer, nem egészen ugyanez a probléma. A 970 gondjainak a marketing a forrása, mert szerintem az égvilágon semmi gond nem lenne a kártyával, ha 3.5GB-nak reportolná magát. Fizikailag rajta lenne a kártyán a 4GB, de a gyakorlatban csak 3.5 lenne kihasználva.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Szerintem próbáljunk meg az objektív irányba visszakanyarodni, mert ebben a hsz-ben már megint óriásira vannak nagyítva az nVidia problémák
A 660Ti esetében már hallottam olyanról, akinek az unokatestvére már olvasott ilyen problémáról, de a gyakorlatban egyetlen tesztet nem láttam, ami kimutatta volna. Minden bizonnyal azért, mert a driver úgy reprezentálja a kártyát, hogy 1.5GB-nál többet ne nagyon akarjon senki beletölteni (erre konkrétan láttam videot). Én is azt gondoltam a koncepciót elolvasva, hogy ez gázos, de a gyakorlat nem igazolta.
A 970-nél pedig miért nem megoldás a driveres korlátozás? Teljesen korrekt 3.5GB-os kártyád lesz tőle Az egy külön ügy, hogy az nVidia átb***ott mindenkit 0.5GB-tal, ezt egyénenként érdemes eldönteni, hogy lenyeli-e az áldozat - viszont ez nem műszaki kérdés. Semmi gond nincs ezzel a vágással műszakilag, ha ésszel van használva.(#5789) proci985: ja, kb. ennyi. A tisztességtelen piaci magatartást kimerítette a dolog, és egy szűk kört gyakorlatilag is megszívattak vele, de a többségnek ár/teljesítményben még mindig jó. Tanulságok értelemszerűen vannak
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Ha nem megy a driver, akkor nincs 3D gyorsítás, úgyhogy tök mindegy, mennyi a mem
DX12 és Vulcan alatt szerinted honnan tudja a játék, mennyi memóriával gazdálkodhat? Természetesen megkérdezi.
Utoljára írom le, nincs semmilyen műszaki disznóság, kommunikációs és szoftveres disznóság van. De ha már elmész paranoiás FUD irányba, akkor miért nem mondod azt is, hogy a 980-ról meg 5GB-ot fog reportolni a driver? Ezzel a módszerrel mindegyik VGA-t meg lehet szívatni.
Figyi, értem, hogy rühelled a 970-et, ne vegyél ilyen kártyát. Viszont az nem korrekt, hogy ilyen elefántot csinálsz egy nehezen előhozható problémából, amire ráadásul van szoftveres fix is - ami egyáltalán nem workaround. Egy 5%-os esély 5%-os valószínűségű jövőbeli problémáján rugózol, ráadásul egy olyan VGA esetében, ami ár / teljesítményben jobb, mint a kettővel alatta lévő árkategória versenyzői, hasonló operatív paraméterek mellett. Elég jól körülírtam, hogy mennyire feleslegesen?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Én szeretek HSM-mel dumálni Időnként - szerintem - (nem) kicsit elfogult, viszont saját gondolatai vannak, és a vita tárgyával foglalkozik a másik fél személye helyett. Úgyhogy it's all good
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Még mielőtt nagyon belelendülnénk ebbe a memóriás kérdésbe - a VRAM-mal továbbra is az OS fog gazdálkodni, a szoftvernek meg kell kérdeznie, hová írhat, ill. el kell kérnie tartományokat. Elég vicces eredménye lenne, ha nem így lenne.
Innentől kezdve elég, ha a driver "performance optimalizálás céljából" lefoglalja a felső 512MB-ot, és máris meg van oldva a kérdés.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Dehogy ír bele csak úgy - egyszerűen vagy nem tünteti fel a fizikai memóriatartományt az OS felé elérhetőnek (akkor tényleg kuka az 512MB), vagy rögtön betöltődéskor lefoglalja / megflageli / whatever, hogy ez "speciális" / foglalt memória (nem tudom, pontosan mire van lehetőség a WDDM-ben).
Igen, látszani fog a játékokban, hogy mi a helyzet. Majd ezt is megmagyarázza Jensen, hogy "we only wanted to give you the best experience possible". Ironikus módon, ebben az esetben még igaz is lesz(#5822) proci985: A legnagyobb tanulságot a tesztoldalak vonhatják le - Anandék le is írták, láttak jeleket, hogy valami nem teljesen kerek, és restellik magukat, hogy nem mentek jobban utána. Reméljük, tényleg tanulnak belőle.
Felhasználói szemmel annyi a konklúzió, hogy a harvestelt kártyáknál mindig lehet meglepetés. Meg hogy az nVidia gátlástalanul hazudik. Egyik sem új, de kicsit sikerült most rájuk erősíteni.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Fussunk neki még egyszer. Először is, az alkalmazás nem dönthet úgy, hogy a címtartomány melyik részét szeretné használni - (blokkonként) kér VRAM-ot az OS-től, ami ad neki egy handle-t, amin keresztül eléri a memóriát gyorsan, hatékonyan. Az alkalmazásnak fogalma sem lesz, hogy az adott blokk fizikailag hol van a VRAM-ban. Amit leírtam, az a maximum, amit egy normális OS megengedhet - a valóság ennél lehet, hogy "bürokratikusabb" lesz.
A driver akkor veszti el a kontrollt az ominózus 512MB felett, ha megkülönböztetés nélkül kiadja az OS-nek, mint felhasználható VRAM-ot. Akkor valóban repül a szar a ventillátorba, de ez aligha fog megtörténni. Ahogy írtam, nem tudom pontosan, a WDDM mire ad lehetőséget, de ha semmi jó megoldás nincs a terület "lepriorizálására", akkor végső megoldásként még mindig le lehet tagadni. A jogi problémák pedig kb. a tündérmese kategória - de ezt Te is írod.
A fentiekből az is következik, hogy nincs olyan, hogy "kiadod a full területet". Az alkalmazás feltesz majd kérdéseket az OS-nek a VGA-ról és a VRAM-ról, és ez alapján dönti el, hogy mennyi memóriát kér. Jobban belegondolva, lehet, hogy mindenképpen érdemes adatbázist tartani a VGA-król, mert ha a szabad VRAM-ot kérdezi le induláskor, akkor azzal öngólt rúghat. De ezt mondja meg valaki, aki programozott ilyesmit
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Azért ez rendesen ki van csavarva. Az nVidia a hibás az AI és a fizika stagnálásáért, mert a drivere sok CPU erőforrást visz el, hogy normális FPS-eket tudjon biztosítani. Ezzel szemben az AMD drivere király, mert takarékos a CPU-val, és a komplexebb játékok már közepes CPU-kkal is köhögnek (ezt persze a tesztekben a 4GHz fölé clockolt i7-ekkel nemigen látni). Szóval az AMD akkor is okos, amikor hülye. Az pedig remélhetőleg nem zavar senkit, hogy 6-7 éve is hasonló volt a helyzet, amikor még DX11 sem volt
Az a kijelentés pedig, miszerint "Szinte mindegyik exkluzív ls komolyabb konzolos játék AI-ja és fizikája túlmutat a PC-s szinten" - háááááát... szóval, hány játékot is takar a nagyívű kijelentés?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Olvasom, amit írsz, és azt tegyük hozzá, hogy az Intel drivere szerinted a legjobb ebből a szempontból - én pedig azért nem foglalkozom a kékekkel, mert egyrészt nincs releváns teszt róluk, másrészt annyira gyenge a GPU-teljesítményük, hogy az életben nem lesznek CPU-limitesek. Diszkrét GPU-k terén a két végletet az AMD és az nVidia képviseli, és ebben abszolút az nVidia-féle irányt tartom jobbnak, mert ez jobb a játékosoknak.
(#5891) Loha: hát, igen...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz bunygyi #5896 üzenetére
Én írtam nemrég ilyesmit, de nem ennyire specifikusan. Azt lehet mondani, hogy 1.5-2 év elteltével nagy átlagban a Radeonok javulnak 10-15%-ot a GeForce-okhoz képest. Hogy ennek az az oka, hogy az nVidia rögtön jó drivert ír, vagy az, hogy az AMD tovább foglalkozik az egyes generációk támogatásával, azt mindenki döntse el maga, mindenesetre ez a tendencia megfigyelhető az utóbbi néhány generációban (kivéve 580 / 6970, szegény Cayman igen hamar kiesett a pixisből).
(#5904) Abu85: Ó, az MS szerint, aki teljesen független a kérdésben, ugye?
Túl sokat nem akarom részletezni a dolgot, továbbra is baromságnak tartom azt az elképzelést, hogy az AI fejlődését a VGA-driverek erőforrás-igénye fogja vissza, de 1 év múlva ezt is meglátjuk. Írom a listát 2016. júniusra, hogy mi mindent kell meglátnunk[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Folytatás innen.
Itt nem az a kérdés, hogy melyik gyártó mászik rá a másikra, hanem az, hogy kinek (melyik vásárlónak) érdemes 28nm-en gyártott GPU-s kártyát venni. Aki 8-9 hónapnál hosszabb időre tervez, annak szerintem hülyeség. Emlékszel, hogy anno a 7970 és a 680 megjelenésekor hirtelen mennyire ósdinak tűnt a 6970 és az 580? Most is ez fog történni, csak nagyobban, mert két lépcsőt ugrik a gyártástechnológia, és új memóriatech jön. Egyedül a Fiji lesz valamennyire korszerűnek mondható, a jó ég tudja, mekkora fogyasztásával.
Ha pedig < 9 hónapra tervezel, akkor szerinted mennyi DX12-es játékkal fogsz játszani?Ezért mondom, hogy tök irreleváns ebben a generációban a DX12 az AAA piacon. Ha meg valami csoda folytán kis DX12-es játékok jönnének sokan, azok simán el fognak szaladgálni a jelen kártyáinkon is, attól végképp felesleges függővé tenni, melyik gyártót választjuk, ha egyáltalán veszünk valamit.
Egyébként te most nyugodt szívvel tudnád javasolni mondjuk a 980Ti megvételét?
Itt is az a kérdés, hogy mennyi időre. Fél évre akár igen - de nem most, hanem amikor már kijöttek a Radeonok is, és látszik, hol áll a csípési sorrendben.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Továbbra is - szerintem hülyeséget csinál, aki most 9 hónapnál hosszabb időre drága kártyát vesz, akár AMD-t, akár nVidiát. Innentől kezdve nekem nem releváns kérdés, hogy mire mész 1 év múlva vele.
A DX12 miatt lehet, hogy váratlan értékcsökkenés lesz, az új generációk miatt meg biztos - szerintem elég komoly.(#5936) bunygyi: Nem ez a megfelelő topic erre, ill. az elvárásaidat sem ismerjük. Nézz be ide.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Milka 78 #5946 üzenetére
Pont ez a lényeg - akik 9-18 hónapja breuháztak egy akkor 550 USD-s kártyára, azok időarányosan sokkal kevesebbet fognak bukni, mint akik most teszik. Ezért csak annak érdemes most a topból válogatni, aki azt mondja, hogy jó lesz, amíg jön a next gen, aztán leszarom, mennyi bukó lesz rajta. Ugyanis ennek a körnek a 90%-a úgyis cserélni fog.
(#5947) imi123: Nem csak a végletek léteznek. A barátokkal ivás költségei részben sem visszanyerhetőek, viszont a hardvereké igen. Tipikus példa, hogy most 980-at nem igazán érdemes venni, mert jó esély van rá, hogy 2-3 hét múlva olcsóbb lesz. Szóval igen, nem érdemes túlaggódni a bukót, de néha azért nem árt megállni és átgondolni, mit is vesz az ember és mennyiért.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
-
nagyúr
Az optimalizálás nem egy bináris dolog, ami vagy van, vagy nincs. Bizonyos szempontokból szerintem nagyon is optimalizáltak a GW effektek - a szűkösebb ALU / shared mem kapacitással biztosan jól sáfárkodnak. Az más kérdés, hogy ebből nem feltétlen lesz sok FPS - pl. azért, mert ráb***nak 64x tesszelációt Geralt frissen mosott hajára.
Az iparág nagyágyúi miatt én biztosan nem fogok aggódni. Aggódjon az nVidia. Ha rosszul döntöttek, akkor majd veszek a jól döntő konkurenstől terméket. Ha. Akkor. Majd.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz sayinpety #6083 üzenetére
Nehez megallapitani, am nem tunik jonak az LDS usage. Optimalizalatalan kodjaim jobbak.
Értem, viszont ha a GW nem fekszik rá a saját architektúra gyengeségeinek elrejtésére, akkor Radeonon jobban kellene fussanak a GW effektek, nem? Nyilván az überultra tesszeláció kikapcsolása után.
Amit az Intellel kapcsolatban írsz, azt még nem hallottam, de rögtön két dolgot nem is értek benne:
- Ha az Intel erre képes, akkor az AMD-nek ebben előnyben kellene lennie - minek erőlködik a PCIE-vel?
- Ha az nVidiának a cloud gaming a jövő, akkor miért érdekeltek a "teljesítményrontásban"? Csak drágább lesz nekik fenntartani ugyanazt a felhasználói bázist...(#6087) HSM: Ha az Intel ilyen IGP-ben gondolkodik, akkor lesz alternatíva a felhőcskék helyett
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Ha a GRID-jükben látják a jövőt, azt ők fogják ellátni HW-rel, tehát amit most megnyernek, azt később elég komolyan bebukhatják. Amit írsz, az akkor logikus, ha úgy gondolják, hogy rövidesen kalap-kabát.
(#6107) Televan: nekem meg az az érzésem, hogy az AMD-szimpatizánsok próbálják meggyőzni az nVidia-tulajokat arról, hogy tartaniuk kellene a DX12-től, de az nVidia tulajok többsége jelenleg szarik rá. És nem azért, mert az valami szörny, hanem azért, mert még nem időszerű. Lássunk már egy kommerciális DX12 / Vulcan játékot - szerintetek mikor jön az első ilyen?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Mármint milyen dolgok? Ha a kézzel fogható dolgokat nézzük, akkor az AMD-nek van még egy dobása (a jövő évi új szériájuk), aztán csókolom. Meglátjuk, a DX12 mennyire lesz piaci értelemben diszruptív.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
De a "dolgokról" ne úgy beszéljünk már, hogy egy orbitális "Ha"-val kezdődik a mondat Azok nem dolgok, hanem feltételezések.
(#6131) Televan: Nem dől össze, de a vásárlóknak szar lesz. Szóval igen, ránk fér az AMD sikere, én is szurkolok nekik.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz sayinpety #6137 üzenetére
Ja, akkor még egyszerűbb a történet, csak pont a másik irányból. Ha nyílt lenne az effekt, akkor mindenki kedve szerint állítgathatná a tesszelációs faktort, és a leírtak alapján x16 (de legkésőbb x8) alatt már az AMD lenne a gyorsabb. Ez meg üzleti szempontból elég vicces lenne - csak az nVidia vezetése pont nem röhögne
A diszkrét GPU-s dolog csak elsőre hangzik logikusan. El akarnak adni, de kinek? Intel CPU-hoz nem fognak tudni alaplapot szállítani, tehát az eleve bukta. A sajátjuk mellé meg minek?
Megjegyzem, azt elhiszem, hogy az Intel ezt szeretné, de az meglepne, ha ezen az időtávon meg tudnák valósítani. Egyelőre még a 100 USD-s diszkrét VGA-któl is borzasztó messze vannak.GRID: jogos, azokban a beállításokban nemigen lesznek ezek a feláras extrák benne.
(#6138) HSM: bármit, ami kézzelfogható
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Két éve azt jósolgatta itt a delphoi fan club, hogy 2016-ra megszűnnek a diszkrét VGA-k. Hogy látod ezt most?
Én először szeretnék látni egy működő APU-t HBM-mel, szeretném látni, hogy hozza azt a teljesítményt, amit egy diszkrét VGA ugyanazzal a konfigurációval (ld. A10-7850K vs 7750 - ouch!), és azt is szeretném látni, hogy mennyibe kerül. Amikor ez mind megvan, akkor lehet elgondolkodni. Addig csak a fantáziálás van.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz daveoff #6204 üzenetére
Nocsak, vendor-independent PhysX?
(#6205) Locutus: egy biztosan lesz, az Ashes of the Singularity tuti jobban fog menni AMD-n. A kérdés az, hogy lesz-e a játékból Stormrise part 2, vagy a technikai tudás mellett a játék is sikeres tud lenni.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Szerintem az teljesen rendben van, ha valaki erkölcsi meggyőződésből választ valamilyen terméket. Az már kevésbé van rendben, amikor ebből valamiféle erkölcsi felsőbbrendűséget próbál levezetni...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Nem feltételezek Rólad ilyesmit, de sajna az összes olyan hozzászólásnak ez az implicit következménye, ami arról ír, hogy az nVidia milyen gonosz a Gameworks-szel, és a vásárlóik ezen modellt támogatják. Az utóbbi pár napban rengeteg erre utaló hsz volt ebben a topicban is, meg a DX12-es cikk topicjában is. Több probléma is van ezekkel a gondolatmenetekkel, most nem állok neki filozófiai elemzést írni, majd vmikor jövő héten
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Úgy látom, szükség volna egy AMD vs AMD topikra is...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Nocsak, a crossbar memóriavezérlő mióta ultramobil-exkluzív feature?
Amúgy igen, az SM-eknek dedikált útvonaluk van a ROP-okhoz, és ciklusonként a preferált ROP-hoz 4db int32 / fp32 pixelt tudnak átvinni. Ezek szummája a teljes GM200 és GM204 esetén megegyezik a raszterizálók tudásával, ill. a ROP-ok képességeivel is. Ha kivágsz SM-eket, akkor a chip "közepén" csökken a pixel-átbocsátó képesség, függetlenül attól, hogy a raszterizálási kapacitás és a ROP-kapacitás nem változik. Ezzel együtt, a 980Ti eredményei egy kicsit furcsák, mert két külön mérés szerint is valamivel kevesebbet produkál az elméleti maximumához képest, mint a Titan X. Majd Damien kinyomozza, ha lesz hozzá kedve
A fentihez hozzátartozik, hogy ennek a limitációnak a hatását a gyakorlatban nemigen lehet látni, ugyanis:
a) blending mellett az nVidia ROP-ok a 32-bites adatokkal csak fele sebességen üzemelnek, ezért a ROP-kapacitás lesz a szűk keresztmetszet
b) MSAA mellett a pixel pipeline-ban minden raszterizált pixelre több ROP-művelet jut, ezért itt is a ROP-kapacitás a limitPedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Crossbar = dedikált útvonalak Össze is van minden kötve, csak a preferált SM / ROP cluster kombinációknak szélesebb linkje van - ez veszik el (részben), amikor a döglött SM-eket letiltod.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Ezek a rajzok erős absztrakciók, ebből túl sokat nem lehet megtudni a fizikai struktúráról. Ráadásul a DX10 előtti architektúrákban a dataflow is teljesen más volt, már csak ezért sem összehasonlítható a dolog.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Laja333 #6547 üzenetére
64 ROP-pal nemigen lesz gyorsabb - talán 4K-ban, de ott sem feltétlen minden esetben.
Amúgy ezt a szégyen dolgot én sem értem.
Van egyszer a vásárlói szempont, ahol hasonló áron kapunk hasonló teljesítményű kártyákat. Ezen nincs mit szégyenkezni.
Műszaki szempontból teljesen más filozófiát követ a két termék. A Maxwell konzervatív és agyoncsiszolt minden szegletében, és számos okos kompromisszumot tartalmaz, amivel a jelenlegi igényeket jobban ki tudja szolgálni. Ezzel szemben a GCN 1.2 csak fél lábbal van a jelenben, ennek a következménye a nagyobb fogyasztása. Hogy bejön-e ez a filozófia, azt majd meglátjuk, de kisebb piaci szereplőként ez az egyetlen lehetséges kitörési irány, és szerintem becsüldendő, hogy próbálkoznak.Szóval akkor hol van a szégyen?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz FollowTheORI #6559 üzenetére
128 ROP-pal 4K-ban 10-20%-kal gyorsabb lett volna, mint a Titan X. Így sem lesz azért annyira rossz, mert blending mellett a 64 full speed ROP gyorsabb, mint a 96 half speed. Sima pixelműveletek esetén pedig a GM200-at valamennyire fogja a sávszélesség.
TMU amúgy 256.Azért amikor kijön az AotS alpha, akkor érdemes lesz egy pillantást vetni a két kártya viszonyára. Nem lesz ez trend a következő egy évben, de abból látszani fog, hogy az AMD mire gyúrt.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz #85552128 #6614 üzenetére
Igen, pont erről beszélek, kizárt, hogy ilyen tesztcase mellett ez az érték normális legyen. Eleve "hivatalosan" csak 300W-ot húzhatna be (bár technikailag lehet 375).
Nem gondolom, hogy W1zard elb***ta a mérést, szerintem a példányával lehetett valami gond.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen