- Milyen TV-t vegyek?
- Házimozi belépő szinten
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Milyen egeret válasszak?
- Alapértelmezett konfiguráción sok Core CPU-nak lehet stabilitási gondja
- Gaming notebook topik
- Milyen processzort vegyek?
- Háromféle processzor is része lesz a Core 200 sorozatnak
- HiFi műszaki szemmel - sztereó hangrendszerek
- Videós, mozgóképes topik
Hirdetés
-
Free Play Days 2024 - 18. hét: Headbangers: Rythm Royale
gp Extraként a Star Wars Jedi: Survort is kipróbálhatjuk 5 óra erejéig.
-
A franciáknak elege van abból, hogy minden gyerek mobilozik
it Vissza akarják szorítani a gyerekek és tinédzserek közösségi média- és okostelefon-használatát.
-
Képeken az egyik kameráját elvesztő Sony Xperia 10 VI
ma Részletes anyag került fel az internetre a Sony idei középkategóriás telefonjáról, három helyett két hátlapi kamera várható.
Új hozzászólás Aktív témák
-
Zeratul
addikt
válasz #85552128 #24247 üzenetére
1. Az XBoxOne is veszteséges volt a vas szinten mindig is.
2. Elég szép profit van a XBO chipeken.
3. Kérhetett volna Phenom II + 7970 szintet is, csak akkor 300W a fogyasztás és 1000 dolláros konzolról beszélünk, amit ha el akar adni akkor kénytelen min 300-400 dollár veszteséget benyelni.
4. Shader modell 6.0 val át tudja emelni közvetlenül a konzolon megírt programokat. Olcsóbban, jobb minőségű konzolportokat kap a PC közösség, micsoda skandallum. -
#85552128
törölt tag
válasz Zeratul #24251 üzenetére
1: a Sony az erősebb vasat profittal árulta
2: az "elég szép" relatív, mennyi van egy VGA hoz képest ? Egy fullos PS4 Pro gép 400€ egy hasonló szintű Polaris VGA (RX 480 8 GB) meg 300€ ?
4: ne beszélj jelen időben tényként arról ami nem létezik, főleg, hogy a költséghatékonyság és a minőség általában nem jár kéz a kézben...[ Szerkesztve ]
-
válasz #85552128 #24252 üzenetére
1. Hogy jön ide a Sony? Vagy ez most valami überelés-verseny?
2. Jóval többet, mint amennyit a többiek a korábbi konzolok után.
3. APU-t akartak, az AMD tudott csak ilyet adni. Nem pénz kérdése volt.
4. Ööö, erre mit lehet írni? Tartom a színvonalat: Ne beszélj hülyeségeket.[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Zeratul
addikt
válasz #85552128 #24252 üzenetére
1. Sonynak nem volt benne kötelező tartozékként a kuntankinte kitekinte. A két APU árkülönbsége nem befolyásolta érdemlegesen bekerülési költségeket.
2. Ugyan a helyzet a VGA árának csak töredéke a GPU.
3. Mindenki a költséghatékonyságra törekszik, probléma hogy az nV a tudás rovására teszi, ezért se lehetett rá konzolt építeni.
4. A Shader modell 6.0 fejlesztői szinten létezik, már csak azért is mert következő nagy Win 10 update-tel érkezik az meg pár hónap. -
#85552128
törölt tag
válasz lezso6 #24253 üzenetére
1, Az, hogy az MS nem tudta profittal adni a gyengébb vasat miközben a Sony igen nem azért van mert eleve így tervezték, hogy feleannyi XO-t adnak el...
2: 50+ millió soc és mikor is volt utoljára pozitív negyedévük ?
3: de azért abból is a legolcsóbbat
4: Szerintem is hülyeség, hogy nem létező dolgokat ennyire tényként kezelünk, ebben egyetértünk.(#24254) Zeratul:
Tehát mit is láttál te a SM6-ból ? Hány játék épült rá, hogy kijelentsd olcsóbban jó minőségű portokat kapsz ? Ezt már a DX12-nél is előtte "valaki" aztán kiderült, hogy megint kell valami, miből gondolod most nem ez lesz ? Vagy, hogy az olcsó és jó minőségűből nemcsak az első teljesül ?"2. Ugyan a helyzet a VGA árának csak töredéke a GPU."
Ahogy pl. a PS4 Pro árának is csak töredéke a soc, de mivel jóval több dolog van benne/rajta mint egy VGA-n így egy még kisebb töredéke...[ Szerkesztve ]
-
válasz #85552128 #24255 üzenetére
1. Így sem releváns.
2. Miért kéne ettől pozitívnak lennie? Sok pénz jött be, el is költötték. Baj?
3. Legolcsóbbat? Custom chipből nincs olyan, hogy legolcsóbb, mivel nem konkrét termékek körül választasz.
4. A DX12 kvázi az XO-ról jött. A SM 6.0 miért ne jöhetne szintén így? Az MS érdeke, hogy a PC piac menjen, így a legjobb, ha a shaderek egy az egyben átjöhetnek.[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
Zeratul
addikt
-
#85552128
törölt tag
válasz lezso6 #24256 üzenetére
1, De az [link]
2, Nem jöhetett be annyi sok pénz, ha folyamatosan veszteségük van.
3, Akkor a legolcsóbb megvalósítást választották.
4, Na látod és az is úgy beváltotta az ígért egyszerű portolást, hogy most a SM6-ot kell várni, hogy lehetővé tegye - semmi gond, majd ha eljutunk oda és jönnek a minőségi portok fellehet hozni hogy igen ez sikerült.
MS érdekeibe inkább ne menjünk bele, a GOW-on kívül egy normálisan összerakott PC-s címük nem volt.(#24257) Zeratul: hozzájön még a bluray meghajtó és a featurekhez kapcsolódó licenszek a csatlakozóktól a használt dekoóerekig/szoftverekig stb. Az említett dolgok pedig a VGA-n is "filléresek".
[ Szerkesztve ]
-
HSM
félisten
Epic fail.
(#24242) Szaby59: Teljesen jól működik a GCN DX11 alatt, csak globális hisztériaroham lett valamiért a teljesítmény/fogyasztás mutatóból...
"A 470 is egyre többször van a 290X nyakán miközben többször is volt, hogy a 480 tudta csak beérni korábban, egyik gyártónál sem annyira fontos többé a régi ha van új cucc is..."
Itt egyáltalán nem erről van szó. Hanem hogy a 290-eket erősen limitálja a setupjuk (a majdnem 3000 shaderhez és 64ROP-hoz viszonyítva), ami a 470/480-aknál az órajelük révén már önmagában durván 20-30%-al erősebb, nem beszélve a GC3-ban bevezetett optimalizálásokról. Emiatt pl. irreálisan szétteszelált benchekben szépen otthagyja a friss vas a régit. Ezen a driverben pár kattintással lehet segíteni a tesszeláció szintjének értelmes korlátozásával.(#24250) Solymi81: Egészen pontosan ami jobb lenne a játékostársadalomnak, ha hamarabb elindult volna az explicit API-k vonata:
-konkurencia a játékos procik terén (jó alternatíva lehetett volna az FX játszani, mivel az API nem igényelt volna magas egyszálú sebességet, mint a DX11, ami miatt kivéreztek játékban hamar az FX-ek)
-konkurencia a GPU-k terén (versenyképesebb lett volna a GCN, és nem lenne most ilyen monopol helyzetben a zöld oldal, lásd pl. árazás)
-jobb játékok, tudniillik az utóbbi években rengeteg játékfejlesztői erőforrás lett arra elpazarolva, hogy egy korszerűtlen, elavult, a hardverekhez képest katasztrófális képességű API-t kellett szénné hekkelni, hogy elérjék azt a vizuális megjelenítési minőséget, amit ma láthatunk.
-jobb játékok ismét, ugyanis a jobban skálázódó API miatt több erőforrás maradt volna a processzor oldaláról, amit pl. jobb AI-ra illetve hangi világra lehetett volna fordítani
-szebb játékok, ugyanis rengeteg DX11 miatti korlát nem lett volna szükséges (+lásd az elpazarolt erőforrások részt)És éppen ez az, ha 2012-ben jön ki a DX12 és nem 2015-ben, akkor nem 3-4-5 évet kellett volna várni, mire valami látszani kezd a GCN tudásából.
Amit a mai GTX1060 vs RX480 kérdéskörról írsz, ott csak az a probléma, hogy a DX11 játékokat az RX480 is teljesen szépen elviszi a hátán.
[ Szerkesztve ]
-
#85552128
törölt tag
Ugyanilyen magyarázatot fellehet hozni a Kepler - Maxwell kapcsolat esetében is, architéktűralis eltérések miatt jobb lehet az újabb architektúra, de nem mindig és ez történt/történik most is.
A GCN DX11 jól működik a benchmarkokban, de annak aki nem a csúcskategóriában vásárol nem is az aktuális HEDT i7 proci van a gépégben, 4+ GHz-re húzva hanem egy non-k i5/i3 vagy Isten ments valamelyik Bulldozer ott pedig egy GCN minden gépigényesebb játéknál többet veszít mint a konkurens termék.
Éppen ezért lenne már ideje legalább a <1070 szintű VGA-k esetében valami hétköznapibb konfiggal is tesztelni az újabb játékokat.[ Szerkesztve ]
-
Zeratul
addikt
válasz #85552128 #24258 üzenetére
Nem jöhetett be annyi sok pénz, ha folyamatosan veszteségük van.
Nagyon úgy néz ki hogy ebben üzleti trükközések is vannak. 3. negyedévben kpból kifizették a TSMC-t előre. Persze meg lehet indokolni de akkor is gyanús hogy inkább veszteségbe fordítják mérleget csak adót és osztalékot ne kelljen fizetni.
-
#85552128
törölt tag
válasz Zeratul #24262 üzenetére
Volt ott részlegeladás is ami pénzt is hozott és a további költségeket is csökkentette: [link] Bónuszokat is kapott a vezetőség, pedig tavaly még elég szarul álltak: [link] bár az ilyenek többnyire jó előre rögzítve vannak szerződésben szóval ki kell fizetni...
[ Szerkesztve ]
-
válasz #85552128 #24258 üzenetére
1. De most ez miért lényeges? 10 dollárral többe kerül a gyengébb XO chip, mert az MS az ESRAM-mal próbál a PS4 elé kerülni, persze ez nem sikerült. Most lapátolják ki a semmire a pénzt.
2. Elég jelentős pénz jött be az AMDn-nek a konzolokból, ez tény.
3. A legolcsóbb verzió kb 1 jaguár mag + 1 cu lett volna, ennél azért picit többet tud az XO. Amúgy lásd 1-es pont.
4. Ez olyan tipikus semmisosemelég hozzáállás. Ha a DX12-t nem hozhatnák át, még nagyon baj lenne.[ Szerkesztve ]
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
#85552128
törölt tag
válasz lezso6 #24264 üzenetére
Az a cikk leírja, hogy kicsi is de volt profitjuk rajta. Jelentős persze ha 1$-ért adták volna az is "jelentős" pénz ekkora mennyiségnél, de ettől még gyakorlatilag ingyen átadták és pénzügyileg max adalék volt mintsem fő bevételforrás (ami 50 millió chipnél után nagy butaság) ha tényleg egyetlen alternatívák voltak.
A Sony cucca is erősebb kérhette volna az MS minimum ezt, de nem nekik még gyengébb kellett meg is lett az eredménye.
Ez olyan hozzáállás, hogy majd "hiszem ha látom" addig meg hagyatkozzunk a tényekre, a dx12 felemás indulása minden csak nem bizalomgerjesztő - ezért sem kell jó előre elvárásokkal indulni..."Ha a DX12-t nem hozhatnák át, még nagyon baj lenne."
Ööö... miért is ? A fejlődés nem áll meg, ha nincs DX12 lesz más, akár jobb is... Sőt van is, még a Vulkan is többet felmutatott egy játékban mint a DX12 egy tucatnyival.
[ Szerkesztve ]
-
HSM
félisten
válasz #85552128 #24260 üzenetére
Hát nekem sem éppen az aktuális HEDT i7 van a gépemben, és szépen teljesít mégis a 290X.
Pár éve sem volt semmi bajom amikor i5 4690K-m volt a 290 mellett.De tény, a magasabb driver overhead létező jelenség DX11 alatt. Bár emlékeim szerint már egy ideje dolgoznak a teljes átírásán, és már eléggé aktuális, hogy lassacskán elkészüljenek vele. Bár erről olyasvalakit kéne megkérdezni, aki "közelebb van a tűzhöz", mint én.
(#24265) Szaby59: És a Vulcan az mi? A Mantle egyenesági utódja kb.
-
#85552128
törölt tag
"És a Vulcan az mi? A Mantle egyenesági utódja kb. "
Állítólag a DX12 is az, hivatalosan egyik sincs "elismerve" tehát maradjunk annyiban, hogy van amit átvettek a Mantle-től van amit máshonnan. Nyilván ahhoz hogy multivendor legyen eléggé át kellett dolgozni mindkettőt. Függetlenül attól, hogy miből született ugyanolyan jó példa, nem etalon többé a DX mint az OpenGL-es időkben. Ha a Sony beállna mellé komoly konkurencia is lehetne, mert két platformra már érdemes Vulkant is támogatni.
Az overheadtől nem lesz játszhatatlan, tehát teljesíthet az egyik "szépen" a másik pedig "még szebben". Mondjuk a 4690k is képes elég magas órajelre boostolni alapból hát még ha OC-t is kap.
[ Szerkesztve ]
-
HSM
félisten
válasz #85552128 #24267 üzenetére
A DX12 nem egészen a Mantle-ből jött. De mindegy, nem lényeg, a GCN szempontjából minkdettő jó alternatíva.
Az i5 4690K-m 4,4Ghz-en hajtottam, ami nem egy nagy OC, nem túl drága 2133Mhz CL11 ramokkal. Szvsz akinek volt/van 100 000 forintja VGA-ra, annál bele kell férnie a keretbe egy normális épkézláb procinak is alá.... És ez még mindig nem HEDT meg i7, amik tényleg drágák, miközben akkoriban a 290/290X eléggé a felsőház volt VGA terén a 780-akkal hadakozva.
-
#85552128
törölt tag
Egy K-s proci + a lap +20k felár durván legjobb esetben is (+hűtő is jó lenne...), ez eléggé nagy tétel egy 470/480 szintű VGA vásárlásánál, vagy úgy általában.
Nem, nem kellene, hogy az legyen, az más, hogy itt szinte mindenkinek K-s procija van, de nem ez az általános.[ Szerkesztve ]
-
HSM
félisten
válasz #85552128 #24269 üzenetére
Most komolyan ez a 20K fáj? De amúgy manapság az alap órajelük is éppen elég magas, sztem nem egy szignifikáns különbség, hogy én a gyári 3,8Ghz-es turbo-ról felhúztam 4,4-re... 15%.
(#24271) #Morcosmedve: Valahol volt API Overhead teszt, ott szépen látszott, hogy DX11-ben le van maradva az AMD, DX12 alatt meg nem.
Nem is az overhead a kérdés szvsz, hanem hogy a DX12 alatt normálisan tud működni a többszálú feldolgozás. Ami olcsóbb DX12-ben azok leginkább a rajzolási parancsok, de a DX11-el is kompatibilis motorok azokkal amúgy is finoman bánnak, szval nem fog földhöz vágni a difi, amit látsz.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz namaste #24208 üzenetére
Bocs, de ez megint nem ilyen egyszerű. A TFLOPS és a blending teljesítmény igazából csak architektúrán belül lényeges. Elsődlegesen azért, mert az AMD és az NV ma már eléggé hibrid architektúrákat tervez. Nem igazán IMR-ek, de nem is igazán TBR-ek. Valahol a kettő között vannak, de az gyártótól függ, hogy mennyire húznak az egyik irány felé. Az NV a Maxwell óta inkább a TBR felé húz, ami miatt jóval aktívabban használnak mozaikos optimalizálást, mint az inkább IMR felé húzó AMD GCN. Ennek a hátránya, hogy jóval nagyobb blending teljesítményt igényel, viszont kisebb terhelés a memória-sávszélesség felé. Az AMD ennek pont az ellentéte. Nem igényel nagy blending teljesítményt, de nagyon igényli a memória-sávszélességet. Tehát már az eltérő architektúrák miatt is lényegtelen a direkt ROP és sávszél összehasonlítása, mert az NV-nek sok ROP kell, de kevés sávszél, míg az AMD-nek kevés ROP, de sok sávszél. Persze ezt relatív összehasonlításban kell érteni. A TFLOPS pedig azért erősen elméleti, mert a DX12 alatt is D3BC-n keresztül működnek a rendszerek, amely IR-t a 2000-es évek elején befutott architektúrákra húztak fel. Ma már egyáltalán nem úgy működnek a hardverek, hogy a D3BC jól mappelhető legyen rájuk. Ezért hoz a Microsoft a shader model 6.0-ban egy új IR-t, ami a DXIL. Microsofttól elszakadva ugyanezért hozott a Khronos is egy SPIR-V-t. Szóval az elméleti TFLOPS az tök jó, de nincs olyan PC-s hardver, ami nem SIMT modellt használna és ezáltal ne függene a teljesítmény a regiszterhasználattól, hiszen minél erősebb terhelés éri a regisztereket, annál kevesebb wavefront-warp/akármiwave futhat párhuzamosan, és annál rosszabb lesz a rendszer kihasználása. Ugye erre reakció részben a GCN4 utasítás-előbetöltése. A DXIL-en és a shader model 6.0-n már lehet látni, hogy a SIMT modell felé lépdel, hiszen mindegyik hardver ilyen már. Ettől nőni fog a hardver kihasználhatósága is, mindegyik hardveré.
A DirectX 12 több szintre bontja a bekötési rendszer. Van a TIER_3, aminél az erőforrás direkten a multiprocesszorba kerül bekötésre. Ez az alapvető modell, és ennek vannak butított szintjei. A TIER_2 szint a mintavételezőbe engedi bekötni az erőforrást, és driverrutinra van szükség ahhoz, hogy az onnan átkerüljön a multiprocesszorra. Na most ez a driverrutin processzoridőt igényel. A TIER_1 szint esetében maga a bekötés úgy zajlik, hogy a host processzor végzi a teljes munkafolyamatot, és köti be az erőforrást a multiprocesszorba.
Abból egyébként nincs semmi gond, hogy minden cég hardvere ideálisan működik a maga módján, és ha nem lenne az API, akkor ezek abszolút tökéletesek lennének, de az API létezik, és ebben vannak bizonyos szabályok, amelyeket követni kell az adott implementációnak. Szóval az NV-nek azért van szüksége arra a processzoridőt használó driverrutinra, mert abban a fránya DX12 API-ban megkövetelte a Microsoft, ugyanis a pure bindless modellre építették fel a bekötést, és a rosszabb modelleket ehhez igazították hozzá, ami áldozatokkal járt, hogy ez a három szint egyáltalán kompatibilis legyen egymással. Ez teljes mértékben egy szoftveres döntés volt, gondolva arra, hogy a DX12 itt lesz 2020-ban is, amikor már minden hardver pure bindless lesz. De egyébként dönthettek volna úgy is, hogy a DX12 bekötési modelljét arra húzzák fel, hogy elég a mintavételezőbe bekötni az erőforrást, és akkor az az NV-nek lett volna jó, de a jövő szempontjából nem ez tűnt a legjobb döntésnek.Persze, hogy nincsenek kötelező szabályok. Az MS csak azért ajánlja, amit ajánl, mert így működik az API gyorsan. Lásd Rise of the Tomb Raider, ahol nem követték az MS ajánlásait. Azóta mindenki ezeket követi, mert látványosan nem működik akkor a DX12, ha kifejezetten nem ajánlott RS modellt követnek a fejlesztők. Függetlenül attól, hogy az NV ajánlja ezt vagy nem.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #85552128 #24279 üzenetére
Amit már elmagyaráztam, hogy a BF1-nek a Frostbite verziója megköveteli az executeindirectet, amihez hasonló nincs a Vulkan API-ban. A Civ6-nál pedig a multiGPU miatt választották a DX12-t, mert ilyen sincs a Vulkanban.
Nem minden funkciót kapott meg a Vulkan a Mantle-ből, mondjuk executeindirecthez hasonló megoldás a Mantle-ben sem volt.
Ettől függetlenül össze lehet hasonlítani, hogy a függvények 85%-a ugyanaz a két API-ban, és ezeknél a gr-t kell átírni vk-ra.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
PuMbA
titán
Mit tudsz Abu85 az AMD rosszabb memóriakezeléséről? Egy RX460 2GB vs RX460 4GB vs GTX 950 2GB tesztben a 2GB-os RX460 4-5 játékban (pl. F1 2015, COD BO3) 30-40%-kal lassabb a 4GB-osnál, míg a 2GB-os GTX950 esetében nincs ilyen probléma és simán hozza a 4GB-os RX460 sebességét
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
-
Solymi81
aktív tag
Igazad van és egyetértek veled, de azt te is tudod, hogy ezeket így összehozni nem olyan egyszerű.
Én úgy látom, hogy az AMD annak idején nem tudta a saját akaratát érvényesíteni, ezért már akkor vagy az után rálépett egy olyan útra aminek a gyümölcse csak később fog beérni, de itt számolni kell a konkurenciával is. Próbáltak egy nagyot húzni akkor, ez nem jött be.Hogy min csúsztak el, az jó kérdés, lehet nem lobbiztak elég jól illetve kevés volt a lóvé, ki tudja, egyszerűen a lényeg sztem annyi, hogy a rossz döntés következménye lett az egyszereplős piac.
Sajnos a VGA piac nem olyan mint pl. az autóipar, ruhaipar vagy elektronikai ipar, hogy több szereplős, hanem van 2 nagy gyártó és csókolom.
-
Ren Hoek
veterán
válasz Zeratul #24246 üzenetére
Akkor ez magyarázd meg Ren Hoek kollégának is aki azon siránkozik hogy az R9 390/Xről nincs mire váltani.
Egy szóval nem mondtam ilyet... csak azt, hogy nincs verseny. Nincs konkurencia, sem árverseny. Ha lenne Vega nyilván megfontolnám, hogy a fejlettebbnek vélt technológiát vegyem ugyan azon az áron (Egyébként egyre erősebben kétlem, hogy 120-130K körül kapunk valamit mostanában GCN formájában) de probléma letudva, pár héten belül rendelek egy 1070-et. Konkrétan az évek óta zajló PH!-s mesekampány dobott át a zöldekhez...vártam a DX12-re 390X-re, Fury-ra, Polarisra (jó, ez jó iparos munka lett, ez tény!) stb...sokszor beszoptam már, sokáig védtem, hittem benne, olvastam párthű kiskatonaként szorgosan a fórumot, tech cikkeket stb... a sokszoros csalódás beleég az emberbe. Újra egységsugarú "hülye" leszek, aki beteszi a gépbe a motyót és játszik.
++: Amit én már több éve várok a DX12-től, Mantle-től Vulkantól az egy ilyen DEMO: Pl
1. Egy grandiózus rombolható város (sok rajzolási parancs), ahol egy realisztikus mechával végigrombolhatok mindent ágyúkkal, rakétákkal stb...
2. Kitörő üvegek, összeomló falak, lángoló faszerkezetek (GPU-n számolt fizika, lángok, füst - async)
3. Robbanások/torkolattüzek (külön lightsource-ú fények).
4. Mindez egy (jó, legyen kettő) GCN-t úgy kihajtva async, hogy Furmark szinten izzad, de játszható FPS. Geforce-ok meg sírnak a context switch alatt...Ekkor tartanám hitelesnek a több éve zajló explicit nyálverést. Sem játék, sem demo, de még benchmark se tudja ezt... csak hogy lássuk már haladunk valamerre, mert az AoTS kb egy 6-7 éves visszafejlődés.
+ A cégnél még mindig Matlab-ot használunk. Matlab soha a büdös életbe nem fogja támogatni szerintem az AMD GPU-kat. Csak NV-t... az összes gépi tanulás/ Deep Learning framework CUDA-s... AMD-t szinte semmi nem támogat ilyen téren - és le is szarják nagyívben, most kezdenek ebben is észbekapni. Nagyon sok tudományos szimulációra és signal/image processingre is lehet használni egy CUDA-s kártyát, míg AMD-hez külön kell nulláról fejleszteni ezeket.
[ Szerkesztve ]
-
HSM
félisten
válasz Solymi81 #24283 üzenetére
Igen... Itt azért a különböző méretű pénztárcákat sem hagynám figyelmen kívül... Csak a vak nem látja, hogy sajnos az AMD útiterve itt egyszerre ütközött a kék és a zöld óriáséval is, ugye CPU+GPU is....
Úgyhogy maradt a B-terv, valahogy mégis kikényszeríteni a változást, de sajnos ez nagyon elhúzta az időt.[ Szerkesztve ]
-
Ren Hoek
veterán
Igen, amikor kis halként két fronton próbált háborúzni... Rég ki kellett volna szervezni, (eladni MS-nek) a CPU részleget. Intel így is kb bármilyen árat szabhat. Talán az FX nélkül is meglettünk volna. Ezután teljes erőből csak az orosz frontra koncentrálni a Radeon részleggel...
Kíváncsi volnék a számokra, hogy a CPU részleg vajon mennyi profitot vitt el a GPU-tól... ami még jól ment.
-
#16729600
törölt tag
válasz Ren Hoek #24284 üzenetére
Nekem ez nagyon tetszett, néhány helyen " ...sokszor beszoptam már, sokáig védtem, hittem benne, olvastam párthű kiskatonaként szorgosan a fórumot, tech cikkeket stb... a sokszoros csalódás beleég az emberbe. Újra egységsugarú "hülye" leszek, aki beteszi a gépbe a motyót és játszik." már már Arthur Miller : Az ügynök halála mélységű, jót nevettem rajta, ( jó értelemben ) . Teljesen igazad van, csak jót tesz, hogy felébredtél végre a szugerációs transzállapotból.
[ Szerkesztve ]
-
HSM
félisten
-
#85552128
törölt tag
Olyan szépen beállítod az AMD-t a ma született báránynak és lassan mindent az Intel/nV párosra próbálsz hárítani (még a faildozert is), hogy öröm nézni, ehhez tényleg elkötelezettség kell...
Az "API fejlődés" ott csúszott el amikor 2013 végéig kihúzták az előző konzolgenerációt és még egy évre rá 2014-ben is minden nagyobb címnek a majd 10 éves vasakat is támogatnia kellett - ezt pedig a leendő konzolgyártó AMD-nek látnia kellett jóval hamarabb mint nekünk. Minek kellett volna új API amikor a fő platformokban még mindig dx9 tudásszintű HW volt ? Kijött az új konzol, 1,5 év után meg is történt a fejlődés API téren.
Tudhatták, hogy nemhogy 2011-re de még 2 évre rá sem lesz semmilyen API reform - még a saját apijukat is csak 2014-re tudták összerakni egy szabványos API-t meg ugye jóval lassabb ideig tart véglegesíteni ahogy az már párszor el is hangzott. A GCN védését még meg is tudom érteni, az nem szenvedett annyira DX11 alatt sem, de a Bulldozer az évtized vicce. Nem véletlenül térnek vissza az Inteléhez hasonló konstrukcióra most amikor már API is van ami jobban skálázódik.[ Szerkesztve ]
-
titán
válasz Zeratul #24262 üzenetére
Valami eszetelenül balfasz szerződésekkel sikerült magukat megint mínuszba rángatni. Most azért kellett sokszámillió dolláros (a teljes CPU/GPU árbevétel, 40%-át kitevő) kötbért dellázni a GF-nek, mert nem használták ki a technikailag gyengébb infrastruktúrájukat, és helyette a TSMC-től rendeltek. Egyszerűen sík idióták vezetik az AMD-t, ha ilyen szerződés egyáltalán létrejöhetett. Naná, hogy nincs pénzük semmire.
evDirect villanyautós töltőhálózat
-
HSM
félisten
válasz #85552128 #24290 üzenetére
A konzolgeneráció egy dolog, de attól még nem keleltt volna PC-n is bebetonozni a dolgokat.
Ami az FX-et illeti, bár vicces a faildozer kifejezés, de egyáltalán nem volt rossz proci, többszálon a mai napig versenyképes, hát még akkor, amikor megjelent...
Igen, sajnos a programok nem mentek el erősen többszálú irányba, így nincs más hátra, mint előre. Marad az Intel féle megoldás.(#24291) schawo: Gondolom, ez még a gyártás kiszervezésének a hozadéka...
[ Szerkesztve ]
-
#85552128
törölt tag
Nem kellett volna, de így lett, mert a két célplatformhoz képest a PC még úgy is elhúzott.
"Igen, sajnos a programok nem mentek el erősen többszálú irányba, így nincs más hátra, mint előre"
Több program van most ami profitál a 4+ magból mint 2011-ben ami a 2+ ből mégis akkor kiadtak egy 8 magos procit ami szálanként nudli volt mert azt hitték, hogy ... ? Inkább csak rájöttek, hogy az egyszálas teljesítmény ugyanolyan fontos, sőt...
"Versenyképes" az intel akkori megoldása is, de azzal még csak most kezdesz kompromisszumokat kötni, ezzel meg mindig kellett.[ Szerkesztve ]
-
HSM
félisten
válasz #85552128 #24293 üzenetére
A HT-nek is megvannak a maga nyűgjei. Nekem sokkal szimpatikusabb volt a Bulldozer-féle koncepció. Ugyanis a HT-nál a prioritás megy a levesbe a két közös szál között, ami elég nagy baj tud ám lenni, ilyen nyűg az FX-eken tudtommal nincs.
Nekem 3 évig volt kikapcsolva az i7 920-asomon ezen gond miatt. De néha még ma is lekapcsolom az X5660-on emiatt.[ Szerkesztve ]
-
HSM
félisten
válasz schawo #24295 üzenetére
Ezt nem tudod "működésre bírni", mert a technológiából ered, hogy a mag dönt a sorrendről az optimális feldolgozhatóság szempontjából. Praktikusan az átbocsájtóképesség javul, a garantált válaszidő viszont romlik.
Viszont igen, ennyiből volt jobb megoldás, hogy kikapcsolható a mai napig, és nem kell beáldozni az egyszálú teljesítményt érte. Vélhetőleg az AMD is ezért tér át erre a megvalósításra a következő processzorgenerációjuknál.[ Szerkesztve ]
-
titán
Rendszeresen néztem a frametimeokat. Kb 2 éve kezdenek olyan játékok jönni, ahol a 6+6 jobban produkál, mint a 6+0. Aztán kb 1 éve már gyakori lett, mostanában pedig elég kevés van, ahol hátrány a ht. Nem fps-ről, hanem max frametimeról beszélek.
evDirect villanyautós töltőhálózat
-
veterán
A DX9 a WinXP-vel jött 2001-ben és az első nagyobb játék ami már nem támogatta a BF3 volt 2011-ben, de pl. 2012-ben megejelent Far Cry 3 is DX9-re készült elsősorban, és csak másodlagosan volt benne a DX11-es támogatás.
Tehát kb. 10 évig volt a fő PC-s API a DX9, köszönhetően az Xbox 360-nak és az WinXP-nek is. DX10 említésre sem érdemes a Vista bukása miatt.A DX11 2009-ben jött a Win7 -el, 2012-13 -ban még rengeteg tartalék volt az API-ban, amit csak az új konzolgeneráció megjelenése után (2013) kezdték el kiaknázni, mert addig a konzolok DX9-es tudásszinten voltak, tehát egyáltalán nem volt időszerű 2012-13 környékén kihozni a DX11 utódját.
A DX11 még 2-3 évig simán marad mint fő PC-s API, ami mily meglepetés, pont ugyan úgy kb. 10 éves pályafutást jelent mint a DX9 esetében.
Mire a DX11-et mint fő PC-s API-t leváltja az utódja (ami nem a most ismert DX12 lesz, hanem egy újabb DX verzió, új shader modellel), addigra az AMD teljesen lecseréli a GCN-t. -
veterán
válasz Petykemano #24211 üzenetére
A Bulldozer egyszálas teljesítményét nem csak a sok mag miatt áldozták be, hanem a magas órajel elérése miatt is, ugyan úgy mint az Intel a P4 esetében, megnyújtották a CPU futószalagok hosszát 12 -ről 20 fölé.
Ez annak tükrében, hogy 2006 körül álltak neki a tervezésnek, és az orruk előtt bukott el a 2004-ben megjelent Hyper-threadinges P4 Prescott és váltotta le a Core 2, elég hülye döntésnek tűnik.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Milyen TV-t vegyek?
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Házimozi belépő szinten
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Anglia - élmények, tapasztalatok
- antikomcsi: Való Világ: A piszkos 12 - VV12 - Való Világ 12
- World of Tanks - MMO
- nVidia tulajok OFF topikja
- btz: Internet fejlesztés országosan!
- PlayStation 5
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Promenade Publishing House Kft.
Város: Budapest