- Kormányok / autós szimulátorok topikja
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Milyen billentyűzetet vegyek?
- VGA-t károsító ASUS deszkák: a gyártó kínai részlege komolyabban veszi a dolgot
- Szünetmentes tápegységek (UPS)
- HiFi műszaki szemmel - sztereó hangrendszerek
- Hardvereket szállít a virtuális fuvaros
- ASUS ROG Ally
- Milyen alaplapot vegyek?
- Apple notebookok
Új hozzászólás Aktív témák
-
Lapajbacsi
aktív tag
válasz
Victoryus94 #226 üzenetére
Nem biztos hogy meg merik csinálni azt az aljadék erőszakos terrort amit a win7-dx11-el... mivel a legtöbb játékfejlesztőt megszivatták vele, persze a júzereket is, de azok kevésbé észlelték.... ha "ha utolsó Windows" lesz valóban a win10 és ingyenes, akkor a DX12, pedig nyílt lesz, és bármilyen rendszerre telepíthető... nem pedig arrogáns bűncselekménnyel lekorlátozva win10-re... de ha mégis.. lesz úgyis törés, ahogy volt a dx11-re is a Vista-ra....
-
Pubszon
veterán
Ha majd kijön a DX12 véglegesen, akkor a VGA-n BIOS-t kell frissíteni, hogy támogassa azt?
ASRock X79 Extreme6, i7 4930K, 32GB DDR3, GTX 1080 G1, Corsair RM750x...
-
Z10N
veterán
Le voltam maradva, jogos a 11.2. Nemhiaba kerulom a win8 es 8.1-t. Csinaljanak win7 supportot dx12-hoz. Bar ez eselytelen, hisz win7 sp2 sincs. Annak ellenere, hogy ontjak a KB patcheket es updateket. Jot tesz a Mantle az alloviznek, rogvest mindenki elkezdett mozgolodni. Az M$ kepmutatasa viszont szanalmas. Hirtelen fontos lett a fejlesztok velemenye, illetve majd vedd meg a win9-t, ha akarsz ujitast latni.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
sb
veterán
válasz
pakriksz #220 üzenetére
A fejlesztőt a kiadó fizeti. Ha 2x annyi idő átírni akkor nem elég akarni és az asztalt verni szerintem
Azt kell látni, hogy ez a kecske és a káposzta tipikus esete. Ha a prociban rejlő számítási kapacitást ki akarod használni akkor egy olyan kódot kell írnod, ami használja. De az nyilván nem fog futni csak cpu-n. Ez egy másik kód lesz, két kódot pedig nem lehet egységnyi idő alatt megírni.Abu, én fordítva gondolkodom. Nem abból indulok ki, hogy csak játékmenetet nem befolyásoló cuccok lesznek. Szvsz megette a fene, ha csak az lesz. Ha pedig a fizikát, AI-t, egyebeket is HSA-ra írnak akkor ott a HSA mentes PC kód gyakorlatilag egy teljesen másik játék lesz dupla fejlesztési idővel.
Ezt ki fogja bevállalni egy sokéves Fifa 2014-en kívül?Én csak azt tudom elképzelni, hogy amíg nincs HSA kihasználtság, vagy csak apró megjelenítési szarságokra, addig jön a PC port. Amint lesz onnantól teljesen mást tud a PC kapni... ill. szinte minimális többletmunkával egy HSA port jöhet PC-re. Talán ez lehet az egyetlen jó indok arra, hogy miért terjedhet a gyér PC-s HSA hw kínálat mellett.
-
Abu85
HÁZIGAZDA
válasz
pakriksz #220 üzenetére
A HSA runtime eleve AVX2-re optimalizál legacy módban. Tehát annál gyorsabbat aránytalanul költséges írni. Itt vagy benne lesz, vagy nem. Egyébként valószínűleg a játékmenetet nem befolyásoló dolgokat simán megkapjuk, mert azt egyszerűen ki lehet kapcsolni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
pakriksz
őstag
"Ha nem extra költség kiadni a PC-s HSA-s változatot akkor a fejlesztő magasról lesz*rja, hogy nem fut máson."
A fejlesztő lehet, de a kiadó szépen megmondja hogy ezt tessék megoldani. Aztán a fejlesztő kénytelen átírni a HSA kódot cpu-ra, az intel meg röhög a markába.[ Szerkesztve ]
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
sb
veterán
válasz
pakriksz #216 üzenetére
Ez nem merészség vagy őrjöngés kérdése.
Költség. Amit HSA-ra írnak az soha nem fog futni tisztán cpu-n. Nem megoldható. Tehát ezeket vagy kivágják a fenébe a játékból minimális munkával, vagy ha nem lehet, mert a motor így lett megalkotva akkor nem írnak mást helyette, mert dupla költség.Márpedig a nagy része utóbbi lesz a valamit is érő HSA-s fejlesztéseknek.
Tehát vagy jön HSA-val PC-re vagy kapunk mobilra írt játékot - esetleg felturbózva - , ahogy Abu is írta. És köszönőviszonyban nem lesz a PC-s játék a konzolossal.De mivel ez meg eléggé szög a PC-s játék koporsójába, így én reménykedem az előzőben is.
Ha nem extra költség kiadni a PC-s HSA-s változatot akkor a fejlesztő magasról lesz*rja, hogy nem fut máson. -
pakriksz
őstag
Az intel többet fizet hogy azt csinálják amit ők akarnak. Az intel igp driver támogatása egy vicc, 2 év és hello. Ráadásul pont most jelent meg egy cikk, hogy a celeron/pentiumokban le akarta tiltani az opencl támogatást (de nagyon ellenkeztek a fejlesztők, ezért elhalasztotta). Az szerinted mennyire segíti elő a gpu-k általános célú felhasználását, ha bizonyos igp-ken le van tiltva? Meg hogy az egyik gyártó igp-je, nemhogy általános célra, még grafikára is gyenge?
[ Szerkesztve ]
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
Madwe
nagyúr
válasz
pakriksz #216 üzenetére
Teht az hogy "mert akkor meg az intel fanboyok örjöngenének az intel igp userekkel együtt, hogy biztos a játékfejlesztő lepaktált az nv amd-vel, és direkt fut rosszabbul az intelen..." az jobban és többeknél verné ki a biztosítékot, minthogyha azon hőbörögnének hogy az "intel aktívan tesz róla hogy pc-n a gput ne igazán lehessen rendesen általános célra használni" Ez azért érdekes megközelítés
Persze manapság ez van csak kb pont fordítva, s inkább api szinten, s intel nyilván próbálkozik majd, de a devek miért az intelnek kedveznének az amd és az nvidia ellenében, mintsem fordítva?
-
pakriksz
őstag
"pár évre a harmatgyenge Jaguar magos + erős HSA IGP-s konzolokból kiindulva szerintem nem nagyon várhatóak cpu gyilkos játékok."
Dehogynem. Az intel aktívan tesz róla hogy pc-n a gput ne igazán lehessen rendesen általános célra használni. Így sokminden az ami konzolon a gpu-n fut, a pc-s portban cpu-n fog futni, mert azt nem merik meglépni hogy csak nvidia-n meg amd-n fusson játszhatóan, sem azt hogy ezeken a gpu-t használják, az intel igp-s gépeken pedig a cpu-t (normális gpu hiányában), mert akkor meg az intel fanboyok örjöngenének az intel igp userekkel együtt, hogy biztos a játékfejlesztő lepaktált az nv amd-vel, és direkt fut rosszabbul az intelen...
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
Madwe
nagyúr
A sega kiadok egy konzolt nem fogy jól 2 év múlva kiadok mégegyet az se jó jöhet a következő stratégiája ölte meg (főleg az e miatti vásárlóbázis elhitetlenedése feléjük miatt), a nintendo pedig a wiivel bemozdult a casual rétegbe és jól ment neki, a wii u viszont már erőltetett olyan téren valamit azt se vették figyelmebe hogy a casual réteg iosen adroidon pötyög már nem vesz konzolt. ki lehet kopni, de idióta döntések kellenek hozzá. Mondjuk abban ms se áll rosszul, az is biztos
Viszont a dx12vel pont hogy jó irányba haladnak, csak kicsit későn lépték meg. Ettől függetlenül gamer pc mint olyan még sokáig lesz, nem hagyja magára az ms, konzol, steambox nem fogja kinyírni, az biztos... Csak kicsit most ilyen holt időszak jön dx12 rendes játékszintű leprogramozott használatáig teljesítményben...
[ Szerkesztve ]
-
Diopapa
addikt
A konzolosdiból 1-2 generáció alatt ki lehet ki lehet kopni (lásd Sega, Nintendo), a PC mint eszköz meg ott van köszöni szépen, az MS meg monopol helyzetben, ezt veszélyezteti a barom hozzáállásával. A biztosat dobja el a bizonytalanért.
Citizen Diopapa / Commander Diopapa "SC csomag olyan, mint a barackfa, unokáidnak veszed - .tnm / De pálinkát nemlehet főzni belűle - *SkyS1gn"
-
Abu85
HÁZIGAZDA
Valójában korábban elindult. Az MS koncepciója az volt, hogy a problémát úgy oldják meg, hogy ne kelljen újra megszüntetni a visszafelé kompatibilitást, mint ahogy azt a DX10-ben tették. Erre kitalálták a deferred context funkciót, ami a DirectX 11 többszálúsítására vonatkozó rendszere volt. Elméletben jól hangzott, de a gyakorlatban nem működött, sőt, nem kevés helyen még lassított is. Tehát valamit tettek érte, és fejlesztettek, csak az nem működött. Ezzel persze az erre elköltött fejlesztési évek is elmentek.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TTomax
félisten
7év kellett ahhoz hogy elinduljon valami,az igen... itt vannak a gondok,ezért az MS a felelős,és ha nem szorulna a hurok akkor most sem tennének semmit,persze értem én nekik a konzol jobb üzlet...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Abu85
HÁZIGAZDA
De lehetett. Igazából az első figyelmeztetéseket Dan Baker adta le a GAB-ban még 2007-ben. Akkor kísérletezték ki a fejlesztők, hogy miképp lehet az Xbox 360-at és a PlayStation 3-at hatékonyabban is programozni. Ezt viszont nem tudták PC-re menteni. A következő lépésre 2009-ben került sor. Akkor már a gyakorlatban is látható volt, hogy szorul a hurok. 2011 végén kértek a fejlesztők állásfoglalást. Az MS erre azt mondta, hogy dolgoznak rajta, de még 5 évig is eltarthat. Ekkor ment Johan a gyártókhoz, hogy neki gyorsan kell egy low-level API. Ekkor kezdődött a Mantle lényegi fejlesztése. 2013 első felében pedig elkezdődött a DX12 tényleges fejlesztése. Ez részletekben jelenik meg. Az első 2015 végén.
Röviden az igazság az, hogy a problémát már 2007-ben felvázolták. Tehát azóta lehet tudni.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
sb
veterán
Szerintem ugyanazt látjuk.
Lesz egy időszak amíg jobban futnak gyengébb hw-n is ugyanazok a - mai - sw-k. Lásd BF4 Mantle gyorsulás kisebb procikon.Hosszabb távon meg lehet az, amit te írsz, de ez is ugyanaz az eredmény. A lényeg, hogy ne a cpu 20%-át használjuk ki értelmes dolgokra. Ma ez van. Mondjuk egy csúcs procit terhelsz 20%-on bármilyen értelmes folyamattal, a többit meg elviszi az overhead feleslegesen. Gyakorlatilag csak a szoba fűtésére jó, semmi másra. Tehát ha jobb lesz a hatékonyság akkor is ugyanúgy nyertünk.
És ide tartozik a IGP/HSA kérdéskör is. Azt meg lótúróra használják, ahogy írod, pedig több kraft van már most is bennük, mint a cpu-ban. Ha ezzel együtt nézzük akkor lehet, hogy a 20% hasznos felhasználás is túlzás. Ezért kérdeztem, hogy mire nem elég neked, mert gondoltam, hogy épp arra amit már a korábban írtam: amit gpgpu-n kéne futtatni.Ezen mindenképp javítani kell és errefelé megy a fejlesztés. Mantle/DX12 és HSA is.
ps:
Aztán, hogy a hosszabb távú fejlesztés mennyire lesz így az is kérdéses. Most pár évre a harmatgyenge Jaguar magos + erős HSA IGP-s konzolokból kiindulva szerintem nem nagyon várhatóak cpu gyilkos játékok.HTPC-nél mások a tapasztalataink. Én csak driver oldalon szívtam, erővel még soha nem volt gondom.
-
-
TTomax
félisten
-
arn
félisten
szerintem nem jol latod a helyzetet - ettol a kulonbseg nem tunik el a processzorok kozott, csak az aktualis jatekokban eltolodik az arany. szoval, ha eddig problemaid voltak, es a jovo jatekainal belekalkulaljak ezt az optimalizalast, siman feljebb skalazzak az egeszet, es ugyanugy valhat szuk keresztmetszette, csak eppen mas szinten. mindig is voltak es lesznek olyan jatekok, amik kifekszenek az aktualis csucshwen, es amig elerheto lesz olyan processzor, amelyik sokkal gyorsabb a piacon a masiknal, addig a kulonbseg is fennmaradhat. annyival leszunk elobbre, hogy tobbet latsz ugyanattol a hwtol, de ez mindig is igy volt.
rawfeldolgozasnal a 4770 ugyancsak be tud szaggatni, ott van mellette a gpgpu (270x), de ha loturot hasznalnak belole, akkor sokra nem megyek vele.
ennyi erovel hasznalhatnek raspberryt is
a htpcnel a lap+proci 160 eur volt - nekem meger 60 eurot, hogy ez egy teljes erteku masina, nem vmi felmegoldas. a korabbi tapasztalatokbol kiindulva jo, ha van benne tartalek. emiatt a rugalmassag es az ar miatt is maradtam az epitett gepnel (mac mini, nuc volt tervben). ha az arakat nezzuk a htpcnel a haz dragabb mulattsag, mint a processzor (akasa euler).
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
pakriksz
őstag
válasz
Lacccca87 #201 üzenetére
nem, a jó megoldás annyi amennyi kell. A directx pazarolja a cpu-t, ez baj, nem szeretek pénzt költeni azért mert valami pazarolja (értelmetlenül) az erőforrásokat.
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
sb
veterán
Felső kat procival persze, hogy nem volt gondod, ezt már írtam.
De próbálj meg Pentiummal, egy 4 magos AMD APU procijával vagy akár i3-al játszani. Minden, nem kivételesen jól optimalizált AAA cím be fog akadni, és nem a vga miatt, hanem a cpu miatt. (ill. ha vga miatt van nyilván azon lehet segíteni felbontással, detaillel)Nem csak speciálisan 1-2 játék vagy multik, akármelyik Crysis, Far Cry, Arma, stb...
A kifejezetten cpu igényeseket nem is említem, Civ5, GTA IV - a kevésbé cpu igényesek az érdekesek, amiket mindenki a grafika miatt csodál, mégsem az fogja meg.Jobb cpu+közepes vga pedig épp jó párosítás ma a fentiekből kiindulva.
Amúgy mi nem elég gyors neked a cpu-n? Mihez kell? Gyanítom valami olyanra, amire gpgpu(+HSA) 10x jobb lenne.
HTPC-re: -50 eur nem sok, de ha azt nézem, hogy HTPC-nek egy Bay Trail is elég, ami lappal együtt 100eur alatt van... vagy a Kabini. Persze az i3 is megfelel, de én valahogy mindig az optimális megoldásra törekszem.
Lacccca87, szvsz régen sem volt igazi skálázódás. Valamivel több volt, főleg vga oldalon, de cpu oldalon szinte soha nem volt. Egyszerűen nem lehet értelmesen és hatékonyan megoldani.
(Egyébként vga oldalon sem mindig volt jó skálázódás, amit Abu ír. Régen is voltak éles váltások a generációk között, T&L, shader modellek, dx verziók)[ Szerkesztve ]
-
BiP
nagyúr
válasz
pakriksz #160 üzenetére
Szerintem nincs itt semmi pártosság. Egyszerűen annyi, hogy Abu technikailag/technológiailag nézi inkább a dolgokat, a fórumozók meg a napi gyakorlatban. Technológiában az AMD előrébb jár, jövőbe mutatóbbak a dolgaik, ezért Abu dícséri, de a user meg mégis azt tapasztalja, hogy nvidiával kevesebb a gond (AMD-nél főleg a driver a szűk keresztmetszet), ezért szidja az AMD-t.. És ez a 2 eltérő vélemény azt szüli, hogy Abu nem pártatlan.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Lacccca87 #201 üzenetére
Régen más volt a terhelés. Ma már azért nincs annyira sok skálázhatóság a grafikában, mert a VGA-k annyira fejlettek, hogy a grafika oldali skálázás már nem hoz annyit, mint pár éve. A legtöbbet az effektek minőségének skálázásával lehet nyerni, míg a legkevesebbet a textúrák és a modellek részletességének skálázása hozza. Ez tipikusan látszik a mai játékokon. Ha a DirectX 11-et magunk mögött hagyjuk, akkor újra lehet normálisan skálázni, mert az API már nem lesz korlát.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igen. Annak segítene messze a legtöbbet a Mantle vagy a DX12. A DX11-ben nagyon korlátozott a működése. De amúgy eléggé limitálható a látótávolság mértéke opcionálisan, tehát bele lehet férni a DX korlátokba. A proci az igazából mindegy. A probléma nem a hardverben keletkezik, hanem annak kihasználásában.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Lacccca87
addikt
válasz
pakriksz #195 üzenetére
A jó megoldás az erős CPU + erős GPU.
A legjobb megoldás játékok részéről pedig jó lenne ha visszahoznák a tényleges skálázódást a beállíátsoknál. Nem sírni kell hogy ez gyengébb vagy az az HW a gépben hanem ha lehetőség van akkor lejebb venni a grafikai/fizikai részletességből.
De sajnos ez már rég kikopott, anno még ha egy játék szinte meg se moccant a gépeden átraktál mindent LOw-ra és láss csodát normálisan futhatott, persze nem volt látványorgia. Ma mi van? van vagy 10-20 FPS különbség min és max grafika között (élsimítást kivéve az egyenletből) úgy hogy vagy jól néz ki a játék vagy pocsék de még ugy sem fut rendesen. -
arn
félisten
válasz
pakriksz #195 üzenetére
nyilvan vannak olyan specialis helyzetek is, ahol mashogy van... es nyilvan egy joval gyengebb cpuval "meg jobb" lesz a helyzet. ha tehermentesitik is, a kulonbseg megmarad, ha az a szuk keresztmetszet.
felreertes ne essek, jo ez az egesz, es igazabol igy is kell(ene) ennek lennie, csak a jelenlegi korulmenyek szerintem nem kedveznek neki. lsd apu.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
pakriksz
őstag
De igen, feltéve ha azt csinálod mint amit a skyrim csinál magától: lehúzod a látótávot
[ Szerkesztve ]
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
arn
félisten
kb harom evvel ezelottig probaltam a normalis balanszot megtalalni a cpu es a gpu kozott, perpill eleg egy kozepes gpu meg egy jobb cpu - nem jatszom mar, a gpu is csak az opencl miatt jo ha van. a cpu viszont nagyon kell, mert igy sem sebes sok helyen. mit csinalna egy apuval? de ez a sajat problemam.
elotte mindig a kozep-felsokategorian egyensulyoztam mindket teren - nem emlekszem, hogy mikor volt a cpu gond utoljara.
***
ez egy 100 euros proci, az egesz gep olcsobb lehetett volna 50 euroval mongy... jelentosen kiherelt gpuval. sokat nem oszt vagy soroz, ha vagy ot evre veszem.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Abu85
HÁZIGAZDA
válasz
pakriksz #195 üzenetére
A nyílt terű játékok esetében is van clipping. A Skyrim a legjobb példa. Nem csak butitja, hanem egyszerűen kivágja a távoli fákat. Ezzel rengeteg draw calltól mentesíti a rendszert.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
pakriksz
őstag
nyilt terű játékkal kéne játszani, abban mindig cpu limit van... Meg akkor is ha egyszerűen erős gpu-t használ az ember. Igen, a "fantasztikus" i7 is kevés akkor.
Az intel ugyan ezt csinálja, csak fordítva. Mindenhová a cpu-t erőlteti, gáncsol minden változást, a gyatra gpu-i miatt. Viszont a jó irány a GPU erős használata amire lehet, szóval nem az intel iránya...[ Szerkesztve ]
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
sb
veterán
Mert top cpu-d volt mindig.
i5, i7.Nekem voltak folyamatosan top gpu-im, egészen 6800GT-től kezdve, majd inkább a középkategóriába csúsztam, GTX460, 7850. De cpu-ból - mivel soha nem kellett másra, így a középkategória dominált. Az Athlon XP-től kezdve váltottam, előbb A64-ra, ott is kb. dupla min fps-ek jöttek a 6800GT mellett, aztán később a 4GHz-re húzott C2D-k voltak kevesek jópár játékhoz. Ott sem az avg fps-sel volt a gond, jó vga mellett megvolt a 40-60fps, de a min fps 20-25 körül volt a cpu-nak köszönhetően.
Phenom X4->i5 váltás. Ugyanez min fps-ben.És az is általános, hogy mindig 1-2 felbontással kisebben nyomtam, mint a többség, pl. most is 1680-ban. Ráadásul Ultra helyett a high beállítástól sem riadok vissza.
Egy a lényeg, nekem játékélmény szempontból kell a 30-40 min fps.
De most sem tudsz semmit kezdeni egy 40-50k-nál olcsóbb procival egy GTX780/R9 280-290-nel, de még egy 260X/270 körül sem.
Világos, hogy az AMD-nek kényszer lassú cpu mellett erre lőni, de szerintem logikus is. Ha megnézzük a Mantle gyorsulás is ezt mutatja a napnál is világosabban. Minden gamer, főleg multis veszi az i5-i7-eket amikor látszik, hogy fele akkora proci is elég az egészhez mert csak a render overhead csökkentésével +30-60% teljesítmény hozható. Ezt feleslegesen dobjuk ki, nagyon kár érte.Másra meg átlag usernek nem kell cpu erő.
- Netezni, általános használatra egy SSD kell egy APU, i3, Pentium gyorsaságú cpu mellé és süvít a rendszer.
- Ezen kívül játékra kell... arra látszik mekkora az ablakon kidobott teljesítmény, arra sem kéne 50k-s proci.
- Minden más számításigényes cuccra, render, videóvágás, (de játékokon belül is a szimulációk) egyebek... meg ezerszer jobb a gpu önmagában vagy a HSA-s gpu.Tehát tényleg ez a jövő tűnik teljesen kézenfekvőnek.
HTPC-ben is fordítva állunk a dolgokhoz úgy látszik.
Nekem i3 árban sok egy media playerhez. Főleg úgy, hogy én nyers erőben sem várok semmit. 4 év alatt egy filmet nem sikerült szereznem, amit ne vitt volna DXVA-val a HTPC-n, úgy hogy a f*s kis Atom is unatkozott mellette.Ma meg ott tartunk, hogy Bay Trail-el 10W körül elvisz bármit és 3x gyorsabb, mint egy Atom/Brazos. Gyk. lightos netezős gépnek is megfelelne már erőben. Kabini ugyanez, de még 3D is megy talán. De a Celeron/Pentium vonal is megvan (legalábbis Ivy-ban megvolt) 15-30W között és az meg már mindenes gépnek is "erős".
A driver vonalra én sem vagyok érzékeny, nem cserélgetek. Ezért is mertem Intelre váltani. De ott kiderült, hogy ha nem akarok cserélgetni csak egyetlen darab működő driver a vágyam azt sem egyszerű megkapni.
Álmomban sem gondoltam, hogy 2013-ban ott tartunk, hogy beta driver kell 6 hónapig egy XBMC-hez és ahhoz, hogy egy standby hibát meg full-range kimenetet javítsanak. (És most olvastam a Bay Trail-ről is, hogy ugyanúgy hibás/hiányzik a full/limited range állítása a driveréből. - Plussz ugyanezt találod Sandy-re 3-4 évvel ezelőttről fórumokról. Látszik, hogy ugyanazokba a hibákba esnek hosszú éveken át.)[ Szerkesztve ]
-
arn
félisten
4130t
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
arn
félisten
nem is emlekszem, hogy mikor volt utoljara lassu a proci miatt egy jatek, arra viszont igen, hogy mikor a kartya miatt. ez az egesz koncepcio az amd reszerol ertheto, mivel valamivel mankozni kell a gyartra cpu reszt.
amugy tetszik is ez az irany (ahogy az egesz apus irany is - ha vegre hasznalnak), csak a jelenlegi atlagos pcn nem igazan old meg semmit. igy mire ertelme lenne, szerintem addigra erdektelensegbe fullad a dolog. szerintem azon mulik a tulelese, hogy nagyobb engine fejlesztok latnak e benne meg raciot (az o celjuk vegulis az lenne, hogy mindent tamogassanak).
(#190) sb: 4310t kerult bele, idle 13 wattot fogyaszt az egesz masina (plex alol neztem). vegulis htpcn nincs olyan drivercserelgetesi kenyszerem, a mostani gepen is kb ket eve frissitettem barmilyen swt, mert a medias tartalmak rendesen mentek. ha most is osszeall a dolog (eddig jonak tunik), itt sem lesz maskent. ebben a prociban szerintem van annyi ero, hogy swesen megoldja a dolgot, akarmi lesz, es belerakhatok egy 35 wattos i7et is, ha hianyerzetem van.
a 6700t jo lett volna, kar a thin itx lapok hianyaert, mar regen kineztem magamnak.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
sb
veterán
Driver oldalon azért az Intel még ennél is rosszabb. Lehet, hogy 5 éve 2 év volt mire DXVA meg normális XBMC támogatást kapott, Intelből meg tavaly tavasztól vártam fél évet egy olyan driverre, amiben nem esik szét a kép XBMC alatt, van full range kimenet, meg mondjuk lekapcsolja a kijelzőt standby-ba X perc után.
Alap funkciók évről-évre visszatérően nem működnek Intel oldalon.Egyébként ha ezektől eltekintünk és a Bay Trail tudja véletlen a 24p-t is, akkor a Kabini/Bay Trail most teljesen jó alap HTPC-nek. Ennél nagyobb felesleges kb.
Persze ettől nem lenne rossz, ha lenne, de ezt mindkét oldalról hiányolom szintén. Celeron/Pentium sorozat Ivy-ból simán beszorítható 30-40W alá 1-2db HDD-vel együtt a komplett fogyasztása, de amihez erő kellene: 3D, az ki van herélve. +driver gondok.
AMD-ből pedig valóban nincs igazán kis fogyasztású cucc. Most Llano-t alulfeszelve és downclock-olva elértem egy jó, használható szintet, de ezzel sokat kell trükközni, nem megy sajnos úgy, ahogy kellene: hogy bemész a boltba, összedobod és megy. -
sb
veterán
Ezt nem nagyon értem. A Mantle elég jól feloldja a cpu limitet. Ez az egyik, amit el akartak érni, az overhead minimalizálását.
Nekem a cpu igényes jelenetekben az i5 alatti prociknál hozott +30-50% elég impresszív. Még egy Pentiummal is ki lehet hajtani egy közepes/felső kat. kártyát.
Szerintem ez már régóta muszáj kategória lett volna. Közepes cpu+akármilyen vga-val és detailen a min fps részeket mindig a cpu határozta meg. Ez az utóbbi 10 évre igaz, hiába hajtott mindenki az izom vga-kra és tűnt úgy, hogy minden a vga-ról szól. A valóságban soha nem lehetett (feleslegesen) izmos proci nélkül normálisan játszani.A fentiekhez pedig még add hozzá, hogy a régi DX-re készült játékokról van szó. Egy Mantle-hoz igazított, pár 10000 rajzolási parancsos játék meg se moccanna DX11-en gondolom.
Azon lehet vitatkozni, hogy mennyire várhatóak ilyenek, de tekintve a konzolokat most elég jó esély van rá mivel ez a leginkább költséghatékony és kényelmes.
Eddig fordítva volt. -
__Psion__
tag
Nem unalmas folyton varni valamire?
Varni egy GPU architekturara, majd driverre, uj jatekra es most egy uj API-ra... aztan indulhat ujra az egesz.2015?
35 eves leszek. Borzaszto. Nem varom...
╒═════════════════════════════════════════════════╕ ──────────────────────►´Ρςiοn◄────────────────────── ╘═════════════════════════════════════════════════╛
-
arn
félisten
az uj dxet szeptember ota fejlesztik?
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
mikk2000
őstag
Olyan régóta vannak több magos procik. De tényleg. És a 3Dmark-os tesztképen szépen látszik, hogy még a DX11 is úgy működik, hogy az első szál 10x annyira terhel mint bármelyik másik.
Sok játék van ami sajnos valójában egy magon képes futni, vegyítve azzal, hogy az első mag erős DX terhelés esetén aránytalanul nagy terhelést kap, akkor mégis mi marad a játéknak?
Annyira nevetséges ez az egész. Közben meg az ember azt hinné fejlődés van. A fenéket. És persze nyilván DX12 támogatáshoz új vagy módosított kód kell, tehát a meglévő x millió játék ebből nem profitál semmit.
Egyetértek azzal hogy az MS a Mantle miatt menekül előre. De eddig meg elpazaroltuk az erőforrásokat, és sok nem optimálisan megírt játék született, amiknek a megfelelő futtatásához aránytalanul erős gép (első mag) kell.
-
nem, a fx8320-asom csak bizonyos körülmények között gyorsabb talán, a vga meg egyáltalán nem (a 7950-ben csak 1792 shader proci van, a 280x-ben pedig 2048, tehát azonos freki mellett a 280x jelentősen gyorsabb). emellett más is kihatással lehet az eredményekre (pl szoftver környezet)
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
Abu85
HÁZIGAZDA
Mert a tények ellenőrizhetők.
Az egyes API-k közötti különbségeket tényleg nem lehet másképp leírni. Tudja amit tud és kész, ezek megmásíthatatlan tények.
Ugyanúgy megmásíthatatlan a feature_level szintek támogatása. Az MS mondta, hogy az aktuális szinteket megtartják, ami nyilvánvalóan a kompatibilitás és a fejlesztői munka egyszerűsítése miatt van. Az aktuális szintek támogatása ismert: Fermi//Kepler/Maxwell/TeraScale 2/Gen7(+) 11_0, GCN/Gen7.5 11_1. Aztán, hogy végül mely architektúrákhoz lesz driver az majd kiderül, de a fenti adatok is tények. Tudom, hogy régen azzal jöttek az emberek, hogy a Maxwell majd támogatni fogja a feature_level 11_1-et, amire nem írtam semmit, mert nem tudtam, hogy támogatja-e. Persze gondoltam magamban, hogy valószínű, de végül az NV mégsem támogatja. Ezzel nem tudok mit kezdeni. Leírom, hogy nem támogatják és kész. Mindenki eldöntheti magában, hogy ez jó-e vagy sem.
A DX opcionális funkciói is ellenőrizhetők. Van egy pár: CDB, SAD4, hardware atomics ... mindegyiket belerakták az API-ba, mert hasznosak, de nem kötelező a támogatásuk, mert az NV és az Intel megvétózta. Ezek olyan dolgok, amikkel láthatóan a Microsoft sem tud mit kezdeni. A vétózásra nem lehet építeni, mert akkor alig kerülne a rendszerbe új dolog. Egyszerűen ebbe már ők is belefáradtak. A DX12-ben egy idióta megoldás van, mert idióta dolog, hogy a DX11-nek a feature_level 11_0 szintje a kötelező, és afölött minden csak opcionális. És fontos funkciók, olyanok, amelyeket a konzolokban általánosan használni fognak. Láthatóan az MS is belefáradt ebbe az egészbe, és beleraknak az API-ba mindent, amit a fejlesztők kérnek, aztán majd ha xy effekt xy DX12-es hardveren nem aktiválható, akkor majd a szoftver fejlesztője, vagy a hardver gyártója magyarázkodhat a usereknek. Abból a szempontból megértem a Microsoftot, hogy nekik ez az "én nem támogatom mert", "pedig támogatni kellene mert" huzavona fárasztó és lassítja a szabvány fejlesztését. Régen lehet, hogy úgy gondolták, hogy a DX-ben ne legyen belül szegmentáció, de láthatóan érdektelennek tartják már ezt a kérdést. A jövőben majd pakolják be a funkciókat és aki támogatja támogatja, aki nem az nem. Majd a gyártó elszámol a user felé. Ennyi.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Igazából semmi. Extra effekteket így is tudnak csak Mantle-re írni, amikre mondjuk a DX12 nem képes. Például a Sony-nak az SV-PRT-CT koncepciója még DirectX 11.x-re sem menthető át igazán jól. LibGNM vagy Mantle API illik hozzá a teljes értékű PRT elérhetősége miatt. De ennek szerintem akkora jelentősége nincs. Nem hiszem, hogy a Sony fejlesztéseit átmentenék PC-be, főleg nem multiplatform játékoknál.
A gyorsulás sem olyan kritikus. Ma az kap hangsúlyos szerepet, hogy a DX11 ajánlott batch mennyisége 2k/frame. A probléma alapja, hogy ez túl alacsony, mert az előző generációs konzolok is tudtak 20k-t, míg az újak nagyjából 40-50k-t, szóval az olló az említett értékek között túl nagy és ez számottevően akadályozza az előrelépést a multiplatform címekben.
Az új API-k esetében az hogy a DX12 50k-t tud, míg a Mantle 100k-t nem igazán lényeges. Nagyjából úgyis annyi draw lesz használva, amennyit a két új konzol tud, arra pedig tökéletes a DX12. Az egyetlen kivételt a stratégiai játékok jelenthetik, ott az Oxide a Mantle-re 2015-ben már 300k/frame batcht ígér. Az azért előnyös lesz, de maximum +10-20% sebességet hoz, és önmagában a drawok mennyisége olyan magas, hogy csak a játék későbbi szakaszaiban lenne ez is mérhető. Emellett a DX12-ben sok lehetőség van a trükközésre, amit eleinte tuti nem látunk majd, de idővel ugyanúgy hozzányúlnak a fejlesztők ehhez is.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz
bbTamas77 #122 üzenetére
A fejlesztők nagyon is felkapták a compute shadert. Nem csak a Fermi miatt, hanem a többi hardver miatt is. Szóval az nem igaz, hogy nem érdekelte a piacot, hiszen gyakorlatilag minden DX11-es játék használja ezt a funkciót. A fejlesztések közötti különbség annyi, hogy a Kepler kellett telefonba is, míg a Fermi nem. Ez az irányzat elsődlegesen a compute hatékonyság romlásával jár, mert azzal lehet a legtöbb fogyasztást megtakarítani.
Ez az NVIDIA szempontjából semmi személyes. Egyszerűen csak a telefon és a tablet prioritás. A GameWorksben pedig olyan effektek érkeznek a konzolos verziók helyettesítésére, amelyek jól futnak az NV hardvereken is, de amúgy jó eséllyel a többin is. Legalábbis az eddigi GameWorks cuccok csak az Intel architektúráján teljesítenek iszonyú gyengén, de ez a stratégia része, hogy ne vegyék ki a notikból a VGA-kat.
Ennek amúgy annyira káros hatása nem lesz szerintem. Mivel a konzolra úgyis elkészítik az effekteket, így véleményem szerint az lesz a vezető irányzat, hogy a játék ugyanazokra az effektekre kap eredeti és GameWorks kódot. Aztán ki lehet választani, hogy melyik jó, vagy melyik kell, vagy melyik fut. Persze lehet, hogy akad kivétel, ahol a konzol minőségű effekteket nem hozzák át PC-re. Ez önmagában ártalmas, de ugyanakkor a konzolon ettől még elérhető lesz a jellemzően jobb minőségű, eredeti effekt, szóval a hardcore réteg majd nem PC-re veszi meg a játékot és kész. Mivel minden eddiginél több exkluzívval készülnek a konzolokra a cégek, így esélyes, hogy a PC mellé játékosok keménymagja vesz majd egy konzolt is.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Diopapa
addikt
válasz
Menthirist #161 üzenetére
Papíron gyorsabb a procid (az enyém i5 3550), a vga-m nem húzott (R9 280x, 1000/1500) még is kevesebb nálad az fps.. :S
Nálam ATI utolsó whql driverrel Thief minden maxon (igen, 16x AF)
min: 41.5
max: 76.2
átlag: 59.0Majd ha lesz nem betas Mantle driver, megnézem azzal is.
Citizen Diopapa / Commander Diopapa "SC csomag olyan, mint a barackfa, unokáidnak veszed - .tnm / De pálinkát nemlehet főzni belűle - *SkyS1gn"
-
Abu85
HÁZIGAZDA
válasz
#32839680 #119 üzenetére
Nem a pénzről van szó, hanem a Tegráról. Egy GCN tudású hardver többet fogyaszt, mint egy Maxwell tudású. Az AMD nem épít telefonokat a GCN-re, míg az NV nem került be a konzolokba. Ennyi a különbség csak, és ez már elég ahhoz, hogy másképp tervezzék az architektúrát.
A GameWorks is egyszerű. Bepipálod milyen effektekre van szükséged és kész, talán picit bele kell nyúlni a motorba, ha nem tökéletes a kompatibilitás, de nem nagy gond. Eleve a shader a forráskódját a fejlesztő nem is módosíthatja. Ha nem jó, akkor az NV javíthatja ki. Ez nyilván a sebesség mesterséges kontrollálására megy ki. Ha kevés hardvert vesz a piac, gyorsan be lehet lassítani az új játékokat. Ennél nagyobb kontroll nem is kell.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arn
félisten
válasz
tatararpad #159 üzenetére
aham, es igy honnan tudom, hogy igazat ir? ferditeni eleg jol lehet, pedig a szamitastechnikanal egzaktabb dolog nem nagyon van. es epp ez a problema, konnyu ellenorizni a hitelesseget.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Loha
veterán
Az is ki lett vesezve igy elore hogy ez nem mas mint kicseszes a tulajokkal es punktum, mert a reszleges tamogatas rosszabb (lesz)mint ha nem tamogatna, allitolag.
A Fermi, Kepler és az eddig megjelent Maxwell ugyan azt a DX11 level 11_0 szintet támogatják, tehát ha csak részleges DX12 támogatás lesz emiatt, akkor az részleges lesz az összes felsoroltra vagy teljes mind1ikre.
Mindenesetre: A Forza DX11.x-es kódjából készítettek DX12-est, és azt futtatták az nVidia által szállított alfa állapotú drivereken. Forrás
-
Peat;)
veterán
válasz
pakriksz #160 üzenetére
Magat a cikket nem sokan kritizaltak. Az nvidia a 13as hszban lett eloszor megemlitve, azzal hogy lemarad es kesz. Utana elokerult egy masik ph cikk amikben nvidian is prezentaltak elvileg a forzat. Majd utana az hogy mely szeria tamogatja(meg nem tudjuk milyen szinten), nvidianak a regebbi modellje is. Az is ki lett vesezve igy elore hogy ez nem mas mint kicseszes a tulajokkal es punktum, mert a reszleges tamogatas rosszabb (lesz)mint ha nem tamogatna, allitolag. Ha elolvastad volna a forumot akkor lattad volna hogy folyamatos beszolas ment itt is az nvidia iranyaba, latatlanban, hol ez hol az a baj veluk, a piac minden retegen. A mantle kritika is en ugy lattam amd tulajok reszerol jott felereszt. Talan nyugodtan le kellene ezt zarni, mint most mar az nvidian tul a tulajoknak is beszolni, mert teljesen off topik lesz.
[ Szerkesztve ]
-
Loha
veterán
Aki nem elfogult AMD-s, az nem lesz egyből elfogult NV-s vagy Inteles.
Én attól félek, hogy egyre több pártatlan szakmai tartalmat kedvelő olvasó és fórumozó fogja máshol beszerezni az adagját, mert egy idő után elég nehéz tolerálni az éppen aktuális AMD mantrát minden nap.
Azt pedig, hogy Abu melyik oldal felé húz, az az Ő privát szociális problémája.
Ha ezzel Parci egyet ért, akkor oké.Szívesen olvasnám én is az NV hasonló törekvéseit
Olvashatod más magyar oldalakon, de akkor jársz a legjobban, ha angol nyelvterületen olvasgatsz. -
-
-
fondorlatos
aktív tag
Nem örülök, hogy kb új vindóz kell majd hozzá.
A másik oldal legalább már összehozott valami használhatót a mantle-lal, amivel a megfelelő vga-t használók már tapasztalhatnak némi gyorsulást pár játékban. -
pakriksz
őstag
válasz
bbTamas77 #165 üzenetére
Igen persze, hiszen erre milliónyi példa van
a nagy teljesítményű ARM-ra.
Egyébként igen összehasonlítom, a teljesítmény az mindkettőn ugyan azt jelenti."hogy szinte mindent GPU számol, mert tud írni és olvasni a CPU memóriájában, és csak a legszükségesebbeket számolja a processzor."
Még egyszer leírom: a maxwellnél beáldozták az általános számítási teljesítményt a fogyasztás csökkentésére, így nehezen számolna mindent egy maxwell gpu, csak a grafikát...
szunya1: talán még nincs kész a mantle driver a te kártyádra? Béta driver próba? Ahogy hallom a legújabb driver TELEPÍTŐJE bugos, így nem árt uninstallálni a régit, és útána felrakni az újat.
[ Szerkesztve ]
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
#16729600
törölt tag
válasz
Menthirist #168 üzenetére
Ez rendben is van,ennek ellenére nem értem hogy nálam ( hasonló AMD alapú konfiggal ) kicsit jobb DVGA val miért nem látszik az általad leírt előnyökből semmi?
-
válasz
#16729600 #167 üzenetére
hát a húzott 7950 vapor-x-em számítási teljesítmény szintjén kb elérte egy sima (nem húzott, nem ghz edition) 7970 szintjét (3763,2 vs 3788.8 gflops), a 8320 pedig per mag szinten azért nem a legjobb a piacon az intelekhez képest, ergo a dx jobban meg van fogva a magsebesség által, mint mantle alatt (ahol ugye nincs), illetve sok magra is lineárisabban skálázódik a mantle (abból meg nálam 8 teljes értékű van az intelnél egy-egy HT szál nem tudom hány százalékban felel meg egy valós magnak feldolgozók és részegységek tekintetében)
én legalábbis erre tippelek oknak.
De pl thief esetén simán lehet a program felépítése olyan, hogy mondjuk több batch-el dolgozik, ami jobban fekszik a mantle-nek mint a dx-nek. Tehát program és program között is nagy különbségek lehetnek, pusztán a felépítésből és a programozástechnikából adódóan.
[ Szerkesztve ]
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
#16729600
törölt tag
válasz
Menthirist #166 üzenetére
Érdekes,rápillantottam a konfigodra és nem értem ezt az előrelépést Mantle alatt ( pedig az én hw elemeim se rosszabbak a tiédnél ) Biztos user error lehet a részemről
-
-
bbTamas77
aktív tag
válasz
pakriksz #158 üzenetére
"Hatalmas marhaság azt várni hogy egy armos proci hirtelen egy nagyságrendet ugrik teljesítményben, már pedig ez kéne. Nem lehet tudni a maxwell apu teljesítményét, de az eddigiekből sejteni lehet, hogy nem lesz erős..."
Egy szóval nem írtam, hogy várom, hogy hirtelen megugrik teljesítményben.
Nem szükséges hatalmas processzor teljesítmény ez a koherens memória légyege, hogy szinte mindent GPU számol, mert tud írni és olvasni a CPU memóriájában, és csak a legszükségesebbeket számolja a processzor.
[I"]A jaguar magok így is sokkal erősebbek mint az ARM-ok, sőt azonos órajelen a bulldozer alapúaknál is erősebbek..."
Te egy x86 architektárú CPU-t hasasítasz össze egy ARM-os?
Taps, lehet, hogy nem hagyja le, de nagyon közel van hozzá teljesítményben.
ARM könnyebb lehet kihozni nagyobb teljesítményt, mint egy x86-os processzor fogyasztását csökkenteni. -
haddent
addikt
válasz
Menthirist #163 üzenetére
Semmi meglepő nincs ezen. AMD proci sok maggal sok szállal, HD7950 és mantle. Még jobb lenne valszeg ha a proci helyett 1 Kaveri csücsülne ott.
-
-
dergander
addikt
válasz
Menthirist #161 üzenetére
Milyen beállításokkal nyomod hogy ennyi lett?
-
-
pakriksz
őstag
Van, csak az egyik oldal szerint nem az. Most is abu pártatlansága abból adódik, hogy nem dícséri eléggé az nvidiát, és az intelt, ez pedig nem tetszik a fanboyoknak, akik azt szeretik hallani hogy az nvidia szép jó, legjobb, legfejlettebb, amd meg meg lefagy, rossz a driver, és elég ha leveszik róla a hűtőt ;D
Ez a jó öreg "ahol nem mi vagyunk, ott az ellenség" mentalitás. Politikai témákban is így megy, ha x oldalról egy jót mondasz, vagy nem ócsárlod eléggé, akkor x oldal bérenc vagy az y oldal szerint, és fordítva.[ Szerkesztve ]
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
pakriksz
őstag
válasz
bbTamas77 #146 üzenetére
Hatalmas marhaság azt várni hogy egy armos proci hirtelen egy nagyságrendet ugrik teljesítményben, már pedig ez kéne. Nem lehet tudni a maxwell apu teljesítményét, de az eddigiekből sejteni lehet, hogy nem lesz erős...
A jaguar magok így is sokkal erősebbek mint az ARM-ok, sőt azonos órajelen a bulldozer alapúaknál is erősebbek...
"Elég megnézni a GTX750-t, ilyen fogyasztással ekkora teljesítmény, nulla melegedés."
érdemes megnézni hogy a maxwell architektúránál feláldozták a gpgpu teljesítményt, az alacsony fogyasztás érdekében... a konzolba meg éppen a gpgpu kellett.
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
VirsLee
őstag
A Thief tesztek alapján (olyanok, akik nem csak 80-120e forintos procikkal tesztelnek) is úgy tűnik, hogy hasznos a Mantle. Akit pedig zavar, hogy mások teljesen ingyen kapnak elég komoly teljesítménynövekedést (nem akar mindenki a 70e forintos videokártya mellé 60-80e forintért processzort venni) azon segíthet egy jó pszichológus. Az NV rajongók viselkedése a fórumon pedig úgy tűnik, hogy nélkülöz minden szakmaiságot. Úgy tűnik mostanában tombol náluk a kognitív disszonancia... Ez előjön minden Mantle, AMD, DX12 hírnél
Nem is értem, hogy mitől félnek, az hogy van egy Mantle és lesz egy DX12, az még senkitől nem fog elvenni semmit, nem megy ki érted a nagy fekete autó és nem pakolják vagonokra az NV kártyákat. Minden NV tulaj megnyugodhat, hogy jól döntött, amikor NV kártyát vett, hisz a rendelkezésre álló információk alapján hozta meg a döntését, ennyi. Az, hogy másnak most jobb lesz, attól nektek nem lesz rosszabb. Azt pedig, hogy Abu melyik oldal felé húz, az az Ő privát szociális problémája. A cikkeinek szakmaisága szerintem teljesen rendben van, az pedig, hogy húz valamelyik oldal felé, az teljesen természetes, olyan bírálják emiatt, akik maguk sem pártatlanok. Szívesen olvasnám én is az NV hasonló törekvéseit, úgyhogy a rajongók fikázás helyett inkább írjanak cikkeket, vagy legalább linkeljenek olyan oldalakat, ahol ezekkel foglalkoznak.
-
haddent
addikt
Nem másolja. Majd 2015 -ben kijön ez és még akkor is tartalmazni fog olyan korlátokat amiket a Mantle már ma sem. Olyan nagyon rengeteg értelmét nem is látom, inkább csak el kell adni az új Windows -t. Meg talán netalán már végre az nvidia is, egy jó 5 év után, túllép a DirectX 11 -en.
Be kéne szépen állni a Mantle mögé még az nvidia -nak is aztán lesöpörni a Májkiszoftot a búsba, mert csak a baj van vele. -
arn
félisten
válasz
#32839680 #145 üzenetére
ez nem igy mukodik - nyugaton megveszik az aktualis jobbat, aztan par ev mulva a kovetkezo jobbat. piaci igenyek vannak, aminek meg kell felelni, vagy ha a ceg megteheti, alakitani azokat (mint az apple), de az amd ehhez kishal.
pl most epitettem htpct, amdvel akartam - de a jobb fanless hazak thin itx lapokhoz keszulnek, altalaban 35 wattos processzorhoz. amdbol 45 wattos normal itx kaphato a korabbi generaciobol. az alacsony fogyasztasu nuc szintu cuccaik meg annyira ki vannak herelve, hogy a szidott intel is kenterbe veri minden szempontbol. ot eve is amd alapokra epitettem, de kb ket ev volt mire normalis driverek megjelentek a dxvahoz es futott rendesen xbmcvel. hosszasan lehetne sorolni, hogy az amd miert a jovo igerete mindig.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
deja vu
addikt
"Ha valaki szerint nem pártatlan Abu írása, akkor miért olvassa el?"
Nagyon sok ember szerint elfogult az AMD-vel szemben, másrészt ő a leglelkesebb, szóval nehéz nem Abu cikket olvasni. Én jobban örülnék ha rudi vagy más írna ilyen cikkeket, mert őt sokkal pártatlanabbnak gondolom.
Én örülök ha vége lesz ennek a mantlénak, nem kell még jobban fölszabdalni az így is csökkenő pc piacot. Egy egységes dolognak fogok a legjobban.Iphone 7 Plus | Sony A7R+Zeiss FE 35mm F2.8+Zeiss FE 55mm F1.8 | Eizo CX271+Eizo CS270+Eizo SX2262W+Eizo S2233W | Z170 Ext4+I7-6700K+Noctua U14S | GTX1070 Gaming | 16gb 3600MHz | 850PRO 768GB | Seasonic Platinum | Define R5+3xNoctua | Razer Taipan
-
arn
félisten
válasz
gabber01 #144 üzenetére
olyan nincs, hogy piac elott jaras - a piac vevo ra, vagy nem. semmit sem er a cucc, ha nem lehet normalisan eladni, mert nincs ami hasznalja. hogy csak az utobbi eveket emlitsem, lecsusztak a nettoprol a kivalo brazossal, most pedig a soc oruleten is masok gazdagszanak. az apukat alig hasznalja ki vmi, az intel ott veri el rajta a port, ahol akarja - hiaba lenne jo dolog az apu, meg hiaba erre visz a dolog, jelenleg kell a processzorteljesitmeny. de irhatnek a multbol olyan gpukat is, amik joval megeloztek korukat, de mire szamitott, hogy mit tud, a vilag reg tul lepett rajta.
mint irtam, nem technologiailag van problema, hanem a cegvezetes lo folyamatosan melle. lehet a jovore jatszani, de nem szabad a jelent elfelejteni, mert abbol van a penz, a jovolatas meg arra valo, hogy helyzeti elonyt biztositson. ha ez nincs kihasznalva, akkor csak folyik a penz.
az intel uralta x86 piacon nincs meg a piaci ereje az amdnek arra, hogy alakitsa az igenyeket. pl egy zart apple vilagban mukodne ez is. de a konzolok is jo alap most, kb ebbe kapaszkodhatnak.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
nyakdam
aktív tag
Ha valaki szerint nem pártatlan Abu írása, akkor miért olvassa el?
Hogy jutottunk a Dx12-től nv vs amd vitába.
Szerintem jó lesz a dx12 mivel szabvanyosít. Más kérdés, hogy nem lehet olyan mint a mantle, de ennek fő oka valószínű a hardvergyartok miatt van. A mantle megmutatta, hogy gyenge cpu is elég, mert szoftveres támogatás a lényeg. De ha elég a gyenge cpu, akkor csak vga-t veszel és nem ruhazol be alaplapba és esetleg új memoriaba. Ez a fő ok amiért nem siet az ms a dx fejlesztéssel. Az AMD nek a vga piac hozza a legtöbbet, neki az a lényeg.
-
bbTamas77
aktív tag
válasz
pakriksz #142 üzenetére
"Azért nem került Maxwell APU a konzolokba, mert túl kevés lett volna, egy tabletpc teljesítménye... max egy wii szintű konzolra elég."
Ez az állításod egy hatalmas baromság. Először is még nem jelent meg Maxwell APU így nem tudhatjuk teljesítményét.
Attól, hogy ARM processzormagok lesznek benne, nem lesznek gyengék, "tablet szintű".
Jaguar magok se egy atomerőművek, szinte csak az operációs rendszert kell kezelnie és etetni az adatokkal GPU-t."És mellesleg az nvidia megoldásai az armos apuk között is elég gyengének számítanak, a quallcomm és a samsung cuccai is oda vissza verik a tegrákat."
Azok nem "armos apuk", mert egyrészt nem Maxwell architektúra másrészt nincs benne egyesített memóriaarchitektúra (koherens memória).Elég megnézni a GTX750-t, ilyen fogyasztással ekkora teljesítmény, nulla melegedés.
Mi lesz 20nm-ren és végleges Maxwell architektúrával, és koherens memóriával. -
gabber01
addikt
"...nem, vagy kesve ismerik fel a piaci igenyeket."
Heh? Inkább pont az hogy többnyire mindig a piac előtt jártak/--nak, és a jövőbe mutató fejlesztéseik nem egészen azt hozták adott pillanatban a jelenben, mint amit beharangoztak.
Man proposes, god disposes. Dum spiro, spero.
-
arn
félisten
arra celoztam, hogy a munkaallomasokba, szerverekbe szant hweken sokkal nagyobb a haszon.
az nv probalkozik mindenutt, es oszinten szolva sokkal jobbak a piaci meglatasaik meg igy a mobilos benazassal is, mint az amde. az amdnel adott a technologia, de gyakran faziskesesben vannak. nem, vagy kesve ismerik fel a piaci igenyeket.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
pakriksz
őstag
válasz
bbTamas77 #124 üzenetére
milyen arm miatt? Az nvidia arm licenszet vesz, kb ennyi közük van az ARM-hoz. Az hogy ők azt hogyan rakják össze, hova fejlesztik, az csak tőlük függ. Azért nem került Maxwell APU a konzolokba, mert túl kevés lett volna, egy tabletpc teljesítménye... max egy wii szintű konzolra elég. És mellesleg az nvidia megoldásai az armos apuk között is elég gyengének számítanak, a quallcomm és a samsung cuccai is oda vissza verik a tegrákat.
[ Szerkesztve ]
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
Loha
veterán
válasz
#32839680 #138 üzenetére
Performance Per Watt lehet kisebb fogyasztás azonos teljesítmény mellett, vagy nagyobb teljesítmény azonos fogyasztás mellett, jelenleg csak a nagyobb teljesítményre láttunk példát.
Az Nvidiának nem a VGA-k piaca már az elsődleges a csökkenő pc piacon.
Erre nem fogsz NV-s nyilatkozatot találni.Abu nevével való vagy vélt egyezés csak a véletlen műve, de ha jól tudom, ő nem ingyen, önszorgalomból írja a cikkeket mint a logoutosok, tehát egy bizonyos színvonal és pártatlanság elvárható.
arn: lehet nem ebben van a nagy penz
Az NV legutóbbi pénzügyi mutatóit a GeForce és Tesla termékeit húzták fel.
"Quarterly revenue came in well above our outlook, driven by PC gaming, capping an outstanding year for our GPU business," said Jen-Hsun Huang, president and chief executive officer of NVIDIA. "Tesla and Quadro both achieved record annual revenue.[ Szerkesztve ]
-
arn
félisten
válasz
#32839680 #138 üzenetére
ez mar regota duma, hogy nem fontos... dehogy nem, akkor nem adnanak ki uj kartyakat generaciorol generaciora. lehet nem ebben van a nagy penz, de azert megis csak penz es piac. a piac fele az ovek, hulyek lennenek veszni hagyni.
abu jovobeli es piaci meglatasai szerintem sose voltak igazan jok, de a szakmai resz elott le a kalappal
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Loha
veterán
válasz
#32839680 #134 üzenetére
Igen jól tudod, az AMD nem választotta külön a HPC szegmensét a gamingtől, és ennek meg is issza levét, példa:
AMD 280X: 352mm2, 384bit, 250W TDP
NV GTX770: 294mm2, 256bit, 230W TDPEzek nem nyilatkozatok, csak a szokásos Abu (AMD bullshit).
Maxwellnél felhívnám a figyelmet, hogy a GM107-es GPU ami a GTX 750 Ti -ben dolgozik, nem a GTX 650 Ti -ben lévő GK106-os GPU utódja, hanem a sima GTX 650 -ben lévő GK107-é, ami ugyan úgy kb. 60W-os TDP-vel rendelkezik, mint a GTX 750 Ti, viszont fele olyan gyors csak. Tehát a Maxwell jelenlegi infók alapján közel 2X annyi teljesítményt tud azonos fogyasztás és chipméret (20nm esetén) mellett.
Maxwell ugyan ott folytatja, ahol a Kepler abbahagyta. -
Peat;)
veterán
válasz
#32839680 #133 üzenetére
Ha támogatja a gtx 400-as széria az nem más mint átba*ás mert csak részeiben támogatja? Ha egyáltalán nem támogatja egy régebbi modell az meg a realista irányvonalra nevelő korrektség a tulajok felé? Mondom, van sapka nincs sapka, nincs olyan mondat ahol ne az nvidia basztatás lenne a középpontban bármilyen vonatkozásban. Unalmas.
-
hNp88
aktív tag
nem tette meg már évek óta? akkor nekem most mi a retek van feltelepítve? én aszittem 12...
ja, 10.0, oksi.
[ Szerkesztve ]
Beatam Mortem Expectans. "kötél&diófa - business solutions"
-
Loha
veterán
Amúgy a kolléga valami olyasmit akart kihozni a dologból, hogy az nVidia nem a játékpiacra koncentrált akkoriban és ez tény. Aztán most kitúrták őket a HPC piacról, meg a mobilpiacról és jött az ébredés.
NV-nál mindig is a PC-s játékpiac volt az elsődleges prioritás, ez azóta sem változott, csak bejött mellé a HPC, ahol töretlen sikerrel nyomulnak azóta is. A Ferminél még nem tudták kellő mértékben szétválasztani a gamer és a HPC chipeket mint a Keplernél, ami nem lett volna túl nagy probléma, csak az AMD akkor éppen a "játékra lecsupaszított" stratégiát tolta, ezért sokkal kisebb chipmérettel ki tudták hozni ugyan azt a játékok alatti teljesítményt. A mobil piacra való első betörési kísérletük eléggé gyengén sikerült, most futnak neki másodszor.
-
mzso
veterán
Mi van ha addig kiadnak egy Mantle api 1.1 frissítést AMD-ék? Ami abban is gyorsabb/hatékonyabb a még meg nem jelent dx12-nél amiben most még nem.
[ Szerkesztve ]
-
leviske
veterán
válasz
dergander #126 üzenetére
Alapvetően a FX-9000 sorozat egy szép példa arra, hogy nem volna reménytelen bikából menni az Intel után, csak értelme nincs. Pláne, hogy a hagyományos irányt az Intel is tervezi elvetni, az AVX-nél meg minden szempontból ideálisabb a piac számára a HSA-féle út, hiszen utóbbi megnyitná több belépő előtt az utat.
(#127) Peat
: A GTX400 széria a HD5000-esek ellenfele volt, némi késéssel. Amúgy a kolléga valami olyasmit akart kihozni a dologból, hogy az nVidia nem a játékpiacra koncentrált akkoriban és ez tény. Aztán most kitúrták őket a HPC piacról, meg a mobilpiacról és jött az ébredés.
Hirtelen nem tudom, hogy erre, vagy az előző hozzászólásomra jött-e, de nem vagyok arról határozottan meggyőződve, hogy helytálló a kijelentésed. Jó példa erre az Intel elleni harc, amire az nVidia és az AMD is alternatív utak keresésével válaszolt. Mégha ezért mindkettő kapja is a fejére a jelzőket.
[ Szerkesztve ]
-
Peat;)
veterán
válasz
#32839680 #123 üzenetére
"Ne állítsuk már be szegény NV-t úgy mintha anno a jövőnek fejlesztett volna, a csúnya fejlesztők pedig nem használták ki."
A GTX 400-as széria szerintem előbb volt mint az AMD 7-es széria(talán AMD 6-ossal jött ki amikor nvidia a 4-essel), fentebb írták hogy ezektől indul a támogatás, hogy milyen szinten persze nem tudjuk. De ettől még érdekes az írásod első mondata ezek után, olyan van sapka nincs sapka esete szerű. Igazából semmit nem tudunk de ez a topik is elment abba az irányba hogy az nvidia egy ócskavas lesz meg az nvidia a hibás hogy nem szépek a játékok. Az új konzolokon is vannak érdekes dolgok, de mivel ott nincs nvidia egy szó sem esik ezekről (leginkább xbox one-ra gondolok, de ott van Microsoft legalább amit megint rugdosnak általában a PH!-n).
leviske: piacot szerezni mindig sokkal költségesebb, mint fenn tartani a piaci pozíciót.
[ Szerkesztve ]
-
dergander
addikt
válasz
bbTamas77 #124 üzenetére
"Nvidia-t nem vásárolta fel egy processzor gyár mint az ATi-t."
Pedig mikor ez történt már mindenki temette az ATI-t mert már félig a sírba volt.majd rá 5 évre mostmeg nem így állunk.Viszont CPU téren az AMD iszonyat lezuhant amit sajnálok.Dehát őkis csak egy valamire tudnak jobban figyelni,és ez most a GCN
-
bbTamas77
aktív tag
válasz
#32839680 #123 üzenetére
Nvidia-t nem vásárolta fel egy processzor gyár mint az ATi-t.
Lesz nekik is hasonló tudású hardver Maxwell ARM-re ahol közös címtér lesz úgy mint a konzoloknál vagy a Kaverinél.
Azért nem került Maxwell APU-k a konzolokba, mert egyszerűen nem tudták volna arra az időre leszállítani amit a Sony és a MS kitűzött célul.Most az ARM miatt késlekedik a Maxwell vagy mi miatt? Tippem szerintem ARM miatt.
-
bbTamas77
aktív tag
válasz
#32839680 #119 üzenetére
Fermi elment Compute Shader irányba, de akkor a fejlesztők nem kapkodtak érte, sem a nép.
Újítás volt, lásd GTX 480, korrekt kártya, csak egy szobát belehet vele fűteni.
Aztán architektúra meg melegedés kilett javítva GTX 5xx szériában.
Aztán jött a Kepler architektúra, ahhol ennek a hatékonyságát csökkentették, erre az AMD elkezte el tolni Compute Shader effekteket, mert ebben az csoda GCN architektúrája csúcs (minden létező szabványt támogat).[ Szerkesztve ]
-
leviske
veterán
válasz
#32839680 #119 üzenetére
Nem tudom mikor volt utoljára a történelemben olyan eset, hogy érdemes volt egy konkurens által megadott szabályok szerint elkezdeni fejleszteni. Mindenesetre az nVidia helyében én is kihagytam volna a lehetőséget, ha helyette azonos összegből van esélyem Androidon/Linuxon egy saját alternatívát kínálni. Az ARM úgysem lesz egyhamar elterjedt Windows alatt.
(#120) Malibutomi: Ami egy rendkívül felkapott engine. Lehet meg is van az oka...
-
Loha
veterán
Az AMD szerint a GCN -től felfelé lesz támogatott a DX12, tehát minimum HD 7000-es VGA fog kelleni hozzá.
Az NVIDIA szerint Fermi lesz a minimum a DX12 -höz, tehát GTX 400 -as szériától felfelé fogják támogatni.
-
Abu85
HÁZIGAZDA
Szándéka talán nincs, de akkor is a GCN-re készítették, tehát mindenki hátrányban lenne. Ez nem feltétlenül akarat, hanem így volt logikus. Az MS a DX12-ben a leírók működését az Xbox One hardverére tervezte, és ezért a GCN-nek kedvez a leginkább Ez is így volt logikus.
Az AMD-nek mindegy, hogy DX12-re, vagy Mantle-re írod a programot. A lényeg, hogy a konzolról hozd át az effektet, az optimalizálást, mert ott úgyis a GCN a target. Az NV-nek ez a hátrány nem a Mantle, és ezért van ott a GameWorks. Egy csomó pénzért dettó ugyanolyan effekteket készítsenek, amiket ma a játékfejlesztők írnak. Elvben totális pénzkidobás az egész, de valójában nem, mert az NV pont azt nem akarja, hogy a PC-be a konzolos effektek kerüljenek, amelyek biztosan a GCN-en futnak a legjobban.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
bbTamas77
aktív tag
válasz
dergander #94 üzenetére
Te végiggondoltad, hogy mit beszélsz?
Még is az nVidia-nak miért kellene elfogadni egy konkurens cégnek egy saját fejlesztésű API-ját?
Ennyire elvakult fanok nem lehettek.
Akkor feneket sikerült keríteni ennek a Mantle-nak, hogy nagyobb a füstje mint a lágja.Fikázzak sokan a mantlit pedig az amd vette a fáradtságot és tett valamit,és már a crytek fiúk is ráugrottak...akkor nemlehet annyira rossz.
"crytek fiúk" aha.. szóval ha crytek nem ugrik rá valamire az nem lehet jó?Akkor tévedésben élnek egyesek, hogy nem igaz.
Valahol azt olvastam, hogy valaki Kijelenti, hogy Mantle a legjobb API.
Ilyen, nincs, hogy legjobb API.dergander-től:
"Az hogy most az MS csinál nekünk egy LowLevelApi-t nembiztos hogy olyan jó lesz."Ellenkezőleg, pont, hogy jobb lesz, lesz egy közös alap amit mindenki támogatni fog.
-
arn
félisten
nem sok vizet fog a mantle zavarni. kb olyan sorsa lesz, mint tobbi korabbi nativ apiknak. most talan annyival jobb a helyzet, hogy annyival komplexebbek a motorok, hogy joval kevesebb van beloluk, illetve jatek sem jelenik meg annyi.
en amugy sem ertem a "gyorsulasi" koncepciot - ott varnek gyorsulast es jobb optimalizaciot, ahol lassu, hogy a lassabb masinakon is jobban fusson, nem ott, ahol amugy is gyors, es most meg gyorsabb lesz (tobb gpun, meg 12 szalon).
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
norbert1998
nagyúr
nagyon remélem hogy ez jó lesz, úgy minden téren, vagy legalább a gyártói opptimalizálás programokban
-
huskydog17
addikt
Ígéretesnek tűnik nagyon, azért meg hatalmas piros pont a MS-nak, hogy minden DX 11-es hardver elegendő lesz hozzá!
Abu, ha már úgyis új API-ról van szó, tervezel írni egy cikket OpenGL-ről is?
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
-
ÁdiBá
veterán
válasz
dergander #104 üzenetére
Miért van az hogy jön a GTX780 erre jön az R9 290X majd arra jön a GTX780Ti?!
Évről évre így megy...
Mantle lehet teljesen rendben van, Radeon kártyán.
De sok sok évig csak Directx volt...
Szerintem a Microsoft jobb dolgot kitud hozni a Directx-ből szofteveresen mint az AMD mantléval.
AMD tud mindent, csak drivert írni nem.(#108) dergander Ez jogos.
De én úgy vagyok vele hogy megeheti a két kártyám is nyugodtan a 700W. Nem érdekel.
Míg 80 Fps el megy a CrySis3 WQHD - ban.[ Szerkesztve ]
ÁdiBá
-
dergander
addikt
Itt szerintem már csak büszkeségből se fognak úgymond behódolni a nagy vetélytársnak.
Inkább az lett volna a legjobb megoldás ha nem a DXet erőltetik hanem lassacskán mindkét nagy cég(NV,AMD) áttér egy közös APIra. Mert ez az egész DX szerintem büzlik. A Mantle már igyis bizonyított hogy van mögötte tudás,nem is kevés,csak még kicsit fejlődnie kell.
Az hogy most az MS csinál nekünk egy LowLevelApi-t nembiztos hogy olyan jó lesz.
De még mindig nem értem,ha ezt eddig is tudták akkor miért akkor jelentik be a DX12 fícsöröket mikor a mantle tör be? Erre a választ sose kapjuk meg...Pedig egy sajtótájékoztatót meghallgatnék erről
-
Abu85
HÁZIGAZDA
Nekik az volt a bajuk, hogy az AMD irányítja a fejlesztést. Ebbe nincs beleszólásuk. A Mantle eleve biztosít egy base funkcionalitást, amit szándékosan a Keplernek és a Maxwellnek alakítottak ki, de nyilván más is betérhet, ha ezt az alapot képes támogatni. Tehát új hardvert semmiképp sem kellett volna tervezniük, vagy ha fordítva nézed, akkor a DX12 teljes funkcionalitásához is új hardvert kell tervezniük, mert csak az alap szintet érik el a mostaniakkal. Szóval a gond itt csak az lehetett, hogy a Mantle-t nem egy független alapítvány fejleszti.
A stratégiájukba igazából egyik API sem illik. Nekik az a jó, ha a konzolról nem portolja a fejlesztő az effektet, hanem a GameWorks alternatívát használja.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
ph Az új API a Xbox One-tól a mobilon át a PC-ig mindenhol támogatott lesz.
- iRacing.com - a legélethűbb -online- autós szimulátor bajnokság
- Kormányok / autós szimulátorok topikja
- PlayStation 5
- Google Pixel 9 és Pixel 9 Pro összehasonlító gyorsteszt
- Milyen routert?
- Okos Otthon / Smart Home
- Ingyen kellene, de tegnapra
- Nintendo Switch 2
- Elektromos rolleren is fontos az index!
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- További aktív témák...
- BESZÁMÍTÁS! Asus ProArt OC RTX 4070 OC 12GB GDDR6X videokártya 3 év garancia 27% áfa
- Hibátlan - ASUS Nvidia Geforce RTX 2060 Super Dual Evo V2 Advanced 8GB GDDR6 256bit VGA videókártya
- MSI RTX 3090 GAMING X TRIO 24 GB - GARIS
- Hibátlan - ASUS Nvidia Geforce GTX 1080 Turbo 8GB GDDR5X 256bit VGA videókártya
- PowerColor RX 6600 XT 8GB GDDR6 HELLHOUND Eladó!
Állásajánlatok
Cég: Marketing Budget
Város: Budapest