Hirdetés
- Kormányok / autós szimulátorok topikja
- Kipróbáltuk az Anbernic RG40XXV kézikonzolt
- Milyen processzort vegyek?
- Régi vágású miditorony a GameMax receptje szerint
- Hogy is néznek ki a gépeink?
- TCL LCD és LED TV-k
- Hobby elektronika
- Most már kódolni is tudja az AV1-et a Vulkan Video 1.0-s API
- Dübörögnek a Black Friday akciók
- Apple notebookok
Új hozzászólás Aktív témák
-
zuchy
őstag
Érdekes. Nv-nek muszáj lesz egy olyan fizikai szabványt kitalálnia, ami nem hardverfüggő. Máskülönben elsüllyed a Physix a süllyesztőben. Nagy esélye van az a havoknak fölé kerekedni, hiszen Open CL-re épül. A fejlesztőknek pedig ez kell.
PC-STYLE.hu
-
Abu85
HÁZIGAZDA
Igazából itt csak dönteni kell, hiszen nem nagy munka az OpenCL és a Compute Shader támogatása. Ez egyébként érdekes lehet, mert ha kiterjesztik a Physx-et, akkor még nem mondtak le a PC-s VGA piacról. Ha marad CUDA only, akkor sajna a kivonulás a terv.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
Én már egy kicsit előre gondolkodva arra vagyok nagyon kiváncsi, hogy ha a Larrabee megjelenik, és sikere lesz - márpedig az intel megoldja, hogy az legyen, ha nem is eleinte, de pár éven belül tuti - akkor az AMD mit fog felhozni ellene, helyesebben az mennyire lesz vele szemben versenyképes... Olyan erőviszonyok lesznek, mint a procik terén?
Ezzel a vonallal egyébként az nV tudna versenyezni? A GPGPU vonalat nem lehet a szoftver renderre is alkalmassá tenni?
[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
Abu85
HÁZIGAZDA
Az AMD-nek is lesz majd Larrabee-hez hasonló rendszere, de csak majd 2014 körül. Az Intel azért adja ki ilyen hamar a Larrabee-t, mert egy DX futószalaghoz kötött rendszerrel sem lenne versenyképes. Ennek megfelelően előredolgozik. Mindenesetre a Larrabee-ben csak a textúrázás lesz fix funkciós, így a DX futószalagon a konkurens rendszerekhez viszonyítva nagy lesz és lassú. Az első modell nulladik generációs lesz tehát csak a fejlesztőknek szól, hogy tanulják a rendszer működését.
Ez a jövő zenéje, hogy az NV mit tud majd, de a platformosodás miatt kevés az esélye a versenyzésre.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
zuchy
őstag
Igen, én is azt hallottam, hogy a Larrabee csak bemutatóba lesz, majd ami utána jön valszeg jobb lesz.
(#2) Abu85: Képesek megtenni Nv-ék, hogy nem teszik függetlenné a Physix-et.
Nem lenne jó, ha kiszállna, mert akkor meg az AMD árak elszállnának.
De lehet, hogy a háttérben nagyban dolgoznak egy x86 vagy x64-es CPU-n Csak hát a licenszek... Ez az egyetlen esélye van szerintem Nv-nek.[ Szerkesztve ]
PC-STYLE.hu
-
gfefe
őstag
Ez fejtse már ki nekem vki, hogy mit takar ezen mondat
"az NVIDIA GPGPU API-ja már most is halottnak tekinthető, a megrendítő ütést pedig a DirectX 11-ben megjelenő Compute Shader fogja bevinni"
Vmi olyasmit hallottam, hogy csupán a dx10.1 lesz használható 11 alatt vagy mi...
várom a választ
DOWNLOAD ██████████████ 105%
-
Abu85
HÁZIGAZDA
A CUDA az az NV saját GPGPU API-ja. Ám jött az OpenCL és év végén jön a Compute Shader. Ezek ugyanúgy GPGPU API-k, csak gyártófüggetlenek. Ezért tekinthető a CUDA halottnak, mert van független alternatíva, és emellett az NV piaci részesedése is rohamléptekben csökken.
Persze a CUDA más piacokon még jó szolgálatot tehet, de a PC-s VGA piacon sok sansza már nincs.A DX11 a DX10-re épül. Ez azt jelenti, hogy a DX11-es kód három erőforrást kreálhat. DX11, DX10.1 és DX10 kompatibiliset (a kártyának megfelelően ugye). Ergo a DX11 kód DX10-ig visszamenőleg fut a hardvereken. A specifikus programkódok azonban csak azon a kártyán futnak le amik támogatják.
Ez a DX10.1-ig való kompatibilitás azért terjedt el, mert DX10.1 számos látványbeli és teljesítménybeli pluszt vezetett be. Ennek megfelelően a DX11 a DX10.1-es kódnál csak minimálisan lesz szebb és valószínűleg nem lesz gyorsabb. Ám a DX10 kódnál sokkal szebb lesz és átlag 20-40%-kal gyorsabb. (persze most elméletben tételezzük fel, hogy az erőforrrás ugyanarra a teljesítményre képest).Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Carmack és Sweeney már a szoftver renderben gondolkodik ... Voxel Space, Ray-Casting, fully programable raszter, esetleg Ray-Tracing. Az ID Tech 6 és az Unreal Engine 4 már ilyen motor lesz.
Mellesleg erről már írtam a PH-s cikkben. A DX futószalag kifújt, fejleszthetőségi lehetőség kvázi nincs. Újítani kell, és egyelőre a fejlesztők saját futószalagot akarnak írni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
És ha úgy tesszük fel a kérdést, hogy minek a CPU a szoftverrenderhez?
Azért az sztem elgondolkodtató, hogy ha a VGA-kra nem lesz szükség a szoftverrenderhez, akkor minden kezd bele a vezető CPU gyártó VGA fejlesztésbe.Cell is frankó dolog, csak még mindig nem tudják a játékfejlesztők kihasználni, és ez nem biztos, hogy egyhamar változni fog.
-
Abu85
HÁZIGAZDA
Mire itt a szoftver addigra átalakulnak a CPU-k is. A Larrabee sok tekintetben CPU ... sőt inkább CPU, mint GPU. A távolabbi jövőben többféle mag lesz a CPU-ban. Kifejezetten egy-egy feladatcsoporthoz fejlesztve. A Cell-t ezért hoztam fel példaként, mert némileg előrevetíti a jövőt. Persze a PS3-nak az a baja, hogy nagyon a jövőbe mutat, így a jelenlegi helyzetben kihasználatlan, mire pedig eljutunk a megfelelő használathoz addigra rég lesz PS4.
Nagyon fontos, hogy amikor a szoftver renderről beszélünk, akkor 2014 körüli időpontban kell gondolkodni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
LordX
veterán
Hogy mi?
A Cell jelenleg egy kétmagos központi proci + n db vektorprocesszor. Nahmost pontosan ugyanez van egy aktuális PC-ben: 1-2-4 magos CPU + 1-2-4 db GPU. A változás max az lesz, hogy a kis teljesítményű GPU beköltözik a CPU szilikonjára (meg más lesz a busz, de az irreveláns programozás szempontjából)
-
TESCO-Zsömle
félisten
Ha szabad ezt a kérdést szgép-szerkezetileg megválaszolnom, akkor azt kell mondjam, hogy CPU tovább lesz, mint VGA. A VGA nem más, mint egy gyorsítókártya, mely azon feladatokat számolja, amikhez a processzorok (már/még) kevésnek bizonyul(t/n)ak.
Amint a processzor(ok) teljesítménye elegendő lesz, hogy újra "ők" számolják ezen számításokat, a VGA, mint olyan, értelmét veszti.Mert a gazdasági érdekek azt kívánják, hogy ne csak a procit vedd meg jópénzér, hanem vegyél VGA-t is mégegyszer annyiért??
LordX: A dolog lényege, hogy akárhány GPU-t pakolsz a CPU-ba, az attól még CPU marad. Vagy ha nagyon "ragaszkodsz",lehet UPU (United Process Unit).
De ez már csak játék a szavakkal.
Az eredeti elképzelés szerint a CPU-nak kell számolnia mindent. És ha ehhez n+1-féle PU-t (Process Unit) kell belepakolni, ám legyen.
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
Bcy+
tag
Parasztosan le egyszerűsítve nem kerek aki nv kártyát vesz ?
||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||||| |||
-
veterán
válasz TESCO-Zsömle #19 üzenetére
azon feladatokat számolja, amikhez a processzorok (már/még) kevésnek bizonyul(t/n)ak. Én ezt inkább úgy fogalmaznám meg, hogy a VGA egy grafikai számításokra optimalizát rendszer, mint a GPU, mint a hozzá csatolt relative kevés, de nagyon gyors ram. A CPU pedig általános számításokra van optimalizálva, a hozzá tartozó sok, de lassabb ramal együtt. Ha a PC egy csak játékra szánt eszköz lenne, akkor valószínüleg egybeolvadna a GPU és a CPU, ahogy a konzoloknál is láthatjuk, hogy közös gyors, de kevéske ramot használnak, mert játékokhoz ez az ideális, de általános (nem csak játék) feladatokra sokkal jobb szétválasztott rendszer.
-
schwartz
addikt
válasz TESCO-Zsömle #19 üzenetére
Mert a gazdasági érdekek azt kívánják, hogy ne csak a procit vedd meg jópénzér, hanem vegyél VGA-t is mégegyszer annyiért??
Ugyan mar... Ott az alaplapi VGA. Ugyanezt ne nyomjak mar le a torkomon mas borben... Kulonben is, hogy lesznek piacra dobva? Kis teljesitmenyu CPU resz joarertekmutatos vga-val? Ha grafikai teljesitmeny is kell megveszed az 500W TDP-s csucs Godzillat?
[ Szerkesztve ]
If he dies, he dies.
-
félisten
(#18) LordX:
"hogy a kis teljesítményű GPU beköltözik a CPU szilikonjára"Szerintem nem sima egybeköltöztetés lesz, mert ennek én alig látom értelmét, hiszen ettől még nem lesz szoftver-renderre alkalmas a cucc. Biztos vagyok benne, hogy a mai GPU-k annyira át fognak alakulni, hogy a CPU-ba költöztetés teljesen egyértelmű lesz.
A cél végülis az hogy x86 utasításokkal lehessen egy GPU erejű egységet programozni, nem? Ehhez nem elég a GPU-t belerakni a prociba... szerintem.(#23) schwartz: Ezen már én is gondolkodtam. Mitől lesz egy későbbi proci elfogadható fogyazstású? Lehet, hogy át fog alakulni a mai felépítés, és a proci fog fogyasztani annyit, mint ma egy CPU+GPU páros. Összességében ugyanannyi. Ha megoldható a hűtés emberi áron, akkor no problemo.
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
őstag
Ez az egész kicsit hasonlít a 3Dfx történetére. Ott megvolt a glide, aztán az ms directx egyszerűen lesöpörte az asztalról az egységesített szabványával.
Úgy látom miután lefutott a havok vs cuda a kör, jön szerintem a DX11 és a havok közti verseny. De hogy melyik lessz a farok és melyik a kutya, még nem tudni. Az is lehet hogy még pár érdekesség bekerül a levesbe, majd kiderül!
izé
-
Abu85
HÁZIGAZDA
A szoftver renderhez a maximális programozhatóság az ideális. Eleve nem beszélhetünk kötött futószalagról. A Larrabee és a Cell az ideális a szoftver renderhez ... a GPU-k nem elég jók, mert rengeteg fix funkciós egységgel dolgoznak még mindig.
LordX: A CPU-ba épített GPU csak az első lépés. 2011-re már az Intel és az AMD is ilyen rendszereket árul. A szoftver rendering motorok 2014 körül lesznek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
Igen a GPU-kban sok a fixfunkciós egység, a CPU-knak pedig nem megfelelő a felépítése.
Intel szerint is az ideális felépítés pont a mostani GPU-k és CPU-k között van. Intel elindult a GPU-k irányába, a GPU-k pedig megindultak a "maximális programozhatóság" felé, meglátjuk ki ér oda elöbb
Te továbbra is tartom az álláspontom, hogy mivel a PC nem csak játékgép, ezért a nagyteljesítményű VGA-k továbbra is maradni fognak, különálló "GPU"-val és saját rammal. -
Cyberpunk
félisten
Miért ne lenne normális? Ma még leszámítva azt az egy két játékot ami kihasználja a DX10.1-et abszolút nem érvágás hogy valakinek nV-s kártyája van. Sőt Ha meg már kevésnek bizonyul addigra a többség úgy is már rég lefogja váltani.
Egyébkén szerintem is jó dolog hogy el akarják hagyni a DX-et. Így talán játszhatnánk más rendszeren is nem csak a Winfoson.
Hope was the right choice, and it always will be.
-
LordX
veterán
Soha nem fogsz GPU-szerű egységet x86-al programozni, mert az x86 egy alapvetően skalár utasításkészlet, nem vektor-/mátrixprocesszorokra tervezték. Persze van pár MIMD kiegészítése (MMX, SSEx), de ettől még nem lesz vektor-/mátrix utasításkészlet.
A jelenlegi GPU-knak van egy jól működő utasításkészlete, felesleges feltalálni a spanyol viaszt, és beleizzadni az x86-ba ugyanazt, a kompatibilitás megtartásának szükségessége miatt borítékolhatóan gyengébben.
Amúgy is újra kell tanulni programozni a rendszert (avagy jó fordítót írni), akkor meg már mindegy hogy egy x86 v2 vagy x86 + más.
-
-
nagyúr
Ha így lesz, hülye megoldás. Izomból kell majd megoldani egy olyan feladatot, amit egy célhardver negyed annyi tranzisztorral, hővel, fogyasztással megoldana.
Számomra úgy tűnik az Intel úgy akarja behozni a lemaradását, hogy ideiglenesen egy másik vonalat erőltet a világra, és azon a csatamezőn akarja letudni a háborút, ahol a legerősebb, az X86 fronton. Kicsit hasonlít az Nvidia megoldásaihoz.
Aztán majd beleharap a saját farkába, ahogy az Atommal is tette. Nem azt sikerült vele elérnie, amit akart, nem került bele mobileszközökbe, nem nyírta ki az ARM-ot, viszont nem tudja eladni olyan árréssel, mint a mobilprocesszorait.A szoftveres renderelés képességeiről annyit, hogy egy amúgy erőteljes proci elfekszik egy HD video lejátszásán, egy szerény képességű videokártya meg nevetve viszi.
Ha ezt játékoknál akarják megoldani, olyan erőforrás-pazarlásról beszélhetünk, ami tökéletesen ellentmond a számítástechnika "zöld" fejlődésének.[ Szerkesztve ]
Declare var, not war. - Alcohol & calculus don't mix. Never drink & derive.
-
nagyúr
Nem ennyire egyszerű. A 3dfx halálát a TNT2 ill. a 32bites színmélység támogatásának hiánya okozta. A Geforce 256 ellen meg egyszerűen elkéstek egy évet a Voodoo IV-gyel. Szép nagy saller volt a nyílt forráskódú társadalomnak.
Declare var, not war. - Alcohol & calculus don't mix. Never drink & derive.
-
Abu85
HÁZIGAZDA
válasz Jim Tonic #35 üzenetére
És akkor most hozzunk létre egy másik futószalagot, amire megint 2-3 év mire kiforr egy hardver? A fejlesztők nagyfokú szabadságot akarnak. Ezt egyelőre a Larrabee-től lehet remélni. Eleve 48, de inkább 64 magos termékről beszélünk. Erő lesz bőven. Ha a Cell-t már erőműnek nevezzük, akkor a Larrabee-re nemtom milyen szó az ideális.
A legjobb ha hagyják a fejlesztőket a saját útjukat járni ...Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Igen, még az is okosabb megoldásnak tűnik.
A nagyfokú szabadság, nagyfokú kompatibilitás, azaz kötöttségek nélküli rendszer. Programozói szempontból kafa, de ez egyben jó nagy pocsékolás is.
Szerinted mit eszik majd egy Larrabee? Ha nem játszol, mire mész vele egy irodában?Declare var, not war. - Alcohol & calculus don't mix. Never drink & derive.
-
félisten
válasz Jim Tonic #37 üzenetére
Szerintem a 3dfx végét a hardveres T&L hiánya okozta, és ebből adódott az alacsonyabb sebesség.
Úgy emlékszem, hogy:
A 32 bites színmélység akkoriban sem volt túl nagy előny, mert az nV karik 32 biten lassabbak voltak a voodoo kariknál, 16 biten meg rondább volt a kép.
A voodoo 20 biten dolgozott, és azt konvertálta le 16-ra, ami szebb képet eredményezett, mint az nV 16 bites képe, csak lassabb volt.(#39): Szerintem majd akkor mondjunk véleményt róla, ha majd látjuk a Larrabee-t.
Jópár hónapja valami olyan pletyit olvastam, hogy a Larrebee egy teszt változata 2Tflops-ot tud 300W mellett. Ez jobb, mint a GT200 ~1Tflops/225W-os eredménye.
Persze kérdés, hogy igaz-e. És ha igen, mennyit fog változni a végleges változatig.[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
mephi666
nagyúr
jaja... a t&l hiánya miatt lett pl a legerősebb voodoo5 is gyengébb a gef-eknél :S pedig brutális értékekkel rendelkezett már az is... volt akkor egy kis kavarodás: javában fejlesztették már a rampage-et, ami olyan t&l támogatással volt megáldva, hogy dx8 szinten lesöpörte volna a többi kártyát... asszem a legütősebb gef4-ek vették volna fel vele a versenyt később... ekkor volt veszteséges a 3dfx a voodoo4-5 gyenge szereplése miatt és ha nem hagyják, hogy az nv felvásárolja a céget, hanem valahogy kiadják a rampage-et, akkor más lenne most szerintem a piac felállása... csak hát túl sok a "ha" r.i.p. 3dfx... imádtam a voodoo-imat... az előző módon részletezett "16bit"-ben is sokkal szebb volt, mint a d3d-kártyák... azoknál 16bitben szellemképesek meg ocsmányak pl az effektek :S
"Kis lépés az emberiségnek... hosszú lépést a férfiaknak..." ++++++++++++++ BattleTag: mephiHUN#2258 ++++++++ A kígyó veszélyes állat mert harap, de a takarítónő még veszélyesebb, mert ő Maris
-
arty
veterán
akkoriban a 32bit valoban egy marketingfogás volt (kvázi felezte a teljesítményt), ráadásul a 16bit hátrányait a tnt trágya 16 bites képével "demozták" ... működött
ettől függetlenül a 3dfx is rengeteg hibát követett el és végül megérdemelt volt a "haláluk" (max 256x256os texturák támogatása voodoo3ban? idiotizmus)
[ Szerkesztve ]
"ugyanitt hazájából elüldözött nigériai herceg aranybányájának tulajdonjogát megtestesítő NFT jegyezhető."
-
félisten
Ráadásul a v3 dx-ben elég gyengusz volt.
A VSA100 (v4/v5) már inkább dx/OpenGL kari volt, de kopmatibilis maradt a glide-al is.
Nekem volt V5-ös karim. A 800-1000Mhz közötti procik idején jelent meg, ha jól emlékszem (sok helyen még 550-es procival tesztelték), de az 1.4-es Tualatinból 2,4-es P4-be átrakva jelentősen gyorsult a kari.
Azt mondták az okosok akkoriban, hogy megfelelően erős procival lenyomhatja a GF2-t is, ami a megjelenésekor alaposan elverte a v5-öt.[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
félisten
Akkor általánosságban elmondható, hogy jelenleg a havok a jobb(fejlesztés szempontjából)?
"The rewards of tolerance are treachery and betrayal."
-
mephi666
nagyúr
válasz Jim Tonic #45 üzenetére
hát az fx széria sem az erejéről volt híres mindent összevetve :S ha utána az nvidia elszúrta volna a 6os szériát, akkor lettek volna igazán bajban... de azok a kártyák elég gyilkosra sikerültek abban az időben...
mind1... én akkor is sajnálom a 3dfx-et..."Kis lépés az emberiségnek... hosszú lépést a férfiaknak..." ++++++++++++++ BattleTag: mephiHUN#2258 ++++++++ A kígyó veszélyes állat mert harap, de a takarítónő még veszélyesebb, mert ő Maris
-
Xmas
tag
Vajon mit fog szólni az Oracle az APEX név használatához?
-
WonderCSabo
félisten
Kár, h. nem a Havokot támogatja az Nvidia, az sokkal elterjedtebb. Most meg az a konkurenciája...
Új hozzászólás Aktív témák
Hirdetés
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Formula-1 humoros
- Videó stream letöltése
- Kormányok / autós szimulátorok topikja
- Autós topik
- Kipróbáltuk az Anbernic RG40XXV kézikonzolt
- Tőzsde és gazdaság
- Fotók, videók mobillal
- Asszociációs játék. :)
- Milyen processzort vegyek?
- További aktív témák...
Állásajánlatok
Cég: Axon Labs Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest