- Autós kamerák
- 80% vs. 100% – Tönkreteszed az aksit, ha mindig feltöltöd? – Tech Percek #6
- AMD Navi Radeon™ RX 9xxx sorozat
- Megkapta a legújbb GRE Radeont kapott Kína
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- VR topik (Oculus Rift, stb.)
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Projektor topic
- HDD probléma (nem adatmentés)
- Vezeték nélküli fülhallgatók
Új hozzászólás Aktív témák
-
WonderCSabo
félisten
Kár, h. nem a Havokot támogatja az Nvidia, az sokkal elterjedtebb. Most meg az a konkurenciája...
-
Xmas
tag
Vajon mit fog szólni az Oracle az APEX név használatához?
-
mephi666
nagyúr
-
Akkor általánosságban elmondható, hogy jelenleg a havok a jobb(fejlesztés szempontjából)?
-
Ráadásul a v3 dx-ben elég gyengusz volt.
A VSA100 (v4/v5) már inkább dx/OpenGL kari volt, de kopmatibilis maradt a glide-al is.
Nekem volt V5-ös karim. A 800-1000Mhz közötti procik idején jelent meg, ha jól emlékszem (sok helyen még 550-es procival tesztelték), de az 1.4-es Tualatinból 2,4-es P4-be átrakva jelentősen gyorsult a kari.
Azt mondták az okosok akkoriban, hogy megfelelően erős procival lenyomhatja a GF2-t is, ami a megjelenésekor alaposan elverte a v5-öt. -
akkoriban a 32bit valoban egy marketingfogás volt (kvázi felezte a teljesítményt), ráadásul a 16bit hátrányait a tnt trágya 16 bites képével "demozták" ... működött
ettől függetlenül a 3dfx is rengeteg hibát követett el és végül megérdemelt volt a "haláluk" (max 256x256os texturák támogatása voodoo3ban? idiotizmus)
-
mephi666
nagyúr
jaja... a t&l hiánya miatt lett pl a legerősebb voodoo5 is gyengébb a gef-eknél :S pedig brutális értékekkel rendelkezett már az is... volt akkor egy kis kavarodás: javában fejlesztették már a rampage-et, ami olyan t&l támogatással volt megáldva, hogy dx8 szinten lesöpörte volna a többi kártyát... asszem a legütősebb gef4-ek vették volna fel vele a versenyt később... ekkor volt veszteséges a 3dfx a voodoo4-5 gyenge szereplése miatt és ha nem hagyják, hogy az nv felvásárolja a céget, hanem valahogy kiadják a rampage-et, akkor más lenne most szerintem a piac felállása... csak hát túl sok a "ha"
r.i.p. 3dfx... imádtam a voodoo-imat... az előző módon részletezett "16bit"-ben is sokkal szebb volt, mint a d3d-kártyák... azoknál 16bitben szellemképesek meg ocsmányak pl az effektek :S
-
válasz
Jim Tonic #37 üzenetére
Szerintem a 3dfx végét a hardveres T&L hiánya okozta, és ebből adódott az alacsonyabb sebesség.
Úgy emlékszem, hogy:
A 32 bites színmélység akkoriban sem volt túl nagy előny, mert az nV karik 32 biten lassabbak voltak a voodoo kariknál, 16 biten meg rondább volt a kép.
A voodoo 20 biten dolgozott, és azt konvertálta le 16-ra, ami szebb képet eredményezett, mint az nV 16 bites képe, csak lassabb volt.(#39): Szerintem majd akkor mondjunk véleményt róla, ha majd látjuk a Larrabee-t.
Jópár hónapja valami olyan pletyit olvastam, hogy a Larrebee egy teszt változata 2Tflops-ot tud 300W mellett. Ez jobb, mint a GT200 ~1Tflops/225W-os eredménye.
Persze kérdés, hogy igaz-e. És ha igen, mennyit fog változni a végleges változatig. -
-
Abu85
HÁZIGAZDA
válasz
Jim Tonic #35 üzenetére
És akkor most hozzunk létre egy másik futószalagot, amire megint 2-3 év mire kiforr egy hardver? A fejlesztők nagyfokú szabadságot akarnak. Ezt egyelőre a Larrabee-től lehet remélni. Eleve 48, de inkább 64 magos termékről beszélünk. Erő lesz bőven. Ha a Cell-t már erőműnek nevezzük, akkor a Larrabee-re nemtom milyen szó az ideális.
A legjobb ha hagyják a fejlesztőket a saját útjukat járni ... -
Ha így lesz, hülye megoldás. Izomból kell majd megoldani egy olyan feladatot, amit egy célhardver negyed annyi tranzisztorral, hővel, fogyasztással megoldana.
Számomra úgy tűnik az Intel úgy akarja behozni a lemaradását, hogy ideiglenesen egy másik vonalat erőltet a világra, és azon a csatamezőn akarja letudni a háborút, ahol a legerősebb, az X86 fronton. Kicsit hasonlít az Nvidia megoldásaihoz.
Aztán majd beleharap a saját farkába, ahogy az Atommal is tette. Nem azt sikerült vele elérnie, amit akart, nem került bele mobileszközökbe, nem nyírta ki az ARM-ot, viszont nem tudja eladni olyan árréssel, mint a mobilprocesszorait.A szoftveres renderelés képességeiről annyit, hogy egy amúgy erőteljes proci elfekszik egy HD video lejátszásán, egy szerény képességű videokártya meg nevetve viszi.
Ha ezt játékoknál akarják megoldani, olyan erőforrás-pazarlásról beszélhetünk, ami tökéletesen ellentmond a számítástechnika "zöld" fejlődésének. -
LordX
veterán
Soha nem fogsz GPU-szerű egységet x86-al programozni, mert az x86 egy alapvetően skalár utasításkészlet, nem vektor-/mátrixprocesszorokra tervezték. Persze van pár MIMD kiegészítése (MMX, SSEx), de ettől még nem lesz vektor-/mátrix utasításkészlet.
A jelenlegi GPU-knak van egy jól működő utasításkészlete, felesleges feltalálni a spanyol viaszt, és beleizzadni az x86-ba ugyanazt, a kompatibilitás megtartásának szükségessége miatt borítékolhatóan gyengébben.
Amúgy is újra kell tanulni programozni a rendszert (avagy jó fordítót írni), akkor meg már mindegy hogy egy x86 v2 vagy x86 + más.
-
Cyberpunk
félisten
Miért ne lenne normális? Ma még leszámítva azt az egy két játékot ami kihasználja a DX10.1-et abszolút nem érvágás hogy valakinek nV-s kártyája van. Sőt
Ha meg már kevésnek bizonyul addigra a többség úgy is már rég lefogja váltani.
Egyébkén szerintem is jó dolog hogy el akarják hagyni a DX-et. Így talán játszhatnánk más rendszeren is nem csak a Winfoson.
-
Loha
veterán
Igen a GPU-kban sok a fixfunkciós egység, a CPU-knak pedig nem megfelelő a felépítése.
Intel szerint is az ideális felépítés pont a mostani GPU-k és CPU-k között van. Intel elindult a GPU-k irányába, a GPU-k pedig megindultak a "maximális programozhatóság" felé, meglátjuk ki ér oda elöbb
Te továbbra is tartom az álláspontom, hogy mivel a PC nem csak játékgép, ezért a nagyteljesítményű VGA-k továbbra is maradni fognak, különálló "GPU"-val és saját rammal. -
Abu85
HÁZIGAZDA
A szoftver renderhez a maximális programozhatóság az ideális. Eleve nem beszélhetünk kötött futószalagról. A Larrabee és a Cell az ideális a szoftver renderhez ... a GPU-k nem elég jók, mert rengeteg fix funkciós egységgel dolgoznak még mindig.
LordX: A CPU-ba épített GPU csak az első lépés. 2011-re már az Intel és az AMD is ilyen rendszereket árul. A szoftver rendering motorok 2014 körül lesznek.
-
Ez az egész kicsit hasonlít a 3Dfx történetére. Ott megvolt a glide, aztán az ms directx egyszerűen lesöpörte az asztalról az egységesített szabványával.
Úgy látom miután lefutott a havok vs cuda a kör, jön szerintem a DX11 és a havok közti verseny. De hogy melyik lessz a farok és melyik a kutya, még nem tudni. Az is lehet hogy még pár érdekesség bekerül a levesbe, majd kiderül!
-
(#18) LordX:
"hogy a kis teljesítményű GPU beköltözik a CPU szilikonjára"Szerintem nem sima egybeköltöztetés lesz, mert ennek én alig látom értelmét, hiszen ettől még nem lesz szoftver-renderre alkalmas a cucc. Biztos vagyok benne, hogy a mai GPU-k annyira át fognak alakulni, hogy a CPU-ba költöztetés teljesen egyértelmű lesz.
A cél végülis az hogy x86 utasításokkal lehessen egy GPU erejű egységet programozni, nem? Ehhez nem elég a GPU-t belerakni a prociba... szerintem.(#23) schwartz: Ezen már én is gondolkodtam. Mitől lesz egy későbbi proci elfogadható fogyazstású? Lehet, hogy át fog alakulni a mai felépítés, és a proci fog fogyasztani annyit, mint ma egy CPU+GPU páros. Összességében ugyanannyi. Ha megoldható a hűtés emberi áron, akkor no problemo.
-
schwartz
addikt
válasz
TESCO-Zsömle #19 üzenetére
Mert a gazdasági érdekek azt kívánják, hogy ne csak a procit vedd meg jópénzér, hanem vegyél VGA-t is mégegyszer annyiért??
Ugyan mar... Ott az alaplapi VGA. Ugyanezt ne nyomjak mar le a torkomon mas borben... Kulonben is, hogy lesznek piacra dobva? Kis teljesitmenyu CPU resz joarertekmutatos vga-val?
Ha grafikai teljesitmeny is kell megveszed az 500W TDP-s csucs Godzillat?
-
Loha
veterán
válasz
TESCO-Zsömle #19 üzenetére
azon feladatokat számolja, amikhez a processzorok (már/még) kevésnek bizonyul(t/n)ak. Én ezt inkább úgy fogalmaznám meg, hogy a VGA egy grafikai számításokra optimalizát rendszer, mint a GPU, mint a hozzá csatolt relative kevés, de nagyon gyors ram. A CPU pedig általános számításokra van optimalizálva, a hozzá tartozó sok, de lassabb ramal együtt. Ha a PC egy csak játékra szánt eszköz lenne, akkor valószínüleg egybeolvadna a GPU és a CPU, ahogy a konzoloknál is láthatjuk, hogy közös gyors, de kevéske ramot használnak, mert játékokhoz ez az ideális, de általános (nem csak játék) feladatokra sokkal jobb szétválasztott rendszer.
-
Bcy+
tag
Parasztosan le egyszerűsítve nem kerek aki nv kártyát vesz ?
-
TESCO-Zsömle
titán
Ha szabad ezt a kérdést szgép-szerkezetileg megválaszolnom, akkor azt kell mondjam, hogy CPU tovább lesz, mint VGA. A VGA nem más, mint egy gyorsítókártya, mely azon feladatokat számolja, amikhez a processzorok (már/még) kevésnek bizonyul(t/n)ak.
Amint a processzor(ok) teljesítménye elegendő lesz, hogy újra "ők" számolják ezen számításokat, a VGA, mint olyan, értelmét veszti.Mert a gazdasági érdekek azt kívánják, hogy ne csak a procit vedd meg jópénzér, hanem vegyél VGA-t is mégegyszer annyiért??
LordX: A dolog lényege, hogy akárhány GPU-t pakolsz a CPU-ba, az attól még CPU marad. Vagy ha nagyon "ragaszkodsz",lehet UPU (United Process Unit).
De ez már csak játék a szavakkal.
Az eredeti elképzelés szerint a CPU-nak kell számolnia mindent. És ha ehhez n+1-féle PU-t (Process Unit) kell belepakolni, ám legyen.
-
LordX
veterán
Hogy mi?
A Cell jelenleg egy kétmagos központi proci + n db vektorprocesszor. Nahmost pontosan ugyanez van egy aktuális PC-ben: 1-2-4 magos CPU + 1-2-4 db GPU. A változás max az lesz, hogy a kis teljesítményű GPU beköltözik a CPU szilikonjára (meg más lesz a busz, de az irreveláns programozás szempontjából)
-
Abu85
HÁZIGAZDA
Mire itt a szoftver addigra átalakulnak a CPU-k is. A Larrabee sok tekintetben CPU ... sőt inkább CPU, mint GPU. A távolabbi jövőben többféle mag lesz a CPU-ban. Kifejezetten egy-egy feladatcsoporthoz fejlesztve. A Cell-t ezért hoztam fel példaként, mert némileg előrevetíti a jövőt. Persze a PS3-nak az a baja, hogy nagyon a jövőbe mutat, így a jelenlegi helyzetben kihasználatlan, mire pedig eljutunk a megfelelő használathoz addigra rég lesz PS4.
Nagyon fontos, hogy amikor a szoftver renderről beszélünk, akkor 2014 körüli időpontban kell gondolkodni.
-
Loha
veterán
És ha úgy tesszük fel a kérdést, hogy minek a CPU a szoftverrenderhez?
Azért az sztem elgondolkodtató, hogy ha a VGA-kra nem lesz szükség a szoftverrenderhez, akkor minden kezd bele a vezető CPU gyártó VGA fejlesztésbe.Cell is frankó dolog, csak még mindig nem tudják a játékfejlesztők kihasználni, és ez nem biztos, hogy egyhamar változni fog.
-
Abu85
HÁZIGAZDA
Carmack és Sweeney már a szoftver renderben gondolkodik ... Voxel Space, Ray-Casting, fully programable raszter, esetleg Ray-Tracing. Az ID Tech 6 és az Unreal Engine 4 már ilyen motor lesz.
Mellesleg erről már írtam a PH-s cikkben. A DX futószalag kifújt, fejleszthetőségi lehetőség kvázi nincs. Újítani kell, és egyelőre a fejlesztők saját futószalagot akarnak írni.
-
Abu85
HÁZIGAZDA
A CUDA az az NV saját GPGPU API-ja. Ám jött az OpenCL és év végén jön a Compute Shader. Ezek ugyanúgy GPGPU API-k, csak gyártófüggetlenek. Ezért tekinthető a CUDA halottnak, mert van független alternatíva, és emellett az NV piaci részesedése is rohamléptekben csökken.
Persze a CUDA más piacokon még jó szolgálatot tehet, de a PC-s VGA piacon sok sansza már nincs.A DX11 a DX10-re épül. Ez azt jelenti, hogy a DX11-es kód három erőforrást kreálhat. DX11, DX10.1 és DX10 kompatibiliset (a kártyának megfelelően ugye). Ergo a DX11 kód DX10-ig visszamenőleg fut a hardvereken. A specifikus programkódok azonban csak azon a kártyán futnak le amik támogatják.
Ez a DX10.1-ig való kompatibilitás azért terjedt el, mert DX10.1 számos látványbeli és teljesítménybeli pluszt vezetett be. Ennek megfelelően a DX11 a DX10.1-es kódnál csak minimálisan lesz szebb és valószínűleg nem lesz gyorsabb. Ám a DX10 kódnál sokkal szebb lesz és átlag 20-40%-kal gyorsabb. (persze most elméletben tételezzük fel, hogy az erőforrrás ugyanarra a teljesítményre képest). -
gfefe
őstag
Ez fejtse már ki nekem vki, hogy mit takar ezen mondat
"az NVIDIA GPGPU API-ja már most is halottnak tekinthető, a megrendítő ütést pedig a DirectX 11-ben megjelenő Compute Shader fogja bevinni"
Vmi olyasmit hallottam, hogy csupán a dx10.1 lesz használható 11 alatt vagy mi...
várom a választ
-
zuchy
őstag
Igen, én is azt hallottam, hogy a Larrabee csak bemutatóba lesz, majd ami utána jön valszeg jobb lesz.
(#2) Abu85: Képesek megtenni Nv-ék, hogy nem teszik függetlenné a Physix-et.
Nem lenne jó, ha kiszállna, mert akkor meg az AMD árak elszállnának.
De lehet, hogy a háttérben nagyban dolgoznak egy x86 vagy x64-es CPU-n Csak hát a licenszek... Ez az egyetlen esélye van szerintem Nv-nek. -
Abu85
HÁZIGAZDA
Az AMD-nek is lesz majd Larrabee-hez hasonló rendszere, de csak majd 2014 körül. Az Intel azért adja ki ilyen hamar a Larrabee-t, mert egy DX futószalaghoz kötött rendszerrel sem lenne versenyképes. Ennek megfelelően előredolgozik. Mindenesetre a Larrabee-ben csak a textúrázás lesz fix funkciós, így a DX futószalagon a konkurens rendszerekhez viszonyítva nagy lesz és lassú. Az első modell nulladik generációs lesz tehát csak a fejlesztőknek szól, hogy tanulják a rendszer működését.
Ez a jövő zenéje, hogy az NV mit tud majd, de a platformosodás miatt kevés az esélye a versenyzésre.
-
Én már egy kicsit előre gondolkodva arra vagyok nagyon kiváncsi, hogy ha a Larrabee megjelenik, és sikere lesz - márpedig az intel megoldja, hogy az legyen, ha nem is eleinte, de pár éven belül tuti - akkor az AMD mit fog felhozni ellene, helyesebben az mennyire lesz vele szemben versenyképes...
Olyan erőviszonyok lesznek, mint a procik terén?
Ezzel a vonallal egyébként az nV tudna versenyezni? A GPGPU vonalat nem lehet a szoftver renderre is alkalmassá tenni?
-
-
zuchy
őstag
Érdekes. Nv-nek muszáj lesz egy olyan fizikai szabványt kitalálnia, ami nem hardverfüggő. Máskülönben elsüllyed a Physix a süllyesztőben. Nagy esélye van az a havoknak fölé kerekedni, hiszen Open CL-re épül. A fejlesztőknek pedig ez kell.
Új hozzászólás Aktív témák
Hirdetés
ph Új képességgel bővül a PhysX SDK, melynek segítségével könnyebb lesz a szoftverek fejlesztése.
- PlayStation 5
- Autós kamerák
- iRacing.com - a legélethűbb -online- autós szimulátor bajnokság
- iPhone topik
- Ukrajnai háború
- Samsung Galaxy Watch6 Classic - tekerd!
- 80% vs. 100% – Tönkreteszed az aksit, ha mindig feltöltöd? – Tech Percek #6
- AMD Navi Radeon™ RX 9xxx sorozat
- Eredeti játékok OFF topik
- Politika
- További aktív témák...
- ASUS TUF Gaming F15 FX506 - 15.6"FHD IPS 144Hz - i5-11400H - 8GB - 512GB - RTX 3050 Ti - 1,5 év gari
- Samsung Galaxy A35 5G 6/128GB, Megkímélt, Kártyafüggetlen, Töltővel, 1 Év Garanciával!
- Minolta objektívek
- ThinkPad T14 Gen2i 14" FHD IPS i5-1135G7 16GB DDR4 512GB NVMe ujjlolv IR kam gar
- Silicon Power 64GB (2x32GB) DDR4 3200MHz SP032GBLFU320X02 RAM
- Telefon felvásárlás!! Samsung Galaxy A16, Samsung Galaxy A26, Samsung Galaxy A36, Samsung Galaxy A56
- ÚJ Lenovo Yoga Slim 7 - 14.5" 3K OLED Érintő 90Hz - Snapdragon X Elite - 32GB - 1TB - 2,5+év gari
- Telefon felvásárlás!! iPhone 12 Mini/iPhone 12/iPhone 12 Pro/iPhone 12 Pro Max
- BESZÁMÍTÁS! ARCTIC Liquid Freezer II 420 vízhűtés garanciával hibátlan működéssel
- Telefon felváráslás!! Samsung Galaxy S22/Samsung Galaxy S22+/Samsung Galaxy S22 Ultra
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest