- Két Zen 5-ös dizájnjának mintáit is szállítja már az AMD
- A Colorful "fagyosan kompakt" alkatrészekkel megy elébe a nyárnak
- A Keychron ismét egy űr betöltését vállalta magára az egerek szegmensében
- Az átlagnál vaskosabb ventilátorok kandikáltak ki a Corsair vitorlája mögül
- Csatába küldte Magyarországon idei csúcs hangprojektoros szettjét a Samsung
Hirdetés
-
Két Zen 5-ös dizájnjának mintáit is szállítja már az AMD
ph A szerverpiacra szánt Turin platform, illetve a mobil szintre nevező Strix Point érhető el a főbb partnerek számára.
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
-
Az üzleti chatbot lehet az új fejőstehén
it Üzleti chatbotot indított az Anthropic, azt reméli, hogy sok pénz folyik majd be a cégektől.
Új hozzászólás Aktív témák
-
DriderG
tag
Érdekes, azt hittem, hogy a 4-be már beépítették a 64-bites vertex támogatást. Egyébként jó látni, hogy ilyen szépen kiépítik a szabványt (WebGL, OpenGL ES, OpenCL), mivel a Microsoft a játékfejlesztés terén (DirectX, XNA, C#) elég erősen magához köti a fejlesztőket. Azt viszont nem szívesen reklámozzák, hogy OSX alatt nem az ő API-juk fut, pedig szerintem sok az olyan gémer, aki azt hiszi, hogy Mac-en is DX9-ben megy a Half-Life 2, a Portal stb....
-
hakosh
tag
Miért választjék a fejlesztők mégis a DirectX-et ha ilyen menő az OpenGL? Komolyan kérdezem
-
Poetro
csendes tag
Ajánlom a figyelmedbe a Why you should use OpenGL and not DirectX cikket. Meg fogsz lehet lepődni az indokokon.
-
-
sarocker
csendes tag
Sinbad a hozzászólások közt jól megfogalmazta: "don't have a holy war about it".
Én egyébként azt tapasztaltam, hogy OpenGL API-t használni körülményesebb, mint DirectX-et. Nyiván van igazság a post-ban, de a MS megtoldotta annyival a dolgot, hogy professzionális fejlesztői környezetet is ad az API--ja mellé. És ez óriási fegyvertény a fejlesztők szemében. Nyilván, a MS-nak van erre pénze és erőforrása, a Khronos-nak meg épp elég az interfészt deklarálni.
Nem azt mondom, hogy a DX jobb, mert nem biztos, de mindenképp kényelmesebb, ergo csökkennek a fejlesztési költségek. Ez meg a játékgyártó és kiadó cégeknek fegyvertény.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Azt elfelejtette leírni, hogy a fejlesztők reformot akartak az API-k területén. A DX10 elhozta ezt, míg az OpenGL esetében még mindig fontos szempont a kompatibilitás megőrzése.
Ügyesen beállítja az MS-t fekete lónak, de valójában a DirectX csak azt nyújtja, amit a játékfejlesztők akarnak, míg az OpenGL nem egészen. A DirectX 10 sőt a DX11 óta elég egyszer megírnod a teljes kódot és az API minden mást elintéz. A régi DX-ben ott voltak a Vendor Specific Caps bitek, ami támadás alatt volt állandóan, míg az OpenGL-ben helyenként szöszölni kell a kiterjesztésekkel.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
banhammer
veterán
Időközben kijött az Nvidia a Forceware 259.09 driverrel ami már támogatja az OpenGL 4.1-et.
Bővebb infó itt.\m/ Minden lehetséges, kivéve forgóajtón átsíelni... \m/
-
hakosh
tag
Két kérdés jutott hirtelen eszembe:
Miben és hogyan írják azokat a játékokat, amelyek X360-on, PS3-on és PC-n is futnak? Ha jól értem az Xbox nem OpenGL kompatibilis, a többi hardver meg nem DirectX kompatibilis. Mi a trükk?
Hogy kell azt érteni, hogy csak az nVidián kívül csak a 2.0-t támogatják? Wiki azt mondja, hogy az AMD az 5000-es sorozattól a 4.0-t is, de az elődök is ismerik 3.3-ig az OpenGL-t. Vagy ez olyan mint az Internet Explorer? "Támogatja-támogatja, de azért ez így mégsem igaz"
-
DriderG
tag
Az egy dolog, hogy ahogy írtad az OpenGL újabb verzióról dinamikusan vissza tud váltani, ha pl. nem OpenGL 2.0-ás a hardver, míg a DirectX dob egy "a program szabálytalan műveletet hajtott végre" hibát a Windowsnak. Az viszont nem teljesen igaz, hogy nem kéne újraírni a kód bizonyos részeit, mivel mind az 1.0, a 2.0 és a 3.0-4.0-ás API-ban is komolyabb változásokat eszközöltek, ami sok esetben kihat a program alapvető felépítésére (pl.: mátrixok kezelése, régi, OpenGL 1.0-ás algoritmusok elvetése stb.). Az, hogy visszafele kompatibilis, ahhoz a jól megírt program is szükséges.
("A játékok OpenGL 2.0 ficsőröknél magasabb szintűt nem fognak használni, mert felesleges! Ugyanezen oknál fogva vagyunk még mindig dx9nél, mert jelenleg felesleges a 10, 10.1 és 11 is.")
Az újabb API-kat (3.0, 3.1, 3.2, 4.0, 4.1) azért nem használják játékokban, mint a DX10-11-et sem, mert az elsődleges platform a konzol, ami megrekedt DX9/OpenGL 2.0 szinten, ami viszont nem jelenti azt, hogy nem lehet szebb grafikát DX10/11-gyel létrehozni (pl. Crysis)("Játékot akarnak írni a fejlesztők, nem magfizikát számolni valami idióta inkompatibilis hardveren")
A DX10-11 és az OpenGL 3 és 4 nem egyenlő az általános célú felhasználással, arra ott a CUDA/ATi Stream/OpenCL, viszont a DX és az OpenGL nem általános célú felhasználásra jött létre, akármelyik verzióról is beszéljünk, de tény, hogy erőteljesen elősegítik azt (hála az egyesített shadereknek), ami jól jöhetne olyan esetben, amikor a processzor erősen le van terhelve. (PS3-mon ugyanez megy, csak ott a CPU segíti a GPU-t nagy felbontásnál)("Az nVidián kívül az összes gyártó csak az OpenGL 2.0-t támogatja normálisan. SiS és S3 még csak 1.4 - 1.5 körül jár driver szinten.")
Azért, mert kevés OpenGL-t használó játék van. Ami van, az is OpenGL 2.0-ás API-t használ. (Doom 3, Quake 4, Spore, Sims 3, WoW, Starcraft 2 stb.)("A játékok többi része (főleg az indie/casual gamek) pedig még ennél is sokkal régebbi, OpenGL 1.1 alapú ficsőröket használnak csak, mert az is bőven elég.")
Mutass már ilyeneket, mert kíváncsi vagyok. Persze PC-s játékokra gondolok, nem mobilos OpenGL ES 1.1-esekre, mert az más. -
DriderG
tag
PS3-ra OpenGL ES módosított változatával, X360-ra DX9-el érik el a hardvert. Mindkét konzol GPU-ja képes kezelni DX-et és OpenGL-t is, csupán a rendszerszoftver (Firmware) nem teszi ezt lehetővé. A "trükk", hogy a grafikus motor, amiben írják a játékot képes valós időben mindkét API-ra renderelni. Windows alatt persze inkább DX-t használnak, ha nem olyan címről van szó, amit Mac-en és PC-n is lehet játszani, mert ott az OpenGL-lel könnyen ki lehet küszöbölni a kompatibilitási hibákat. (WoW, Spore, Sims 3 stb.)
("Hogy kell azt érteni, hogy csak az nVidián kívül csak a 2.0-t támogatják? Wiki azt mondja, hogy az AMD az 5000-es sorozattól a 4.0-t is, de az elődök is ismerik 3.3-ig az OpenGL-t. Vagy ez olyan mint az Internet Explorer? "Támogatja-támogatja, de azért ez így mégsem igaz"")
Miért ne támogatná? Ha benne van a driver release notes-ban, akkor igen, persze ez hardverfüggő.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
-
DriderG
tag
"Természetesen ez nem beszólás" nem, de jó lenne, hogy, ha meg is indokolnád a válaszaid, mert nincs azzal gondom, ha valaki valamit jobban tud, sőt, örülök neki, hogy el tud magyarázni dolgokat, viszont te egyenesen megmondod, hogy valami nincs úgy és kész, mégsem adsz forrást, hogy mit kifogásolsz. Persze lehet, hogy te dolgoztál már multiplatform címen, ahol a grafikus rendszert programoztad, vagy írtál rendszerszoftvert konzolhoz. Annál jobban érdekel, hogy hogy működik az egész. Ez a "A játékok 95%-a OpenGL alapú." nekem például elég furcsa. Hol van ez így megírva, hol látod ezt?
-
Sanyix
őstag
"OpenGL 2.0 szinten, ami viszont nem jelenti azt, hogy nem lehet szebb grafikát DX10/11-gyel létrehozni (pl. Crysis)"
crysis pont rossz példa, ugyanis abban 0 a dx10, abban csak dx10 kártyára aktiválódó dx9 effektek vannak.
Egyébként tényleg sok játéknál találni opengl-es nyomokat, pl az unreal motorban ott figyelnek a konfigban az ogl-es beállítások, ahhoz valami dll-kell hogy ogl-en fusson, amit egyébként nem szoktak elérhetővé tenni az ezt a motort használó játékoknál.
Viszont a 95% erősnek tűnik, ugyanis a legtöbb játékban nyoma sincs opengl-nek, legalább is semmilyen jel nem utal rá.
szövegértelmezés, az ÉRTELMEZÉS a fontos, mert az olvasás mindenkinek megy, de az ÉRTELMEZÉS már komoly probléma a magyaroknál. Gondold ezt át mielőtt marhaságot írsz...
-
DriderG
tag
Hol gyártanak manapság ilyen vezérlőket, főleg itthon? Vagy az S3-nál vagy főállásban NYÁK tervező? Esetleg te tervezed meg magát a GPU-t? TNT2 szintű gyorsítókártya a régebbi intel chipkészletekben volt, mostanában már nem látni ilyet. (kivéve, ha beágyazott rendszerekről van szó) Én nem kérem, hogy ilyen óriási szakmai titkokat árulj el (mert mintha eddig is annyi mindent elmondtál volna), csupán engem is érdekel a dolog, hogy hol, milyen szakterületen dolgozol, hol, honnan tanultad a szakmát stb. Ez önmagában nem tartalmaz szakmai titkot, mert nem arra kérdezek rá, hogy hogy kell ezt-meg-azt programozni. (Persze a részletek is érdekelnének, mert én is hasonló szakterületen szeretnék elhelyezkedni a jövőben, de megértem, hogy ez titok)
-
TTomax
nagyúr
Szerintem te semmivel nem vagy jobb mint a "bunkó angolok"....
Tipikus magyar vagy aki "csigazabáló franciáról" "bunkó angolról" meg "szőröstalpú románról" beszél...és ez egyáltalán nem vicces!
Az ilyen emberek miatt mint TE,szégyellem magam hogy magyar vagyok...[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
DriderG
tag
Ezek szerint te egy vagy a 90 kiválasztott közül. Csupán azt nem értem, hogy linuxra írtál ugyan drivert (ami ugye szoftver), de GPU-t hogyan tervezel megfelelő háttér nélkül. Úgy értem kicsit helyigényes mondjuk több ezer kapuáramkörrel hazaállítani, hogy most csinálok egy GPU-t, ahhoz kell megfelelő villamosmérnöki/elektronikai tudás, megfelelő tervezőprogram, agyalni kell rengeteget a részegységek hardverszintű szinkronizációján, illetve az, hogy legyen egy hely, ahol mintapéldányokat tudnak neked gyártani (chipet). Persze, ha rosszul tudom javíts ki.
Ja, még annyi, hogy szívesen megpróbálnám, de egyrészt sohasem csináltam még ilyet, nem tudom hogyan lehet elérni a GPU-t közvetlenül, megkerülve a drivert (gondolom assembly vagy gépi kód mindenképp kell hozzá). Te hogyan kezdted, mit ajánlsz, hogyan lehet elkezdeni?
[ Szerkesztve ]
-
DriderG
tag
Egy C-ben megírt forrás, mint hardver? Ez érdekes. Úgy tudtam vannak bizonyos áramkörtervező programok (Pl. Az NI-nek a Workbench) amelyekkel ezeket konkrétan megtervezik, mert egy szoftver csak megadja, hogy mit csináljon a hardver, azt, hogy hogyan, az már a felépítésétől és a vezérléstől függ. Persze a vezérlést is szoftver végzi, de az sem szól bele a felépítésbe, csak a szinkronizációba. Mármint egy 32 bites ALU sosem lesz 64-bites, akármilyen programot is írsz rá. Vagy egy 64 bites adatsín sem lesz 128 bites. Értem, hogy programmal viszonylag jól lehet szimulálni, hogy mi-mit csinál, de a fizikai paraméterek adottak, mivel egy konkrét hardveren futtatod.
-
DriderG
tag
Igen, úgy tudom az első NV kártya (NV1) is FPGA-kból állt. Ahhoz, hogy OpenGL 1.4-es minősítést megkapja a kártya, minek kell teljesülnie? Ha a driver képes lekezelni a specifikus függvényeket/ARB kiterjesztéseket, akkor az már elég? Ezek az FPGA-k mennyire térnek el felépítésben attól függően, melyik gyártótól veszel? Alapvető felépítésük ugyanolyan? Bocs a sok kérdésért.
Új hozzászólás Aktív témák
- Rövid előzetesen a S.T.A.L.K.E.R. 2: Heart of Chornobyl
- BestBuy topik
- Kerékpárosok, bringások ide!
- Skoda, VW, Audi, Seat topik
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Turbo Kid teszt
- Sony MILC fényképezőgépcsalád
- OLED TV topic
- ArchiCAD és Artlantis topik
- Futás, futópályák
- További aktív témák...