Hirdetés
- Soundbar, soundplate, hangprojektor
- Milyen CPU léghűtést vegyek?
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Sony MILC fényképezőgépcsalád
- Házi hangfal építés
- Milyen belső merevlemezt vegyek?
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Nvidia GPU-k jövője - amit tudni vélünk
- Fujifilm X
Új hozzászólás Aktív témák
-
addikt
Vártam a realtime renderelt mozgóképet
A kicsire nem adunk... a nagyot meg leszarjuk!
-
Crytek
veterán
Ezzel a technologiával se holnap fogunk játékokat látni
Next PC Upgrade: 2022
-
Angel1981
veterán
Ezek a kártyák kinézetben a Vodoo-s korszakot idézik!
[ Szerkesztve ]
-
Hina
aktív tag
Akartam mondani. Azok a régi szép idők. Nekem van is még olyan kártyám. Mikor még az ISA sínbe pakoltunk. Aztán meg volt az EISA. Na az stabilan fogta a kártyát
(#4) FlekkeN:
Yaaa!! Az a spoiler[ Szerkesztve ]
[̲̅̅S̲̅a̲̅m̲̅s̲̅u̲̅n̲̅g̲̅] [̲̅̅G̲̅a̲̅l̲̅a̲̅x̲̅y̲̅] [̲̅̅S̲̅8̲̅+̲̅]
-
VIC20
őstag
Egy Krájzisz-tesztet dobhattak volna...
-
Jack@l
veterán
Nagy teljesítményhez energia kell, abból meg elég sok hőmennyiség származik, ezen a kártyán még a kétprocison sincs külső táppcsati, de mégcsak egy közepes hűtőborda se.
Azért a profik se hülyék, hogy egy hulladékra kiadjanak 1500 dollárt...
Renderelési teljesítmény elég szerénynek tűnt már a videón is. Nem sok jövőt jósolok a cégnek.
UI: egyedül a sok ram ami vonzóvá teheti a kártyát[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Nem. A nagy teljesítményhez tervezés kell. Ezek a termékek speciálisan ray-tracingre tervezett lapkák. Ez olyan, mint amikor a 3dfx előállt a Voodoo-val. Az sem fogyasztott sokat mégis keresztbe lecsapott minden processzort. Egy speciális célhardver mindig sokkal hatékonyabban működik, mint egy általánosabb megoldás.
Van aki ki fog adni. Lényegében ha hozza az ötszörös teljesítményt, amit a konkurens (igaz nem ray-tracingre tervezett) hardverekhez képest mond a cég, akkor ennyit meg fog érni a termék.
A ray-tracingnek sok ram kell, nem viccből van rajta annyi.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
DE már megint jó embernek ecseteled ezeket, teljesítményhez kell a gyors proci(hagyjuk a célhardver és egyéb meséket amíg nincsen konrét mérés egy közkézen forgó renderelet test sceneről), Vodoo is mocskos sokat fogyasztott anno, még külön 220-as tápja is volt már a végén...
Nem a raytracingek kell a sok ram, hanem scene-nek amikkel az animátorok dolgoznak. (lehet az akár directx-es is)[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Igazából látod, hogy a jelenet valós időben leszámolódik, ahogy forgatod a terveket. Ez önmagában nagy dolog, mert ilyet más nem tud.
És ezen a kártyán hova kell bedugni a 220 V-os tápot? [link]A DirectX-et nem fogják ilyen célra használni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
[link]
Cikk aljafele mondjuk?Nem modntam hogy dx-el fognak renderelni, de eddig az volt a szokás, hogy abban modelleznek és a textúrázások nagyját is abban csinálják meg a grafikusok. Az utóbbi másfél két évben terjedtek el a realtime renderelők, amik kezdik átvenni ezt a metódust.
Csak hogy lásd hogyan dolgozik manapság egy mezei videokártya ezen a területen és legyen mihez mérni a felvázolt 5x gyorsulát amit ámodtál ennek az izének, itt egy kis referencia: [link]A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
suraki
tag
Rhino modul yes! Ha tényeg hozza a 4-5-szörös gyorsulást, akkor ez az 1500as ár aprópénz lesz.
-
#Morcosmedve
veterán
elég gyenge és szenvedős, ilyen videót ki se mernék rakni...
© asszongya'hogy
-
Abu85
HÁZIGAZDA
Engem a Voodoo 1-en érdekel a tápcsati. Arról adtam képet, de nem látom a konnektort.
Látom. Ez a videó még jobban felértékeli a Caustic kártyáit. Más minőségi szinten dolgoznak ezek szerint.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Nár megint butát csinálsz magadból, pontosan melyik része nem tetszik a minőségnek? Nem vérprofi a grafikus, vagy mi az ami egy render engine-nél a minőséget jelenti szerinted?
Ez elég jó egy amatőrtől, vagy hitvány még mindig a renderelő? [link]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Én sem érzem a forradalmat, Vray RT alatt is egy sima mezei gamer kártya hozza az 5-10x gyorsulást CPU-hoz képest. Pl.: [link]
-
--László--
csendes tag
sac/kb. ugyanazt hozza mint a vray egy halom nvida cuda procival , semmire nem jó egy tornacipő bemutatásán kivül
,de ha behozok egy többszáz obj.-s ,10 giga ramot zabáló ,többszáz texturát használó scene-t megnézném mit csinál.
Mert az érdekel ,annak a render ideje nem egy tornacipő körbeforgatása. -
Jack@l
veterán
Ugyanaz a kettő...
Jó lenne ha minimális rálátásod lenne a területre, és utána mondanál véleményt mondjuk egy path-tracer minőségéről, sebeségéről, használhatóságárról.
A caustic fiúk jó esetben 1-2000-es poligonszámú cipűjükkel ellentétben a két videón többmillió poligont mozgattak sokkal gyosabban. (igen, eltaláltad a final rendert nem realtime szokták lenyomni, mert nem arra való... Egyébként 2-3-5 mp igy is egy képkocka kb) .A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz --László-- #25 üzenetére
[link] - Ez a videó még az övék.
(#26) Jack@l: Kettőnk közül te vársz 2013-ban komoly ray-traceres játékot. Szerintem még évekig nincs rá esély. Nem tudom, hogy melyikünk jár közelebb a valósághoz, de majd 2013 végén összehasonlítjuk, hogy egy raszteres, vagy egy ray-tracinges játék grafikája szebb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Most abszolút más volt a téma, semmi köze a realtime játékokhoz... (de év végén megnézhetjük lesz e kiadott játék )
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
--László--
csendes tag
Ez is csak egy szunyog vagy mifene ( tudom nem az ) , nekem a kiegészitő kártyákról az jutna eszembe hogy egy gépet izzasztó scene-t 2 órás renderidővel kisegit és megoldja 10 perc alatt.
Ilyen pár obj-s scenekre ott a cuda mag ,ami prezentációra jó. ( videókari meg úgyis kell a gépbe ) -
Crytek
veterán
Már csak abból kiindulva hogy egy db cipő is ilyen lassan "rajzolódik" ki forgatás után akkor egy komplex játék ezzel a megoldással nem hiszem hogy 4 éven belül lesz-e ilyen.
Maximum ilyen limbo szintű cuccot összedobnak amiben van 2 szine azt csá hogy promozzák milyen jó ez a réjtrészing.Next PC Upgrade: 2022
-
Bull1
aktív tag
Az a baj h a játékok grafikája manapság már "elég" jó, van fejlett megvilágítás, shaderek, árnyékok stb. (ott van pl. Far cry 3, FB2 motor vagy bármely más friss UE3-as játék).
Aminek jobban örülnék pl. az a jobb fizika, AI, zene, játék-komplexitás stb.[ Szerkesztve ]
Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip
-
wednesday
őstag
Én is jobban örülnék. Bár tény, hogy a mai megvalósítás is messze van még az élethűtől.
De pont azért kéne más területnek is fejlődnie, mert az összképet jelentősen rontja, egy gyenge animáció, fizika stb. Sőt minél látványosabb, szebb maga a grafika, annál jobban zavaróbb, ha a többi rész nem nőtt fel hozzá. -
Jack@l
veterán
Határeset, próbáld a lényeget meglátni az irományban De segítek, az alapösszefüggés: ami mocskosmód gyorsan számol, az nagyon melegszik. (vannak ugyan kivételek, khmmfx, de ez az alaptétel egy gyártástechnológián-csíkszélességen)
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Ezt az állítólagos alaptételt a CPU és a GPU már felrúgta. A CPU számítási teljesítménye egységnyi energiaigény mellett sokkal kevesebb, mint a GPU-é.
Ha ekkora fogyasztás mellett tud így számolni, akkor miért kellene többet fogyasztania?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
Ezt beszéld meg a fizikusokkal. Én feladom..
Írj légyszives privátot, ha bármelyik opencl-es vagy cuda-s renderelőnél 5x gyorsabb teljesítméányt mutat ez a taliga, azonos minőség mellett objektív méréssel/scene-el.A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
Ennek semmi köze a fizikához. Egy CPU-n egy utasítás végrehajtása 1500 pJ energiát is felemészthet, míg egy GPU-n ugyanaz az utasítás 100 pJ energiával is megoldható. Ez tervezési különbség.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
De azt nem értem mért akarod az almát összehasonlítani a csirkáhez, csak hogy kötekedhess. Azt akarod bemagyarázni nekem, hogy kb 5x hatékonyabb ez az izé 1500 dollárért, mint egy mai videokártya, és több mint negyedannyi energiát és hőt fogyaszt, mint egy mai videokártya, ha jól értem. (De ez a szorzó még lehet több is a grandiózus hűtást látva)
Asszem elégé felhúzná erre a szemét egy vilamos /infós mérnök ha most idetévedne. Ha ez így lenne, azt hiszem ez az évezred találmánya, simán megérne 3x ennyit is.
A videón én abszolut nem ezt lkáttam, sőt. Nem is tudom min is vitatkozunk, mert hasraütésből benyögtél egy számot, d evalójában fogalmad sincs milyen gyors. Amit én láttam azt még egy felsőbb kategóriás videokártya is lealázza manapság. Biztos előnytelen demo scene-t választottak...[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
Akkor elnézést kérek, nem olvastam végig a cikket. Szánalmas a kártya teljesítménye. GPU-val kompleexebb scene esetén kb 10x-es az előny, átlagos bonyolultságnál 20x. (és még csak a lassabb opencl-es renderelőkről beszéltünk) Szóval megéri e?
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
1500 dollárért szoftveres licencekkel? Hogy a fenébe ne érné meg. Ennyiért ilyen gyors VGA-t nem kapsz. Fogyasztásban, illetve az ehhez mért egységnyi teljesítményben pedig ez a legjobb alternatíva.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Bull1
aktív tag
Relatív sajnos... FPGA-val tudsz olyan dolgokat művelni pár W-os fogyasztással amire sima CPU nem képes. Ez kis kütyü is azért jó, mert Ray-tracinghez lett igazítva és hatékony. Mást valószínüleg nem tud futtatni.
[ Szerkesztve ]
Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip
-
Bull1
aktív tag
válasz wednesday #35 üzenetére
Tény, de nem minden esetben cél az élethű ábrázolás... legjobb példa a Borderlands 2, egész látványos, pedig nem sok köze van a valósághoz. Itt a fizika PhysX ezzel szembe sztem sokat dob itt a látványon, semmint bármilyen ray-tracing.
[ Szerkesztve ]
Schmitt Pál szolgálati készüléke: Sony Experia SP ókostellefon - Bip
-
MASSlag
tag
Nem rossz a kép, egy ray-racingtől.
Viszont nem akkora durranás a live render, vannak rendererek amik path-tracingel képesek ugyanezt elérni.
Ott van a SmallLuxGPU, már két éve ilyet tudott: Link
(kíváncsi lennék ilyen szituációkban mit tudna ez Link persze nem fair causticot erőltetni egy raytracerre)
A kulcs a materialok bonyolultsága. A SLG is azért hasít ennyire, mert kevés és egyszerű matot tartalmaz. Jobban megnézve elég kevés material van ebben a sceneben is, a transparent, amit mutogat elég primitívnek tűnik. A modell sem épp high-poly. Azt nem tudtam kivenni, hogy ambient occlusion, vagy valós HDRi light van a képen. Látszik, hogy a teljesítménnyel szeretnék megvenni a vásárlókat.
Nyilván az SLG nem professzionális felhasználásra való, nem arra tervezték, csupán egy demo. Profi munkára ott az octane render Link. Egy jó képességű CUDAs kártyával megtámogatva hihetetlen dolgokra képes. Mondhatnám még a V-ray RT-t is.Ezzel az egésszel arra célzok, hogy nem feltétlenül a teljesítmény a lényeg, hasonlót már más is tud. Sokkal inkább a megfelelő support,a jó integrálhatóság, skálázhatóság, kiszámíthatóság, szoftverkörnyezet stb. Ott van pl. a V-ray RT, fényévekkel gyorsabb, mint a sima változat. Professzionális körökben mégis, a legtöbben rendes V-rayt használnak, mert megbízhatóbb, fejlettebb a material rendszere. Amennyi időt a CPU renderrel vesztenek, behozzák a munkafolyamatban. Ez übereli a 4x-es teljesítményt.
Itt üthet nagyot egy dedikált hardver (hiába a mai videokártyákat játékra/viewport megjelenítésre tervezték nem renderelésre), ha megfelelő hátteret teremtenek hozzá.
Én bízok benne, hogy sikerül nekik.[ Szerkesztve ]
A bizonyíték hiánya nem a hiány bizonyítéka
-
ledgeri
nagyúr
Aki ilyennel foglalkozik (a szoftver) az mennyit tanult, hol, és az mennyibe került?
// #ublockO-HardMode // anti-blockadblock-er // PH! új arculat: 1/ 500 // szeksziboj -nálam van egy pirospontod! // Találtam sárga fényű lézert! (kézit, ceruzaelemest) https://youtu.be/XQnmMjYHgcM //
-
sirpalee
csendes tag
Nem kimondottan ekkora a különbség... Egyszerű jeleneteknél van 10szeres kb, vagy egyszerű renderelőknél. Ha ugyanazt akarod megcsinálni mint a komolyabb raytracerekben akkor úgy hal szerteszét a gpu, hogy szép nézni. Az octane, lux és bármilyen gpus verzió szörnyen buta cucc.
Ennél a kérdés az, hogy milyen programozható felületet biztosít, és abban mik a lehetőségek. Viszont a 16 giga ram nagyon becsületes, és bőven jobb mint a gpu-k cucca. (nem véletlen senki sem használ gpu-t komolyabb renderekre... vagy ahol igen, ott is limitáltan)
raytraceisten és csodamedic
-
MASSlag
tag
Ezzel nagyon egyet tudok érteni, ahogy írtam is.
Egy időben én is odáig voltam a GPU renderelőkért, de rá kellet jönnöm, hogy csak játékszerek.Abu:A Xeon Phi-ről mit tudsz? Használható lenne renderelésre? 500-1000 dollárral drágább, de nincs szoftverhez kötve.
Azért rendes Luxot nem nevezném butának (az SLG-t igen), meglehetősen komplex kernele van, nincs is benne tiszta GPU render, csak hibrid (a munka nagy részét ilyenkor is a CPU csinálja). Viszont semmiképp sem professzionális, nincs megfelelő supportja
[ Szerkesztve ]
A bizonyíték hiánya nem a hiány bizonyítéka
-
dezz
nagyúr
Én sem értem, hogy egy olyan területre, ahol a teljesítmény a legfontosabb, miért ilyen kis spórolós chipet építettek. Nyugodtan lehetett volna 5x nagyobb fogyasztású, ennek megfelelő teljesítménnyel. Úgy már maga mögé utasította volna a GPU-kat. Jelelnleg az előnye inkább csak az alacsonyabb fogyasztás. Bár pl. egy renderfarmnál ez is számít.
(#18): DX? Inkább OpenGL. A legutóbbi időkig raszterizált volt a preview rendering, csak mostanában jelent meg néhány GPU-s path tracking alapú megoldás.
(#38): Ha egy GPU 5-10x (néhány esetben 50x) hatékonyabb tud lenni bizonyos feladatokban, mint egy CPU, akkor miért olyan meglepő, hogy ez a célorientált cucc pedig a GPU-nál hatékonyabb az adott célfeladatban?
Új hozzászólás Aktív témák
- Telekom mobilszolgáltatások
- Sony Xperia 1 V - kizárólag igényeseknek
- Sega, Nintendo - retro konzolok
- Azonnali fáradt gőzös kérdések órája
- Futás, futópályák
- Soundbar, soundplate, hangprojektor
- Samsung Galaxy A54 - türelemjáték
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Horgász topik
- VoLTE/VoWiFi
- További aktív témák...