- Intel Core Ultra 3, Core Ultra 5, Ultra 7, Ultra 9 "Arrow Lake" LGA 1851
- Canon EOS DSLR topic
- BIOS frissítés
- Hobby elektronika
- Multimédiás / PC-s hangfalszettek (2.0, 2.1, 5.1)
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Nvidia GPU-k jövője - amit tudni vélünk
- Jönnek a 144 Hz-es LG OLED tévék
- AMD GPU-k jövője - amit tudni vélünk
- Milyen belső merevlemezt vegyek?
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #11523 üzenetére
A Bethesdának egyértelműen. Azért tudják relatíva magasan tartani az egyes játékaik árát még sok év után is, mert a mod közösség még mindig aktív. És nem csak játékmeneti szinten, hanem grafikai feljavításban is. Lásd Morrowind. [link] ... ezeknek az elkészültét egy GameWorks-féle middleware DRM nagyban akadályozná.
Nyilván nem tartom kizártnak, hogy a Bethesda át akarja helyezni a konzolra a modközösséget, mert a PC-n meg van kötve a kezük a moddolásra alkalmas eszközökkel kapcsolatban. Ez természetesen egy opció, de szerintem annyira erős a modközösség, hogy ebből inkább meghátrálás lesz. Volt itt idén fizetős mod lehetőség is a Steamen és napokon belül visszavonulót fújtak a felek.
-
Yllgrim
őstag
válasz
Ren Hoek #11523 üzenetére
A moddereket tobb okbol is erdemes kenyeztetni: sok jo otletuk van amit kesobb beepithetnek egy masik jatekukba, illeltve az igazan ugyeseknek ajanlanak munkat, ergo jo utanpotlas neveles, arrol nem is beszelve ha valami nagyon tuti alkotnak, akkor vilagga lehet kurtolni: A Fallout 4-hez keszitett legujjab mod, a xyz ...." ingyenreklam.
#11524) rocket: a GW egy eszkoz hogy manipulald a piacot, raadasul pont nem a fogyasztok igenyeit figyelembe veve, ennek nem tudok orulni. Annak viszont tudok hogy AMD nem masolta le ezt a politikat, mert akkor csak szar jatekok lennenek a piacon szarul optimalizalva es tenyleg 2 kartyam kellene hogy legyen ha jatszani akarok... Nem tudom mennyi ido fog eltelni mire a kov generacios jatekok jonnek, mert NVel fogja huzni ameddig lehet, Win 10 egy tragyahalom annyira selejt (igen, hasznaltam egy kicsit es masszivan hibas, felkesz a termek) de ez egy olyan vilagban ahol a fogyasztok ezt mar megszoktak es termeszetes nem gond. Biztos sokan irnatok hogy de milyen kiraly, meg stabil, meg jol mennek a jatekok... nem kell, majd SP1-el talan kiadasra erett lesz... Az irany rossz amerre haladtunk/haladunk, nem azert mert Abu mondja, egyszeruen gondold vegig, miert jo az neked ha felkesz termekekkel kell bajlodnod napi szinten?
Nagyon varom mar amikor megszunik ez a mentalitas, addig a felhasznalok a katalizatorai ennek a folyamatnak, nekem nem jon be az hogy hulyenek vagyok nezve, ugy kezelnek es ennek meg orulok is...
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #11517 üzenetére
Játékmechanikai módosításokat enged, vagy HUD módosításokat például.
A GameWorks csak azokat nem engedi, amelyek a grafikára vonatkoznak, és az adott effektre potenciálisan negatívan hatnának. Bizonyos effektek esetében ebben benne van a textúra és a modell is. Ezeket egyszerűen elrejtik a DRM mögé, és ha ki is nyered a tartalmat, oda visszaépíteni egy módosítást gyakorlatilag lehetetlen, mert nem fog egyezni az ellenőrzőösszeg, így a GameWorks DRM nem fogja engedni a program elindítását.Szerintem a Fallout sorozat részben a moddolásról is szól, és emiatt nagyon nehéz egy moddolást bizonyos szempontok szerint akadályozó middleware DRM-re igent mondani. Maximum azok a részek jöhetnek, amelyeknek a tartalom mindegy. Ha a fejlesztőket ez a moddolási lehetőség nem érdekelné, akkor nem látnák el a közösséget különböző eszközökkel.
-
-
gtamate2
veterán
válasz
Ren Hoek #11364 üzenetére
Nem is fognak ameddig nincs gyakorlati haszna. Az hogy egy indie játék miatt amivel valószínűleg 0.1% -a fog esetleg a gamerknek játszani szerintem nem sok vizet zavar. Na ha egy bf5 vagy cod 12 (nem tudom hol jár) már megkövetelné és hasalnának a geforceok akkor azt mondom aggódjanak is a tulajok, de így..
Nem egy oxide játék miatt fog kitörni itt forradalom, hiába szimpatizál velük abu. -
válasz
Ren Hoek #10955 üzenetére
Engem pár óra után szokott zavarni néha... amellett hogy aláizzadsz.
De mivel több ok miatt sem bömböltethetek hifit ezért ez van. Nekem az kényelmesebb lenne.És engem a 3D szemüveg is zavarni szokott... de ezt is elfogadom, mert arra az 1-2 órára még oké.
4-5 órát már valszeg nem viselném azt se el...Nem irigylem a szemüvegeseket, remélem nekem is minél később lesz.
-
Laja333
őstag
válasz
Ren Hoek #10955 üzenetére
Igen, általában akik a sisak miatt temetik a VR-t, ugyanazok fejhallgatóval játszanak, és egy nyári napon lazán felveszik a félfej nagyságú ókli szemüveget.
Egy élvezetes játékkal, és jól felépített VR élménnyel észre sem fogják venni, hogy a fejükön van. Legfeljebb csak a végén.Egyébként én még a 3D TV-t is élvezem, kár, hogy nem annyira népszerű. Múltkor például "ráhackeltem" World of Warcratfra a 3D-t, és egész jól nézett ki. Egészen más szint volt, mint a lapos verziója. Sajnos Witcher-hez akkor még nem volt 3D profil, de azt is megnézném.
-
#45185024
törölt tag
válasz
Ren Hoek #10938 üzenetére
Hoek másfél évig nem jön ki új kártya addig hátradőlhetsz pár koktélt elkortyolgatni addig tuti nem évül el a géped.
De itt választani tényleg nagyon nehéz, jobb ha megvárjátok a VR meg igazi direct x teszteket de inkább játék tesztet... Én is anyira paráztam attől hogy ha veszek Furyt kevés lesz mert annyira mondják hogy Fury VR en az igazi, erre bejön ez a Oculus Ready matrica és pislogsz hogy 970-es , 290-es gépek ?
Eddig nagyon nem ezt mondták. Most boldog boldogtalan Gearral is VR ezni fog meg PS4 el.
Mindig jön egy hír és teljesen máshogy látod a VGA piacot. Néha azt látom Nvidiának beletörik a bicskája a Direct X be és a VR be, néha meg AMD tűnik úgy hogy mindjárt bebukik alulfinanszírozás miatt.
hiába a Silver lake hiába az átszervezés, most is alig van HBM, és kártya.
Sőt amerikába épp be vannak tiltva a Fury X ek...
Egy Driver vagy egy szakmai vélemény itt iparágakat dönthet a porba.
De én még az Oculust is el tudom képzelni bebukni, amiatt hogy így felhígította a mezőnyt ha egyetlen egy kisfiú meghalna epilepsziás rohamba a VR sisaktól olyan média lejárató kampány indulna hogy elmosna iparágakat. -
-Solt-
veterán
válasz
Ren Hoek #10930 üzenetére
Nem veszem, garanciában cserélik a 290X-t, csak, ha már így adódott, jó lenne valami teljesítmény növekedés is. A 390X azért nem alternatíva, mert elszálltak az árával, no meg azt a plusz 10-15%-t a tuninggal együtt nem nagyon veszem észre.
Simán venném a Fury-t, vagy a Fury X-t, de a jelenlegi árakon nem alternatívák sajnos.
Használt piac nekem nem pálya... egyrészt nem szeressem, másrészt van amikor el tudom számolni az áfát.
-
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #10568 üzenetére
Akkor egy kicsit érthetőbben. A VR-nél a lényeg, hogy legyen új képkocka a vertikális szinkron idejére. Mindegy, hogy valós vagy warp, csak ne legyen kirakva az előző. A preempció a timewarphoz kell, és ennek a hatékonysága határozza meg, hogy mekkora eséllyel lesz új warp. Finomszemcsés preempcióval a legnagyobb az esélye és rajzolási szintű preempcióval a legkisebb. A kettő között helyezkedik el a Hawaii leginkább a finomszemcsés eredményeihez közel.
(#10572) cain69: Mivel ez hardverfüggő, így nem lehet ennyire megmondani, de vannak olyan rajzolások is, amelyek 10 ms-nál is tovább tartanak egy gyors hardveren. Ez egyébként nem baj önmagában. Az a baj, ha mögé szorul a timewarp.
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #10563 üzenetére
Fogalmam sincs igazából, hogy mi fog változni. Volt az AMD-nek egy régi OEM útiterve, amiben le volt írva, hogy a GCN1 verzióhoz képest miket terveznek még:
fast context switch (GCN2)
unaligned memory access (GCN2)
memory address watch (GCN2)
system & device unified addressing (GCN2)
multiply compute queue (GCN2)
mid-wave preemption (GCN3)
scan & cross-lane ops (GCN3)
mixed precision (GCN3)
quadruple precision (???)
octa precision (???)
system & device transactional memory (???)
quad-fragment merging (???)Bejelöltem zárójelben, hogy mi valósult meg és mi nem. Azt nem tudom, hogy megvalósulnak-e. Annyit tudok, hogy a GCN4 és a GCN5 kódolási sémája más, mert a GCN disassemblerben már lehet kérni ennek megfelelő kódot. Gondolom van GCN4 és GCN5 szimulátoruk.
-
Yllgrim
őstag
válasz
Ren Hoek #10563 üzenetére
Elvileg mar a jovore megjeleno Greenland tartalmazni fogja a kov generacios GCN-t, itt van par specifikacio, de majd Abu hozza a megerositett valtozatot (ha van es publikus is)
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #10542 üzenetére
GPUPerfStudio.
A GPU-Z csak azt ellenőrzi, hogy egy másodperces időkeretben a GPU hányszor fogadott parancsot a CPU-tól, és arra ad egy százalékos értéket. Azt nem fogja megmondani neked, hogy ezek a parancsok hogyan és mikor futnak le a GPU-n belül.(#10546) imi123: Az AMD pont a gyors hardverfejlesztésekben hisz, mert jellemző, hogy két-három évvel hamarabb vetik be az újításokat, mint a konkurensek. Lásd.: SVM, FP16, ordered atomics, LDS virtualizáció, OOO parancsprocesszor, mid-wave preempció, SRIOV, gyors kontextusváltás, stb. Gyakorlatilag kimondták a Mantle-lel, hogy ha jöttök, ha nem, mi megyünk előre. Ennek az lesz a vége, hogy mindenkinek lesz egy saját API-ja, mert az nem járja, hogy az AMD-nek nem kell megvárnia az adott problémák megoldására szánt szabványt. Lásd most a VR.
-
HSM
félisten
válasz
Ren Hoek #10482 üzenetére
Szerintem az AMD-nek teljesen mindegy, a Nano-nak vagy a Fury-X-nek "csomagolva" adja el a csipjeit.
Igazából szerintem nagyobb a hasznuk a Nano-n, kevesebb komponens, olcsóbb hűtés. Persze, ha kicsit jobban válogatott a csip, akkor arra figyelniük kell, de gondolom, akad elég jó csip. -
#85552128
törölt tag
-
odorgg
addikt
válasz
Ren Hoek #10171 üzenetére
Az elég gáz. Most komolyan, azért drága, mert pici? Illetve AMD úgy gondolja, hogy most aztán nagy teljesítményre vágyó, törpepc tulajok millió fognak erre lecsapni?
Direkt nem akarnak pénzt keresni, vagy mi a tök van ezekkel? Miért akarnak olyan igényeket kielégíteni, amik nincsenek is, vagy ha vannak, akkor a számuk elhanyagolható?
A nano egy "népkártyának" lenne jó, jó árral. A 970 is azért sikeres, illetve "népkártya", mert nem túl drága, keveset fogyaszt, halkan üzemeltethető, és a teljesítménye is elég jó, a nagy tesókhoz képest. Az ITX téma 1000000-bol 1 usert érdekel, pláne a 200k-s kategóriában. Jelenleg amire szánják, az arra jó, hogy mindenki rajtuk röhögjön.
Eszkimóknak, nem akarnak esetleg jeget eladni? Hatalmas nagy biznisz van abban is...
-
HSM
félisten
válasz
Ren Hoek #10117 üzenetére
Jó, hát utána kell nézni, mit vesz az ember... Ebben semmi meglepő nincs szerintem. Ugyanez van más termékeknél is.
Tudom, hogy itthon ez az ársáv a "menő", de ezzel nagyon nem tudok mit kezdeni. Kis pénzért kis VGA jár. A Pitcairn méretében nem is valószínű, hogy érdemes lenne nagyon belenyúlni modernizálni, csak drágább lenne tőle, és torkosabb.
(#10118) TTomax: Már vártam a hatereket. Ha neked a modern architektúra "mókusvakítás" ám legyen.
Ami a tápocserét illeti, ugyanaz a demagóg hülye duma. Amelyik táp elbírja a 970-et a maga 150-200W-jával, az nem fogja összesz*rni magát egy 250W-os 290-től sem. Komplett víz se kell alá, csak nem a legolcsóbb gagyi típus kell venni, ahogy a Maxwell-ből is vannak hangos típusok és halkak.
Ha neked nem elég biztosítás a jövőről, hogy az AMD prototípusa és a Mantle alapján készültek, akkor nem tudom, mi lenne az. Lehet, le kéne venni ezen a ponton a szemüveget....
A Fiji gyártási nehézségeit is elég övön aluli így belengetni... Igen, az AMD belevágott valami innovációba (megint), ahogy a GDDR5 fejlesztése is többek közt hozzájuk volt köthető. Ami viszont valami nagyon új, ott mindig nehezebb felfuttatni a gyártást. Ez van. Előbb utóbb utoléri úgyis a kínálat a keresletet. Az AMD legalább letesz az asztalra valódi, előremutató fejlesztéseket is.
-
HSM
félisten
válasz
Ren Hoek #9984 üzenetére
Lásd egy kicsit lejjebb, 5. bekezdés, ugyanezt írtam.
(#9985) gbors: Dehogy pörögtem túl, csak pár gondolat ébredt bennem, amiket leírtam.
Szval efféle fegyverre gondoltál... Hát igen, mostmár úgy tűnik van.
sayinpety fórumtárs éppen olyan eredményekre jutott, hogy a GCN marha sokat gyorsult DX12-vel, míg a Maxwell-ek alig. De azt az eredményt jó rég linkelte. (Erre gondoltam (#9988) cain69, köszönöm!
)
A Maxwell-ben a gond ott lehet, hogy pl. másolási műveletek nem futhatnak tetszőleges más feladat mellett, míg GCN-en igen. Ugyanis vagy grafikát számol, vagy mást, amennyire kivettem az adatokból. Ez pl. komoly gond lehet, főleg olyan programoknál, amik sok adatot másolgatnának, ami egyébként indokolt is DX12 alatt, elkerülendő a VRAM megtelését, és a mikroakadásokat.
-
válasz
Ren Hoek #9982 üzenetére
Nem a compute queue-k száma az izgalmas kérdés, hanem (feltéve, hogy tényleg ekkora overhead a CS) a szükséges váltások száma. Ha pl. az összes compute queue scene-előkészítési feladatokat végez, amik mind lefuthatnak a grafikai taskok előtt, akkor nyugodtan lehet több queue, először azokat hajtja végre a GPU - aztán vált, és jöhet a grafika (mellesleg ez nagy előnye a félig szoftveres megoldásnak). Ennek persze előfeltétele, hogy a frame-re vonatkozó összes feladat meglegyen, amikor elkezdi a számítást - ezt nem tudom, hogy így van-e, ill. ha nincs, akkor megoldható-e egyáltalán. Ez egy második, ellenkező irányú nagy HA.
Az önmagában nem gond, ha az adat ide-oda vándorol a compute és a grafikai queue-k között - miután ezek az architetktúrák erősen latency-állók, szerintem a GCN-en ez csak akkor gond, ha eszement mértéket ölt. Ami inkább kérdés, hogy a gyakorlatban mennyi értelme van ennek - nem vagyok grafikus programozó, úgyhogy erről inkább véleményt sem mondok.
(#9983) HSM: kicsit túlpörögted azt az egy mondatot, nem?
Nem a két szituációt hasonlítottam össze, csak annyit jegyeztem meg, hogy most már az AMD oldalon is van csodafegyver.
Az, hogy a gyakorlatban mi lesz, attól még nagyon messze vagyunk. Egyrészt ott voltak sayinpety fórumtárs saját tapasztalatai, ahol a Maxwell is gyorsult az a-c hatására, tehát elvileg működésre lehet bírni a dolgot normálisan. Másrészt B megoldásként ott lesz a lehetőség, hogy mindent a gf queue-ba tesz a program, mint az AotS esetében - így az aszinkron sebességnyerés elmarad, de ez úgyis kisebb lett volna, mint a GCN esetében. Harmadrészt pedig, ki tudja, milyen meglepik jönnek még elő...
-
-
#45185024
törölt tag
válasz
Ren Hoek #9960 üzenetére
Hoek nem akarlak elkeseríteni de ez nem mond ellen az itt eddig elhangzottaknak.
Eddig is azt mondták hogy tudja (szoftveresen) csak a kontextus váltás miatt nem gyorsul tőle a rendszer.
Erre most ez azt írja:
Maxwell 2: Queues in Software, work distributor in software (]context switching), Asynchronous Warps in hardware, DMA Engines in hardware, CUDA cores in hardware.
Szóval én kivánom hogy tudja és minden Nvidiás is legyen boldog direct x 12 alatt de azért várjunk meg konkrét számokat inkább. -
Televan74
nagyúr
válasz
Ren Hoek #9892 üzenetére
Kint azért van piaca az összerakott dizájn cuccoknak.Nálunk hiába próbálna meg például Alienware eladni gépet,sokan csak piszkálnák egy bottal,hogy mi ez a drága csoda.Egy összerakott mini gépben jobban el lehet adni a Nano -t,ráadásul talán még egy picit magasabb áron is.
Azt hogy te itt esetleg nem kapsz Magyarországon, azt a kutyát sem érdekli.Nem vagyunk senki számára piac.
-
imi123
őstag
válasz
Ren Hoek #9872 üzenetére
Sajnos a mai játékoknak már köze nincs a régi lelkes programozók által az adott hardvert minél jobban kihasználó játékokhoz.
A PS4 és XBOXOne is jó példa rá hogy itt a minél előbbi megtérülés és a minél nagyobb haszon a cél.
Nagyon elk@rvult a játékipar.Na ezt a piacot kell kell a hardvereknek kiszolgálni.Itt ha van olyan ötleted amivel jelentősen csökkented a fejlesztési időt akkor sokat kaszálhatsz.A másik lehetőség hogy bekopogtatsz a fejlesztőknél hogy itt egy bőröndnyi ejró,támogasd már a cuccom.
Most a bőrönd dominál. -
UnSkilleD
senior tag
válasz
Ren Hoek #9848 üzenetére
az nv mindent kikukázott a maxwellből a hatékonyság jegyében, azaz ha valamire nem volt 100%ig szükség kidobták, ez eddig rendben is van
és akkor most kiderül hogy nem megy a dx12 egyik fontos újdonsága rajta, micsoda meglepetés
ezen aki meglepődik az nem tudom hol él, szerintetek a semmiből lett ilyen jó fogyasztás/teljesítmény mutatója?
-
Malibutomi
nagyúr
-
Locutus
veterán
válasz
Ren Hoek #9836 üzenetére
Azért, mert egy zs kat. játékból készült szintetikus benchmarkban tudott valamivel jobb fps-t az fury, úgy, hogy világosan elmondták, az az a fajta aszinkron compute implementáció amit használtak éppenérdekesmódon pont nem fekszik az nvidiának? Had ne röhögjek. Ez csak egy gumicsont, semmire se jó.
Majd amikor népszerű AAA játék megjelenéskor lesz ilyen különbség a táblázatban, na akkor talán visszahoz 5%-ot az AMD a 82-ből, hónapok alatt. Mikor is lesz ez?
-
imi123
őstag
válasz
Ren Hoek #9836 üzenetére
Az a baj hogy az AMD mindig zölden szedi le a gyümölcsöt.
Nézd meg a True audiót.Rohadt jó ötlet de mivel csak AMD használja és ott sem minden kártya, a kutya sem támogatja.
Pedig idő lett volna már rá hogy villantsanak vele.A saját maguk által támogatott játékoknál nem tudták elérni hogy bekerüljön.Akkor miről beszélünk... -
#45185024
törölt tag
válasz
Ren Hoek #9807 üzenetére
Aki kártya vásárláson gondolkozik az biztos nem húzza ki 2017 ig. és a VR miatt sem fogod kihúzni 2017 ig.
Ebből kell választani ami most van meg majd a Fury VR, és a Direct X 12 re is és a VR re is nagyn borúsak az Nvidia kilátásai. Én nagyon nyugtalan lennék ha most ilyen kártyám lenne. -
Yllgrim
őstag
válasz
Ren Hoek #9807 üzenetére
En orulnek ha nem lenne senki atvagva es tudna jatszani a karyajan ameddig jol esik neki. Ha kiderul hogy atvagtak oket akkor majd az uj magyarazatokra leszek kivancsi, miert is a NV meg mindig a csaszar
Volt 290x ami kicsi, volt Ti mert nagy, most meg van az FX mert jo
Erosen morfondirozok egy masodikon, most van is OCUK-ben raktaron...
(#9810) Pepeeeee : En nem aggodnek most ha a Ti-m lenne meg mindig, jo kartya az. Ha viszont kiderulne, hogy megsem olyan acelos DX12 es VR alatt akkor valoszinuleg tetlegessegig is fajulna a dolog, azert megerne elmenni egy NV konferenciara
Na meg akkor meg lehetne Pascal-ig nyomatni a DX11-es jatekokat es nezni ahogy szepen lassan elhalad az ido mellettem, mert a kutya sem venne meg hasznaltan csak apropenzert... Legalabb tuti minden jatekomat kijatszanam ugy jo alaposan
-
imi123
őstag
válasz
Ren Hoek #9807 üzenetére
Ja ja.
Aki egy AMD által szponzorált béta játék benchmarkja alapján cseréli le a Maxwell kártyáját az meg is érdemli.
Most kb ugyanazt tudja mindkét oldal kártyája.Kicsit várni kell amíg a fejlesztők is rákapnak a hőn áhított DX12-re.Majd az idő eldönti.
Csaj jöjjenek azok a DX12 játékok.Remélem ezért van aki még fog is játszani velük és nem csak Benchet futtatja napi 1000 X és posztolja ki hogy neki volt igaza amikor megmondta hogy zöld vagy piros kártya a tuti. -
-
Yllgrim
őstag
válasz
Ren Hoek #9671 üzenetére
Ezt meg nem sokan tudjak igy megmagyarazni, nagyon keves szereplo tudhat errol konkretat, raadasul nem hiszem hogy sokan ki is akarnanak jonni vele.
Oxide-l az a gond, hogy MS es a ket GPU gyarto is azt mondta, az o tesztjuk lesz a tuti elozetes, aztan ahogy megjelent a teszt, NV elkezdte haritani a dolgot es gondolom Oxide beleallt mereszen ebbe, nem nagyon vannak lekotelezve nekik, AMD meg tudhat valamit, mert ok is kezdenek egyre inkabb beleallni a hirek alapjan.
Hogy mi az igazsan hamarosan kiderul, valami biztos nem stimmel ha ennyien raugrottak a temara.
-
huskydog17
addikt
válasz
Ren Hoek #9558 üzenetére
Ez azért nagyon érdekes, mert a Rise of the Tomb Raider PC verziója 2016 elején, az első negyedévben fog megjelenni, így a Nixxes-nek egyszerre két AAA címet kell elkészíteniük PC-re, ráadásul ugye a Rise of the Tomb Raider DX12 exkluzív lesz. Bővítették a Nixxes csapatát, bírni fogják? Eddig kb. egy évet kaptak egy darab AAA cím elkészítésére, most meg néhány hónap alatt kell összedobniuk két darab AAA címet? Ez gondolom csak úgy lehetséges, hogy a Deus Ex Mankind Divided sem kap DX11 módot.
-
HSM
félisten
válasz
Ren Hoek #9311 üzenetére
Szerintem nem fog ehhez 5 év kelleni. Konzolokon már ki van taposva az út.
Az AoTS sebességéből pedig kár kiindulni, mivel még béta állapotú sincs.
Egy ilyen programot NEM SZABAD olyan kész programokhoz hasonlítani, amik a végletekig lettek optimalizálva kiadás előtt.(#9313) gbors: Ja, látom.
Igen, pontosan ez a gond, hogy a játék szimulációjához tartozó dolgokat elég nehézkes skálázni, mint pl. a fizika, vagy AI. Itt persze nem a particle-esőre gondolok amit pl. a GPU-PhysX tud, hanem a valódi, játékmenetre ható fizikára. Ha viszont nem tudod skálázni, akkor a megcélzott leggyengébb procin is futnia kell, amire a kiadó igényt tart, az összes egyéb folyamat mellett is, kiemelve a GPU driverét is. Ugyanez komolyabb gépeken, mivel ugye az is elvárás, hogy az aktuális gamer konfigokon is jól menjen.
Szval én arra akartam utalni, hogy userként, ha csak a most érdekelt, jobban jártál az Nv-vel, de ennek mindenki más itta a levét. Ami már a DX12-vel nyilván remélhetőleg csak a múlt, de ide tartozik, ha meg akarjuk ítélni az Nv és az AMD driverét.(#9321) sayinpety:
Mondjuk nekem a véleményem, hogy egyik gyártót sem kell félteni.(#9324) gbors: Remélem nem akarod a BSOD-s gumicsontot ismét előszedni... Rendesen megírt programokat kell használni, és nincs gond. Aki meg sz@rt akar majd eladni, annak úgyis híre megy majd.
(#9335) Abu85: Hát ez a forma hatalmas.... Azóta is ezen röhögök: [link]...
(#9350) gbors: Számtalan gondot vet fel ez a modell is. Pl. a szál nem feltétlen független egy másik száltól. Pl. 4 szál vs 4 szál egészen más egy i3 és egy i5 esetén, vagy egy FX4000-nél.
Azonkívül gond, hogyha fixen limitálod a driverek szálait, akkor vagy túl sok erőforrást teszel nekik félre, vagy más szituációkban a sok is kevés lehet. Szerintem ez nem lenne kellőképpen rugalmas.
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #9349 üzenetére
Nagyrészt a programon múlik a működés, de például az allokációért, a shader fordításért, illetve a multi-engine esetében a fences kezeléséért még ma is a driver felel. A shader fordító az kb. ugyanaz, mint a DX11-es, szóval azon persze lehet javítgatni, de kvázi kész. Az allokáció viszont érdekes, mert a drivernek kell eldöntenie, hogy 64 kB-os, vagy 4 kB-os blokkokat használjon az adott pufferhez. Nem biztos, hogy ma jól döntenek a driverek, és ezen csak tapasztalattal lehet javítani. Végül a fences azért fontos, hogy az aszinkron feladatokat a driver tényleg jól időzítse, vagyis ténylegesen párhuzamosan fussanak a hardveren belül. Ma ez se feltétlenül működik jól.
A befolyás megszűnt, de ettől még pár dologról a driver dönt. De nyilván nem lehet a program hibáit driverből korrigálni.
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #9243 üzenetére
Pontosan. Van egy olyan része az egésznek, ami az eredmény, de a színfalak mögött nem csak a nagyobb fps-t nézik, hanem azt is, hogy jó-e a PC-s piacnak, ha elveszik a fejlesztők elől azt a lehetőséget, hogy jobb AI-t, teljes rombolást fejlesszenek. Esetleg egy PC-s port eljusson arra a szintre, amivel tele vannak a Sony exkluzív címek, hogy tényleg brutálisan szétverhető, akár mozgó környezet, és az AI is olyan, hogy bekerít, meg dobálja vissza a gránátokat, vagy ketten folyamatosan lőnek, a harmadik meg dob egy gránátot, a negyedik a sziklafalon mászik mögéd, hogy kirobbantsa a menedéked, szóval ezek a tipikus Uncharted jelenetek. És ez egy komoly kérdés az egész iparnak, hogy megéri-e ettől az élménytől megfosztani a PC-s játékosokat, csak azért, mert szebb lehet a grafika.
-
HSM
félisten
válasz
Ren Hoek #9150 üzenetére
A draw call-ok és a compute pipeline-ok teljesen más fogalmak, itt lehet nálad a félreértés.
Jelenleg amúgy sok kérdés kering bennem. Először is, nem vagyok meggyőződve, hogy a DX11 és DX12 mód 100%-ban ugyanazt a képet számolja-e. Nem volt időm utánanézni még. A másik, hogy sokaknak eltérő az eredménye, ami minimum érdekes. Harmadrészt, alfa állapotú teszt, elsőkiadású mindennel, DX, Win, driver téren.
Én azért ebből még nem vonnék le messzemenő következtetést.(#9170) ffodi: Stabil volt pedig az. Amúgy ha nekem nem hisztek, tekerjétek vissza a 780-as topikot, ott is volt egy durvább driveres "javítás", ami után sokaknak az addigi stabil 24/7 beállításukból vissza kellett venni.
(#9173) daveoff: Nálad akkor valami nagyon nem volt kerek Mantle-vel... Ugyanaz a tuningpotenciál, difit se láttál a DX módhoz képest, ugyanaz a működési hőfok, WTF? Szerintem szénné throttlingolta magát a kártyád.
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #9033 üzenetére
Ha emulációra van szükség, akkor az igen CPU oldali többletterheléssel jár.
(#9034) imi123: Egyelőre érjük el azt, hogy a PC tudásban nagyjából felzárkózzon a konzolokra. Az már egy nagy fejlődés lesz az egész iparnak, mert rengeteg konzolos optimalizáció átmenthető lenne. Utána majd lehet szépen tovább haladni. Valószínűleg ez egy hosszabb folyamat lesz, de 2017 környékére bizonyosan sok lesz a konzol és a PC között a hasonlóság, ahogy tör előre az integrációs folyamat PC-n.
Semennyire. A DX11 API nem multi-engine.
-
gézu
őstag
válasz
Ren Hoek #9004 üzenetére
...The games media does have the okay to release benchmark results to the public. The embargo on their results is early next week.
...The answer to DX12 vs. DX11: It depends. DX12 won't make your video card faster. What it does is ensure that your video card is fully utilized.
-
Abu85
HÁZIGAZDA
válasz
Ren Hoek #8968 üzenetére
Benne van a benchmark a játékban. Megveheted ma és örökre a tied a program, persze letölteni majd csak augusztus végén tudod. Olyan lesz, mint az early access a Steamen. Nem kell később megvenned a végleges játékot. Folyamatosan frissül a kód.
Azt hiszem van 100 dolláros hozzáférés is, ami valamivel többet ad, beleszólhatsz a fejlesztésbe, ha jól láttam.
-
válasz
Ren Hoek #8955 üzenetére
Elég szerencsétlen volt ezt a grafikont betenni, érdekesebb lett volna a 33.3-as és a 16.6-os együtt. Az a pár száz ms utalhat 1-2 akadásra is, folyamatos mikrolag nem következik belőle - ráadásul az bármelyik 0-s kártyánál is lehet, mert mikrolag lesz a 20ms - 40ms range-en belüli ugrálásból is.
Ami igazán érdekes, hogy a Radeonok hamarabb kifutnak a 4GB-ból, mint a GeForce-ok.
-
Egon
nagyúr
válasz
Ren Hoek #8949 üzenetére
Teljesen más.
Az általad megadott adat a GPU és a videokártyán levő memória közötti adatátvitelre vonatkozik. Az Abu által említett probléma esetén (elvileg) az adatok útja (leegyszerűsítve): CPU cache - központi RAM - PCI Express busz - VGA memória. Gondolom a buszok jelenthetnek szűk keresztmetszetet (illetve a késleltetés, mivel sok komponensen kell keresztülmennie az adatnak). -
Abu85
HÁZIGAZDA
válasz
Ren Hoek #8947 üzenetére
Az AotS esetében a bekötés nem probléma. A legtöbb jelenetnél az adatfeltöltés lesz a limit. A motor 60 fps sebesség mellett másodpercenként 3 GB-nyi adatfrissítést hajt végre a processzor kalkulációi alapján direkten áttöltve az eredményeket az L1 gyorsítótárból a GPU memóriájába. Ezért fog majd konzolon meglepően jól futni, mert ott az IGP egyszerűen csak kiolvassa az adatot a CPU L1 gyorsítótárából és kész.
-
rocket
nagyúr
válasz
Ren Hoek #8928 üzenetére
Vard ki a veget, osztol csak low-level API jatekok jonnek, 2016 junius 1-ig 25-30 AAA címmel
Sot osztol a Gameworkst mindenki bojkottalja, csak az aknakereso remastered super4Kplatinum edition jon azzal2 nap mulva nagyot zuhan a kartyad ara, de az erem masik felere se kell sokat varni, akkor majd valamennyire visszaall
-
válasz
Ren Hoek #8612 üzenetére
a fury xből az a referencia, amit kiadtak, azzal a hűtéssel, amivel kiadták. a hőfokokból annyi látszik, hogy a hűtést tekintve van még benne tartalék, az bírna többet is.
rá lehet tenni a 980ti-re is egy játékvíz csonkot adapterrel. nzxtnek és corsairnak van rá megoldása. hangerőben nem tudom, mennyit nyerne, hőfokban 5-10 fokot max. mintha nem lenne mindegy, hogy 50 vagy 60.
amíg az órajeleit nem piszkálod, teljesítményben nincs jelentősége mivel hűtöd, mert a refhűtéssel nem throttlingol egyik kártya sem. delta fps nulla, hangerő és hőfokok már más kérdés. kérdés, hogy emelt volna-e az nvidia az órajelen is, ha vízzel adják ki a 980ti-t. szerintem nem, mert ők a furyval szemben pozícionálták be a kártyájukat. de igazából nincs jelentősége, mindkét kártya olyan hűtéssel, rammal, shaderrel és órajelekkel jött ki, amilyennel.
hogy ezzel az overclocker's dreammel mi a helyzet, az számomra talány. nagyon csúnya lenne ilyet bekamuzni. szerintem arról lehet szó, hogy vagy a kereskedelmi forgalomba dobott előszéria miatt, vagy más okok miatt nem volt stabil a hbm tuningja, ezért azt a részt lezárták. lehet, hogy később aktiválják, lehet, hogy nem. ez a történet itt lóg a levegőbe, és eddig nem nagyon magyarázta meg senki, miért történtek a dolgok úgy, ahogy. -
Venyera7
senior tag
válasz
Ren Hoek #8639 üzenetére
Azert ez nem tejesen igaz, itt a ph-n is akadnak olyan felhasznalok, akik 2-3 generacioval ezelotti kartyaval nyomulnak!En pascal-ra es annak ellenfelere leszek kivancsi,bar az meg nem most lesz,az nV nagy hullamot akar meglovagolni csak nem biztos,sikerul neki mostanaban...interposer,HBM2 egymasra tokozasa nem kis falat!
-
Sir Ny
senior tag
válasz
Ren Hoek #8625 üzenetére
"mivel párhuzamosan úgy is throttlingolni fognak a GPU-k"
Én azt hittem, jobban fognak futni dx12 alatt a gamék. Se baj, egy ideig jó lesz még a 11, csak összekapja magát addig a Ms.
8633 Erdei: két év múlva, ezen a napon, ugyanitt. Akkori játékokkal, nagy felbontáson. Megnézzük, hogy melyik is a szarabb.
-
Levwi
aktív tag
válasz
Ren Hoek #8612 üzenetére
Ki beszélt itt a hűtésről én az órajelekről beszéltem. Felőlem folyékony nitrogénes hűtés is lehet, de egy átlag user nem fogja oc-zni a kártyát ezért így életszerű, hogy ref órajelest ref órajelessel hasonlítani. Proci-nál se azt nézed mennyire lehet húzni hanem azt, hogy out of the box mit tud.
-
HSM
félisten
válasz
Ren Hoek #8371 üzenetére
Nagy pofon a freesync? Az elejétől lehetett tudni, hogy nem fog vele menni.
Jó dolog ez a szinkronosdi, de ha választhatok, inkább egy olcsó Tahiti szinkron nélkül, mint egy szinkronos GTX960.A cache rendszernél azért csodát ne várj, a sávszélességet nem nagyon pótolja. 1MB szemben 2MB-al (290 vs GTX 980), az azért nem nagy csoda mondjuk egy 4GB memóriához képest. A Tahitiben is van azért 768kb.
Meglátjuk, izgalmas lesz.
-
HSM
félisten
válasz
Ren Hoek #8301 üzenetére
De, ez pont ilyen egyszerű. Ha mondjuk 3+4=7, és ez egy képkocka, ami 20ms alatt készül el, akkor ehhez be kell olvasnod a GPU-ba először a 3-at és az 4-et. Ha ez az olvasás 20ms-ig tart, akkor hiába tudná a GPU 10 ms alatt is kiszámolni, ha 20ms-ig tart, míg megérkezik az adat hozzá, 10ms-ig akkor pihenni fog a GPU adatra várva. Fordítva is igaz (ami a mostani DX11-es helyzet), hiába olvassa be a Fiji vagy Hawaii memóriája 5ms alatt a 3-at és a 4-et, ha a számolás az API korlátai miatt sokáig tart, mondjuk 20ms-ig. A Maxwell2 hiába olvas a memóriából 10ms-ig, ha azon is 20ms a számolás ideje, nem lesz lassabb. Remélem átmegy.
A furmarkhoz nem kell nagy sávszél, tudtommal direkt úgy van megírva, nem használ sok memória-tartalmat, viszont rengeteg egyszerű számolást csinál azzal a kevés adattal.
(#8312) gbors: Úgy gondolom, jelenleg a GTX960 a valódi képességeihez képest ma durván túlteljesít, ahogy sokszor a GTX980/970 is. Ha nő a memória sávszélesség igény, akkor az árához/pozicionálásához képest messze a legnagyobb pofáraesés a GTX960 lesz, pláne, hogy az ellenfelei, ami a 280-as, 380-as Radeonok, akár GTX980 pukkasztó sávszéllel rendelkeznek. A GTX970 is bukhat, a tuningolva 224GB/s nem túl acélos, de kész csoda így is a GTX960-hoz képest, miközben annyival nem drágább kártya. A GTX980-nál megint az ár miatt lesz gázos, nem olyan olcsó kártyák voltak azok, és 256GB/s.... A 980 Ti esetén pedig azért nem látok olyan nagyon durva gondokat, mert bár annak is éppen annyira fog fájni a nagyobb sávszél-igény, de abban marad annyi nyers erő is, hogy az ember ne nyúljon a szívéhez annyira, ha az lesz a limit.
-
HSM
félisten
válasz
Ren Hoek #8250 üzenetére
Jó, de ha mondjuk 400GB/s lenne az ideális, akkor a 320GB/s-el még mindig klasszisokkal jobb leszel, mint mondjuk 224GB/s-el a GTX980-on.
Amúgy nem csak a motortól fog ez függeni, hanem a játéktól, tartalomtól, szóval izgalmas lesz az első pár DX12 fecske.
(#8251) Keldor papa: Jó, hát az a Batman.....
(#8252) gbors: A GTX980 Ti éppen nem szívószálas, azt korábban is írtam. Ami szívószálas, a konkurenciához képest az a GTX960, valamint a GTX970 és 980.
-
HSM
félisten
válasz
Ren Hoek #8242 üzenetére
Persze, csaképp PC-re szokás plussz effekteket is beletenni valamint nem 30fps a cél, hanem minimum a duplája. Máris kell a PC-re a 400GB/s, mikor konzolra elég a 150.
Ami a Nano-t illeti, nem tudom, milyen olcsóságról beszélsz. Már írtam, vagy olcsó lesz és béna, vagy jó csip kell majd, de akkor igencsak jó lesz, de nem olcsó...
Nézd, attól hogy megvágják, a 14/16nm nem lesz olcsó... Ugyanúgy kelleni fog rá a memória, az interposer, ha HBM-el jön, a fejlesztési költségek...
(#8244) Keldor papa: Persze, nem megy vele semmire, ha nincs használva...
De nem biztos, hogy ez örökre így marad, pláne a körülmények ismeretében...
-
Petykemano
veterán
válasz
Ren Hoek #8239 üzenetére
Szerintem a 14nm-es váltás nem lesz ilyen ugrásszerű. Az AMD esetén az arctic islands szerintem jó esetben azt a szintet fogja hozni, amit a mostani kártyák, csak talán a Maxwell fogyasztásáva. Azért azt is vegyük figyelembe, Hogy a 28nm sem 2011-ben lett olyan mature, amilyen Most. Elején a csíkstélesség még szerintem épphogy kompenzálni fogja a selejtarányt, és a tapasztalat hiányát.
Az ugrásszerű teljesítménynövekedést inkább az dx hozhatja el, Persze mindkét gyártónak azzal, Hogy az aszinkronitás miatt több egységét lehet alacsonyabb órajelen dolgoztatni. -
-
HSM
félisten
válasz
Ren Hoek #8228 üzenetére
Azt nem tudjuk, mikor fog elterjedni, és hogy pontosan milyen igényei lesznek a korai megvalósításoknak. De ezeket hamarosan meg fogjuk tudni...
A megnövekedett sávszélesség igényhez nem fog amúgy rengeteg pipeline kelleni, bőven elég, ha 2 compute és egy grafikai izomra terheli a csipet. Ez az elvileg preferált a fejlesztők körében, nem az 1+1.
Ha mondjuk egy FPS-ben gondolkozol, ott is sokminden megnövelheti az igényeket. Pl. részletesebb táj, részletesebb modellek, csomó lehetőség van ott is fejleszteni a megjelenítésen.Ami a VGA-k jövőbeli értékét illeti, azon fog az egész múlni, mennyibe kerül az új, és mennyire használható a régi.
(#8237) Sir Ny: Véletlen se zavarjon, hogy praktikusan ugyanaz a csoda a kettő.
Mellesleg a Mantle nálam már bizonyított BF4 alatt a régi 290-es VGA-mon.
Pedig az még csak épphogy a lehetőségek felszínének legtetejét ha picit megvakargatta.
(#8238) Petykemano: A cégnek ez nagyobb hasznot termel, ugyanakkor a piacnak meg árt, mivel megvetted a marhadrága VGA-t és azt látod, egy év múlva költhetsz rá megint egy vagyont... Az emberben meg az marad meg, hogy mennyire drága dolog a PC-játék, közben meg csak jól lehúzták...
Szerintem szomorú, hogy az emberek ennyire nem látják, merre navigálják a piacot a vásárlási döntésükkel....(#8239) Ren Hoek: Azt ugye beleszámoltad, hogy 14/16nm-en, HBM memóriával azok NAGYON úgyértem pokoli drága csipek lesznek?
Pláne egy óriásnagy VGA.....
Nem az lesz, mint eddig, hogy huss, itt az új gyártástechnológia, kisebb, gyorsabb, olcsóbb... Kisebb lesz, talán gyorsabb is, de állati drágán. Sajnos nagyon közel a fizikai határok.... -
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- E-roller topik
- Anime filmek és sorozatok
- Medence topik
- Reklámblokkolók topikja
- Spórolós topik
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Mibe tegyem a megtakarításaimat?
- Google Pixel 8a - kis telefon kis késéssel
- Debrecen és környéke adok-veszek-beszélgetek
- Path of Exile (ARPG)
- További aktív témák...
- Telefon felvásárlás!! Samsung Galaxy S25, Samsung Galaxy S25 Plus, Samsung Galaxy S25 Ultra
- ÁRGARANCIA! Épített KomPhone Ryzen 5 7500F 32/64GB DDR5 RTX 5060 8GB GAMER PC termékbeszámítással
- ÁRGARANCIA! Épített KomPhone i5 12400F 16/32/64GB RAM RTX 5060 8GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! Gigabyte Z370M i5 9400F 16GB DDR4 512GB SSD RX 5700XT 8GB ZALMAN S2 TG Corsair S650W
- Apple iPhone 12 Pro 128GB Kártyafüggetlen 1Év Garanciával
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest