- Magas AI-költségek, csökkenő létszám: dolgozók ezreit rúgja ki a Microsoft
- Tovább csúsztatja az 1,4 nm-es node-ját a Samsung
- GeForce RTX 5050 VGA-k a Palit értelmezésében
- Több évig húzódó per várhat az Apple-re az iPhone-ok uralma miatt
- Megfizethető, Pulse szériás Sapphire alaplap DDR5-ös Ryzenek alá
- iPad topik
- OLED TV topic
- HiFi műszaki szemmel - sztereó hangrendszerek
- AMD vs. INTEL vs. NVIDIA
- Intel Core i3 / i5 / i7 / i9 10xxx "Comet Lake" és i3 / i5 / i7 / i9 11xxx "Rocket Lake" (LGA1200)
- Vezetékes FÜLhallgatók
- Milyen billentyűzetet vegyek?
- Házimozi haladó szinten
- Steam Deck
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
Új hozzászólás Aktív témák
-
HSM
félisten
válasz
daveoff #9572 üzenetére
Én abban láttam annak a VGA-nak a gyenge pontját. Eléggé nem tudok elképzelni rá normális megoldást DX12 alá 4GB rammal.
Nem várok önigazolást, de tény, hogy semmi kedvem nem lenne az Nv-sektől a savazást hallgatni újabb hónapokig, ha esetleg nem jönnének be, amiket korábban írtam.
-
Yllgrim
őstag
válasz
daveoff #9569 üzenetére
Abba bele sem gondolsz hogy egy alfa-s demon beta driverekkel "egyensulyozott" demo-t lattal ahol lehet be sem volt kapcsolva az a funkcio? (meg tobb masik sem)
Majd jonnek a DX12-es jatekok es szepen kiderul minden, addig is kello joerzessel veszem eszre, hogy a piros VGA-k DX11 hez kepest akkor DX12-n ugyanott vannak mint a zoldek kartyai, ami nem rossz, bar gondolom te ezt maskepp latod
A Gyorsulas merteke meg biztos elhanyagolhato
Amennyiben bebizonyosodik hogy az NVidia ujra atverte a sajat vasarloit (nem banom hogy eladtam a Ti-t, megha DX11 alatt hasit is) kivancsi leszek milyen ervekkel lesz a helyi brigad altal piedesztara emelve
Nem tudom miert van egy olyan erzesem hogy NV azert tolta ki ilyen gyorsan ezeket a kartyakat hogy a hulye vasarlokat meg egyszer jol megszivassa (lehuzza zsetonnal), ha 2017-ben jonnek csak uj kartyakkal es a kiforrott DX12-Vulkan alatt elhasalnak most akkor 2 evig nem sokan fognak kartyat venni toluk, most elore bezsebeltek a zsetont aztan le vannak szarva a vasarlok. Ez is egy hozza allas vegul is. piacgazdasag
Ami AMD oldalarol a legrosszabb esetben tortenhet ezen tesztek alapjan hogy ugyanugy teljesitenek mint NV, akkor meg kiegyenlitett a piac, de gondolom ez is smafu
-
válasz
daveoff #9543 üzenetére
Azt azért ne felejtsétek el, hogy ha a 2048 ALU-val rendelkező 980 gyorsabb, mint a 2816-os 290X, akkor ott ALU kihasználtságban komoly különbség lehetnek (még órajellel kompenzálva is). Ha ezen segít az a-c (márpedig ha ezen nem, akkor semmin), akkor abból valóban kovácsolhat előnyt az AMD.
-
rocket
nagyúr
válasz
daveoff #9541 üzenetére
Millio eves prezentacio, hogy sikerult ezt nekik mai datummal lehozni
Kerdes az kifog a szoftverfejlesztok kozul szembe menni a piac 80%-at birtoklo szereplovel?
Az AMD-nek mar az nagy siker lenne, ha benne lenne a jatekokban, de hogy az NV se sirjon kikapcsolhato lenne az aszinkron compute, lenne akkor ne mulass
Persze nem kell felteni az NV-t, ha kell megnyitjak a penz csapot megjobban, van egy olyan erzesem nem az AMD fog gyozteskent kikerulni ebbol a csatabol se. -
-
-
Abu85
HÁZIGAZDA
válasz
daveoff #9494 üzenetére
Nem valószínű, hogy a kiadás pillanatában lesz DX12. Maximum egy patch-csel. Maga a játék egyébként támogat DX11-ben nem létező funkciókat, mint a multi-draw indirect, de ez nem szabványos rendszer. Azt sem tudni még, hogy tartalmaz-e a program OpenGL interoperabilityt, hogy ez NV-n és Intelen is működjön, mert enélkül csak az AGSL3 üzemképes Radeonokra. De maga a motor jól optimalizáltnak tűnik, szóval nem lesz ebből gond. Különösen jót tett a fejlesztésnek, hogy rengeteg kód D3D bájtkód manipuláció, tehát nem csak szimplán HLSL-ből lefordított, hanem még kézzel szerkesztett is.
-
Abu85
HÁZIGAZDA
válasz
daveoff #9487 üzenetére
Valójában ez a játékoktól is nagyon függ. A Kepler főleg azokban a játékokban szenved, amelyek GameWorksösek (nyilván aktívnak kell lennie a GameWorks effekteknek), vagy nincsenek optimalizálva független parancskiosztásra, vagy nagy regiszterigényű über-shadereket használnak. A Keplerre nagyon specifikus shader kell, mert ez az architektúra multiprocesszoronként négy dispatchet használ hat felfűzött streamre. Ha a shaderben nincs benne, hogy a program felfűzhet független utasításokat is, akkor minden Kepler GPU elveszti a rendelkezésre álló feldolgozók 33,3%-át. Ezen még ront az, ha rossz a regiszterallokáció, mert azzal további feldolgozók veszhetnek oda.
A legtöbb fejlesztő egyébként figyel erre, pontosan tudják, hogy hol szenved a Kepler, és elég tapasztalat van arról, hogy ezt kezelni tudják. Akkor lehet probléma, ha a Keplert direkt elvéreztetik, hogy a Maxwell előnye nagyobb legyen. Nyilván van az a pénz, amennyiért ezt egy fejlesztőstúdió bevállalja, és még az NV is hajlandó kifizetni. Ez ellen nem lehet mit tenni. Alapvetően a média felelőssége az, hogy az ilyen játékokat ne rakja be a tesztcsomagokba, mert ez egy korábbi architektúra teljesítményének mesterséges kolátozza valamilyen okból. Erre egyébként elég jól fel lehet figyelni. Ha vannak olyan helyzetek, ahol egy GTX 960 úgy teljesít, ahogy egy GTX 780, akkor az minimum gyanús, és ilyen például a Witcher 3 és a Project Cars bizonyos beállításokkal. Ez persze még mindig nem jelenti, hogy az NV pénzt adott a Kepler optimalizálásának hiányáért, de valamiért ez hiányzik a programból, és a TWIMTBP logók miatt az sem lehet indok, hogy valamelyik alávaló gaz konkurens keresztbe akart tenni. -
-
#85552128
törölt tag
válasz
daveoff #9487 üzenetére
Azt sem kell elfelejteni, hogy a 980 megjelenésekor a Keplerhez már 1.5 éves kigyúrt driverek voltak, de még a 780 Ti-hez is majdnem 1 évesek, tehát a 970/980 picivel simán lehet gyorsabb emiatt mint a megjelenéskor.
A 290X-hez is jött ugye driver ami csökkenti az overheadet, nameg ugye +1 GB VRAM ami a tavaly október óta kiadott játékokban nagyon is sokat számít.
Ennek ellenére mégsem tapasztalható drasztikus eltérés (főleg nem olyan mint amilyet egyesek állítanak...) nekem pont az jön le, hogy a 780 Ti is ugyanúgy állja a sarat pedig már lassan egy éve nem az a cég aktuális csúcskártyája/architektúrája... -
-
HSM
félisten
válasz
daveoff #9213 üzenetére
A kérdés meglepően jó.
Rajongói nyomás? Plusz reklám, hogy "első DX12 program"? M$, Nv, esetleg AMD nyomásra? Passz.... Ettől még ez egy alfa állapotú program....
(#9214) gtamate2: A külsőségeket passzolom, én az optimizálásra gondoltam, ami általában az utolsó fázisa egy játék készítésének.
(#9215) Ren Hoek: Én sehol nem olvastam, hány futószalaggal dolgozik ez a motor.
Amennyire tudom, a draw callok olyan hívások, hogy rajzolj ide egy ilyet, oda egy olyat.... Ha sokminden van a képen, sok a draw call. Ez egy dolog. Viszont, hogy ezeket a létrehozott objektumokat utána hány pipeline dolgozza fel, az egy egészen más kérdés....A procis kérdésedre asszem kicsit lejjebb Abu megadta a választ.
Jó 3D RTS pl. a StarCraft 2.
(#9221) Abu85: Az lesz még izgalmas... Ha kiadjáka véglegs verziókat (és még más játékokat) DX12, Vulcan esetleg Mantle alá is. Lesz itt csetepaté.
(#9224) gbors: Tetszik a konklúziód. Én is erre jutottam. Amúgy a felhasználó majd időben megtudja, miért kell a DX12. Ha érdekli. Ha nem érdekli, akkor meg majd ha kelleni fog neki, megy és perkál a kasszánál.
(#9230) gbors: Szerintem ez egy jó dolog. Ha ugyanannyi pénzkeretből kevesebb fog elúszni az optimalizálásra, és kevesebb processzoridőt eszik a játék a semmire, így ugyanabból a játék kiadói keretből jobb játékok születhetnek majd. Szerintem ez állati jó.
-
Abu85
HÁZIGAZDA
válasz
daveoff #9201 üzenetére
Pont ez a lényeg az új API-kkal. Csökkenjen a többletterhelés, hogy a felszabaduló processzoridőre jobb AI-t, fizikát, gameplay szimulációt lehessen írni. Ezzel például a PC is kaphat olyan AI-t, ami eddig csak a konzol exkluzív játékok sajátossága volt.
Ahol a DX11 és DX12 különbsége nagy, oda nem is jön majd DX11 programkód, mert konkrétan nem menne a DX11 3-5 fps-nél többel, vagyis erőforrást is felesleges pazarolni rá. Több olyan program is jön, amiben szimplán nem lesz DX11 mód.
Amúgy is a fejlesztők 99,9%-a nem egy olyan zseni, mint Dan Baker. Az, hogy ő tud alkotni DX11 alatt valamit, egyáltalán nem jelenti, hogy más képes rá, vagy még fontosabb kérdés, hogy egy kiadó finanszíroz-e egy programozónak tisztán két évnyi DX11 optimalizálást. Na ugye. -
HSM
félisten
válasz
daveoff #9182 üzenetére
Szerintem a userek többségének se szeme nincs ehhez, se kellően gyors monitora.
Nem sok mindenki tolta vagy tíz éven keresztül 100hz CRT-n az FPS-eket....
Ezenkívül manapság a monitorok nagyon nagy többsége is dög lassú és csak 60hz-es... Ott nincs nagy difi, elveszik a monitoron.(#9183) asdxv: Lehet, akkor ez kártyafüggő is.
A csodadriverek sosem izgatták a fantáziám, úgyhogy azt passzolom, azt se tudom, melyik volt az. -
ffodi
veterán
válasz
daveoff #9169 üzenetére
Egyébként nálam is ment ugyan az a tuning Mantle alatt, mint ami DX11 alatt. Lehet csak annyi a titok, hogy eleve megfelelően stabil beállításaink voltak?
SZerk.: Most a teljesítményviszonyok kiderülése után már csak ezt a mítoszt kell majd cáfolni/megerősíteni. Szerintem a jelentős tuningbeli változás túlzás, de majd meglátjuk.
-
-Solt-
veterán
válasz
daveoff #9110 üzenetére
Így van, PR fogás, ettől szebb lesz a grafikon, ebben egyetértünk!
Pont emiatt nem lehet ebből olyan következtetést levonni, hogy mindenhol ilyen szar az AMD DX11 alatt!
(#9111) gbors: Akkor nem ugyanazt a fórumot olvassuk, én semmi ilyet nem vártam!
Szerintem többször is ki lett hangsúlyozva, hogy az olló szárának záródása az elvárás.
A világmegváltás pedig szokás szerint elmaradt.
Ez nekem nem tűnik egy nyitva hagyott mondatnak!
-
Abu85
HÁZIGAZDA
válasz
daveoff #9072 üzenetére
Az AMD nem csinált profilt DX11-hez. Ezt külön kihangsúlyozták, hogy felesleges, mert a DX12 úgyis gyorsabb, így mindenki abban fog játszani. Egyébként ez még tovább fog gyorsulni, mindenkinek, ahogy kezdik megismerni az API-t. Lesz még némi OS frissítés is, ami szükséges a multi GPU mód beépítéséhez, illetve az MSAA-t is engedélyezni lehet később. Ma is, de egyelőre csak a GCN-en működik használhatóan, erre majd kell még optimalizálás.
De első körben nagyon szépen látszik a DX12 hatása. Ezt nagyon jó, hogy megmutatja ez a teszt.
-
Abu85
HÁZIGAZDA
válasz
daveoff #9058 üzenetére
De ez a demó az Unreal Engine 4 fő leképzőjét használja. Mivel ez a motor ultramobil fejlesztés, így a PC-s leképző gyakorlatilag semmilyen optimalizálást nem kap. Ezért olyan ramaty manapság minden UE4 játék teljesítménye, Hatred például. Nincs rá pénz, hogy normális PC-s optimalizálást építsenek be. Azok az UE4 programok jól mennek, amelyek a mobil piacra szánt leképzőt használják, azt folyamatosa javítják, és már nagyon gyors. Szerintem ez majd csak jövőre változik meg, amikor a mobil fejlesztések lényegében beérnek, és lehet némi pénzt rakni a PC-be is. De azt ismerni kell, hogy az UE4-et licencelők 90%-a a mobil leképzőt használja, tehát nem véletlen, hogy ezt optimalizálják.
-
Yllgrim
őstag
válasz
daveoff #9058 üzenetére
Ha nem veszed zokon, megnezem este majd en is, magyar ido szerint olyan 8-9 korul. Csak FHD-t lehet nezni vagy van mas opcio is?
Honnan is lehet lekapni?
(#9060) imi123: baromi jo kartyaja van, nem kell eladni, DX12 jatekok meg odebb vannak, Carpe Diem, elj a a manak
Raer meg vele, te meg varsz meg egy picit
-
TTomax
félisten
válasz
daveoff #9049 üzenetére
Engem az a video nem győzött meg,nagyon nem... egy teljesen statikus folyosóról készült,ahol se AI,se rombolás,se semmi nem történt.A grafikán sem látok semmi állejtö dolgot,semmi olyasmit ami megragadta volna a figyelmem,amiről megmondanám,hogy ez DX12.Ráadásul a videó is szerény minőségű...
-
Laja333
őstag
válasz
daveoff #8823 üzenetére
Ez betegre tuningolt Fury Pro.
A "betegre tuningolt csúcs Fury X" elég nagy ferdítés. Abban sem vagyok biztos, hogy az unlockolt magokat büntetlenül megúszta. Tehát lehet nagyokat mondani, amik papíron nagy kontrasztot keltenek a két kártya között. De azért ennyire már ne... -
Dark KillerX
addikt
válasz
daveoff #8783 üzenetére
Ha van kedved csinálhatsz,legalább összehasonlítási alapnak elmenne egynek,és elfér itt a topicban sztem.
Én megnéztem kíváncsiságból,és win10 hiánya miatt ( megvan,de nem érzem szükségét még),csak 11 alatt tudtam megnézni.
7950 Boost 1150/1500Mhz-en ennyit dobott
2015-08-07 12:45:32 - UE4Game
Frames: 8028 - Time: 152578ms - Avg: 52.616 - Min: 31 - Max: 83A minimum egy egyszeri töltésnél alakult ki
Ja és érdekes,hogy nagyon jól jön a motornak a Vram órajel emelés
-
Abu85
HÁZIGAZDA
válasz
daveoff #8749 üzenetére
Ha üzletstratégiailag vizsgáljuk, akkor nem rossz a GameWorks, mert gyakorlatilag kihasználja azt, hogy sok a pénztelen kiadó és stúdió, akik úgy vannak vele, hogy úgysincs pénz a PC-s portra, mit számít, ha még optimalizálni sem lehet. Tipikusan ilyen a Warner, akitől olyan csodákat láthatunk, mint az MKX és a Batman: AK. Az NV-nél ezeket nem tudják promózni, mert szétbassza a saját felhasználóik agyát is, hogy 300K-s konfigra ilyen szar portot sikerült kiadni, ráadásul TWIMTBP logóval. Tehát ennek a modellnek megvan a maga hátránya.
Az AMD modelljének az az előnye, hogy a teljes nyíltság, nagyon jól optimalizált portokat hoz, viszont jóval kevesebb azoknak a fejlesztőknek a száma, akik mögött van tőke, és nem szükséges pénzért rontani a PC-s optimalizálhatóságot. -
schwartz
addikt
válasz
daveoff #8711 üzenetére
Nezd, rengeteg fanatikus tulaj (koztuk en is) hosszu eveken keresztul ugy vasarolt VGA-t, hogy igazan nem erdekelte mit nyujt a konkurencia addig mig a kedvelt gyarto hozta az elvart szintet.
Ha kizarolag a teljesitmenyt veszed alapul akkor az AMD nemigen volt elmaradva az utobbi 10 evben viszont minden masban toketlenkedtek. (0 agresszivitas, gyenge PR, rendre vacak es zajos hutok stb)Ha egyszer nem jobb a konkurencia, kit érdekel, hogy milyen aljas egy cég. Ja, és lassan már ott tartunk, hogy egy forinttal sem drágább.
Tudod en ugy vagyok vele, hogy nem igazan erdekel mennyivel jobb a termeke ha idokozben megutalom a ceget Ha nem erzem, hogy szolgalja az erdekeim, (sot, szandekosan szivat vagy lehuz) a penzembol tobbe nem lat. (vegulis nem a felesegem cserelem le hanem csak egy kommersz VGA gyartot
)
-
FLATRONW
őstag
válasz
daveoff #8711 üzenetére
Nekem is pont ez jutott eszembe. Az AMD úgy akarja eladni a termékeit, hogy csak azt hajtja, hogy az Intel/NV a gonosz ők pedig a jók, ezért vegyen mindenki AMD-t.
Közben pedig megfeledkeznek arról, hogy az NV nincs semmilyen hátrányban azokban a játékokban sem amiket ők támogatnak, amikben nincs semmi trükközés, ahol teljesen egyformák a feltételek.
A számok is azt mutatják, hogy az AMD felhasználók nagy részének nyílt ki a szeme és tért át NV-re, nem pedig fordítva.
Trükközés ide, trükközés oda, nem érzem úgy hogy jobb választás lenne az AMD. -
hszilard666
veterán
válasz
daveoff #8646 üzenetére
Abszólút türhető az SLI, feltéve ha rendesen van hűtve, nekem míg az egyik kártyám légen volt, voltak furcsa frame droppok, de amikor megkapta a likvidet, gyönyörűen mentek!
Már bánom hogy eladtam az egyiket
(meg lemészároltam a másikat!
) Ha lesz HBM es ződkártya akkor arra benevezek, esetleg 2 re ha sikerül valami fasza high res displayt szereznem.
mod: Meg több gpus rendszerek mellet szól hogy dx12 ben már összevarázsolódik a VRAM szóval lehet hogy 2 ratyibb kártya majd felülmúlja a flagshippeket!
Én nagyon exicted vagyok a paszkallal meg a 12 es direktxszel kapcsolatban!
Remélem addig acélosodik a forint, és kedvezőbbek lesznek az árak.
Más:
Szerintetek a mobil GPU-k is kapni fognak HBM memóriát? -
-Solt-
veterán
válasz
daveoff #8422 üzenetére
Megnéztem a minimum FPS-k terén 1080p alatt mi a helyzet. A GTX980 54,2 FPS átlagot produkált, a 390X 53,8-t.
(#8426) ffodi: Ez a refet a reffel szerintem továbbra is téves összevetési alap. Azt kell nézni, hogy X összegért mit kapsz összességében, tehát összevetésnél szerintem az ár a döntő tényező.
-
Abu85
HÁZIGAZDA
válasz
daveoff #8422 üzenetére
Az nem sokat befolyásolt. A GCN-ek előrelépését a 15.200-as branch hozta.
Kevesen értik meg, hogy egy hardver teljesítménye nem állandó. Sosem volt olyan a piacon, hogy egy architektúra itt volt három évig és még három évig biztosan itt lesz. Ergo minden meghajtót nagyjából csak 3 évre terveznek csupán azért, mert három év múlva már ott az új architektúra. Az AMD most azt csinálja, hogy három évre terveztek egy alap branchet, ami eddig tartott, és a következő három évre terveznek egy újraírt branchet, amiben megváltoztatják a meghajtó működését az előző három év tapasztalataira építve. Ennek az első meghajtója a 15.200-as sorozat. Most sorra le lesz cserélve a GCN szoftveres alapja, mert sokkal jobban ismeri már az AMD a saját architektúráját, mint három éve. -
-Solt-
veterán
válasz
daveoff #8349 üzenetére
A másik topikban csináltam egy ár összehasonlítást: [link]
Ennek alapján nálunk az AMD-s dollár árak kb bruttó 360.-Forintra jönnek ki, ergo az 550 USD-s Furynak kb 198K-n kellett volna nyitnia ezekkel a torz árakkal is, de, ha úgy lennének itthon árazva mint az NV kártyák, akkor kapásból 182K lenne az ára.
Abban teljes mértékben egyetértek, hogy jelenleg itthon nagyon drága, szerintem 175K felett nem alternatíva jelenleg.
-
-Solt-
veterán
válasz
daveoff #8335 üzenetére
Mondjuk olyat, hogy amíg a Fury X és a Fury között lévő 100 USD + vám + áfa különbség (tehát legalább 40K) nem mutatkozik a kártyák között, addig az ilyen árak csak csámcsogásra jók. Arra semmiféleképpen, hogy valaki elkezdjen "balkánozni", főleg annak tükrében, hogy a jelzett kártya nem is magyar nagykerből származna!
Abban egyetértek, hogy 200+K a Furyért rengeteg, de ebből a kezdő árból messzemenő következtetéseket levonni nem lehet. Legalábbis értelmeseket biztos nem.
-
imi123
őstag
válasz
daveoff #8307 üzenetére
Aki játszott PC-n Battlefieldel azt hatökrös szekérrel sem lehetne átvontatni a konzolos mellé.
Az irányítás az még e dolog de egy 650Ti kártyával szebben fut mint PS4-en Async-el együtt.
Uncharted-nél tök jó a 30.Fps de egy Battlefildnél nagyon zavaró.Na jó biztos hogy több mint 30.Fps de szemre beugrál a minimum 30 alá is Ps4-en.
Megvan a Pc-nek még sokáig a célközönsége.Megfér a konzol mellett! -
Whysperer
addikt
válasz
daveoff #8307 üzenetére
Ahhoz ,hog yÉn PC-ről konzol-ra váltsak ahhoz az kell ,hog ypl: VR és 2 kézi kontrolell LSD oculus 2 new controler és ezt meaxon meghajtó gépezet legeyn... grafikus ként rohand kényes vagy a látványra meg a mozgásra... akonzol nekem közelében sincs a folyamatos játék nagy felbontáson és a kontrolrel folymatos szép mozgékonysághoz ami pontossággal párosuljon. teszem azt egy BF-ben vagy hasonló játékban.
rocket: Én nem is azt írtam Én azt írtam ,hogy tetszik mind a kettő oldal telejsítménye. Nekem mind a kettő oldal bejön.. Ati nekem csak azért tetszik jobban mert Én jobban szeretem grafikához,de kb ennyiért! 8)
Ezt mondtam "Amúgy ahogy így láttam mindegyik fél elég szépen fogja nyomni a 12-t" Én örülök ,hogy yorsabb lesz az Intel .. örülök ,hogy eddig úgy fest az FX-ek szebben mennek és örülök ,hogy a NV is meg az ATI is durván tolja a 12 vulcan-t Szeretnék egy real time rendert....hidd el rua szimulációknál úgy tudnám élvezni a dolgot.
-
Televan74
nagyúr
válasz
daveoff #8108 üzenetére
Akkor még várnotok kell. Az összes GCN architektúra nagyobb fogyasztással jön mint a Maxwell vagy később a Pascal.Magasabb hőmérsékleten üzemelő GPU -val,de kb hasonló teljesítménnyel.
Hogy mi lesz a nagy DX12 -es ígéretekből azt majd megtudjuk a elkövetkező 1-2 évben.
Még egy - két generációt ki fog dobni az AMD,de ha nem történik nagy változás akkor,akkor könnyen eladásra kerülhet a csődbe ment cég. -
Abu85
HÁZIGAZDA
válasz
daveoff #8092 üzenetére
Mostantól a hétköznapi ember az egészet rosszul fogja tudni. Na meg kiderült, hogy a Maxwell 2 nem támogatja az aszinkron shadert. Oh wait, hiszen ennek megfelel. Valójában a legmagasabb bekötési szintet nem támogatja. Nembaj legalább a hétköznapi ember érti.
Olyan API-s legendák indultak el az elmúlt két hétben a magyar IT sajtóban, hogy az félelmetes. Egyáltalán mi az, hogy egyik GPU sem támogat minden DX12_1 szolgáltatást. Van ilyen, hogy DX12_1 egyáltalán?
Az lenne az igazság, hogy egyik hardver sem támogat minden DX12-es opcionális funkciót. A kötelező funkciókat mindegyik DX12-es hardver támogatja. -
proci985
MODERÁTOR
válasz
daveoff #7711 üzenetére
az LGT annyival dragabb volt, amennyibol megvettem ra a vizesblokkot. igy nezve, hogy az elerheto legolcsobb 290xet vettem meg vegulis oke... de ugy nezve hogy a kartya majdnem dupla ennyibe kerult nem vegkiarusitasban es az egyik legdragabb 290x a piacon, ugy mar kevesbe.
tapasztalat nem volt, guru3d hokamra alapjan a TriXX szintjen kellett volna lennie minimum legen... utolag meg konnyen vagyok okos
.
-
Malibutomi
nagyúr
válasz
daveoff #7502 üzenetére
Szerintem ha az idezett mondathoz hozzarakod az utanuk levot, akkor maris mas az ertelme.
"Minden multi-platform next-gen engine design a GCNnek kedvez. "
Ezt azert meg megvarnam tenyleg igy lesz-e, de ha igaz, es a multiplatform motorokat ugy irjak meg hogy kihasznaljak pl az async compute-ot a konzolokon es az async amugy minden gpu-n gyorsit csak a merteke eltero, akkor szerintem hasznalni fogjak.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Kertészet, mezőgazdaság topik
- Okos Otthon / Smart Home
- Elektromos cigaretta 🔞
- Mibe tegyem a megtakarításaimat?
- Megjelent a Poco F7, eurós ára is van már
- The Crew sorozat
- Autós topik
- A nagy Szóda, Szódakészítés topic - legyen egy kis fröccs is! :-)
- iPad topik
- Fotók, videók mobillal
- További aktív témák...
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7700X 32/64GB RAM RTX 5070Ti 16GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! Gigabyte H610M i5 13400F 16GB DDR4 512GB SSD RX 6700XT 12GB DeepCool MATREXX 40 650W
- Csere-Beszámítás! Prémium felsőkategóriás Gamer PC! X870 / R9 9950X / 9070XT / 64GB DDR5
- Telefon felvásárlás!! iPhone 14/iPhone 14 Plus/iPhone 14 Pro/iPhone 14 Pro Max
- Motorola E40 64GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged