- Még ebben az üzleti évben leleplezi az új konzolját a Nintendo
- Milyen alaplapot vegyek?
- Hamarosan megjön a Samsung 360 Hz-es QD-OLED monitora
- Hogy is néznek ki a gépeink?
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- HiFi műszaki szemmel - sztereó hangrendszerek
- Hobby elektronika
- Milyen CPU léghűtést vegyek?
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Milyen monitort vegyek?
Hirdetés
-
Nincs több főgombos iPad, van helyette nagyobb Air és Pro M4 chippel
ma Frissítette táblagépes kínálatát az Apple, bemutatkozott az első OLED kijelzős modell és a mesterséges intelligenciában erős M4-es lapka.
-
Új, drága AI-modellt hoz az OpenAI és a Google ellen a Microsoft
it Egy új, házon belüli AI-modellel versenyezne a Microsoft az OpenAI és a Google megoldásaival.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
Új hozzászólás Aktív témák
-
Locutus
veterán
És ezt hány fps meg milyen egyéb beállítások mellett mérték?
Mert ha pl 30 fps-ről van szó, akkor a 20% még mindig csak 6 fps különbséget jelent legrosszabb esetben is.
Ráadásul némelyik eredmény összevisszasága pont arra enged következtetni, hogy igencsak hibahatáron méregettek.Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
LLKobe
veterán
Én értelmezem rosszul a grafikont, vagy a 380X tényleg jóval többet gyorsul tőle mint egy 390X
Through the darkness of future past, the magician longs to see one chance out between two worlds... Fire walk with me!
-
nagyúr
Jól értelmezed, a 380X minden tesztelt esetben, a 280X a 24576 részecskeszámig többet gyorsul, mint a 390X.
Ez megint olyan dolog lehet, hogy a driver állapotától függ, hogyan és minként profitálhat belőle a kártya...
Szerk.: Tegyük hozzá, a forrás fórumbejegyzésben van egy ilyen is:
IMPORTANT: All values at normalized engine clock o 1,050 MHz
Magyarul mindegyik kártya GPU-ja 1050Mhz-en futott.
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
jani04
aktív tag
Ember legyen a talpán aki kiigazodik ezen az egészen......
Épp milyen szél van.[ Szerkesztve ]
-
nagyúr
Ez csak egy érdekesség, ahogy a cikkben is írva vagyon, játékokban ilyen részecskemennyiségre vonatkozó számítás aligha valószínű. Már pedig azért a józanabb emberek általában nem a tesztprogramok eredményeit nézik, hanem a játékokban tapasztaltakat...
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
#85552128
törölt tag
Egyszer 100%-ra biztosan állítják, hogy nem működik, mert nem tudja a hardver (ezt az oxyde olyan biztosra állította, hogy még az egyik AMD-s is beszállt mellé) pár hónapja kiderült, hogy mégiscsak működhetne valahogy, de a DX12-vel problémás elérni, most meg kiderül, hogy azzal is működhet...
Ezek után nem csodálkozom, hogy olyan DX12-es portok születnek mint a GoW. A fejlesztőknek fingjuk nincs még az egészről, de azért előre ment már, hogy ilyen jó lesz, olyan gyorsulás lesz Async HYPE!!!
Lesz itt még akkora kalamajka, hogy a Batman Arkham Knight mellette A+ kategóriás portnak fog számítani, főleg generációváltáskor.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Igen, de mi végig írtuk, hogy a hardver elvileg megfelel, csak nincs rá gyakorlati példa. Most látható, hogy van. Nem sok, de legalább ezzel működik és igazolva lett a teóriánk, hogy a GeForce már képes rá, csak bizonyos körülmények között. Ez persze még mindig kevés, de több, mint a semmi. Idővel szerintem lesz több példa, amivel több adat fog érkezni, így jobban meg lehet érteni a problémát.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
A 280X pedig GCN 1.0, mégis bizonyos részecske számig jobban gyorsult.
A 260X GCN 1.1, mégis a Radeonok közül ez gyorsult a legkevesebbet.Szerk.: Csak azt akarom mondani, hogy nem a GCN verziószámától függ a gyorsulás mértéke...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Televan74
nagyúr
Nem véletlen hogy az NV egyenlőre nem rajong az aszinkron compute -ért.1-4% gyorsulással nem lehet villogni.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
#65675776
törölt tag
Valóban. De azért messze a 380X mutatta a legkonzisztensebb eredményt.
Emellett mind a 280X, mind a 380X esetén ott az OC kitétel. Már csak azt nem tudjuk, hogy melyik mennyire lett tuningolva.
260X-et gondolom a memória sávszélesség fogta meg leginkább. Ahogy a 280X-et talán az segítette, lévén a három kártya közül annak a legnagyobb.
Amit viszont nem tudok, hogy a teszt mennyire épít DP-re. Mert abban a 280X messze leveri a 380X-et.
-
nagyúr
válasz #65675776 #13 üzenetére
Az OC semennyire sem játszhatott szvsz.
Ismét idézném a cikkben található linkben lévő hozzászólás egyik fontos momentumát:
IMPORTANT: All values at normalized engine clock o 1,050 MHz
Tehát a GPU-k elviekben azonos frekin futottak. Az már más kérdés, hogy a memóriák frekijét vajon piszkálták-e, vagy maradt a gyárilag megadott érték.
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
#65675776
törölt tag
Nézőpont kérdése. Szerintem pont, hogy nagyonis beleszól akkor. A 280X névleges órajele 850 MHz és 1 GHz-re boostol, a 380X-é 970 MHz és nincs boost.
Szóval ez CpC összehasonlítás, nem sok köze van a real world teljesítményhez. Ha normális körülmények között nem boostolt volna fel a 280X 1 GHz-re, akkor teljesen máshogy alakult volna.
[ Szerkesztve ]
-
titán
válasz Malibutomi #16 üzenetére
Igen, de itt szintetikus benchmarkkal kimértek egyetlen paramétert. Ez valós alkalmazásban, ahol egy csomó egyéb paraméter változatlan marad, igen kis mértékben jelenik meg. Bár én örülök, hogy az öreg 7970 pont a legtöbbet profitál.
( #17 ) daa-raa
Minden kártyát önmagához viszonyít.[ Szerkesztve ]
evDirect villanyautós töltőhálózat
-
Echo_
csendes tag
Azért azt jó látni, hogy a Microsoft ennyire elkezdte nyomni a DX 12 használatát.
-
repvez
addikt
most megint nem értek valamit. azt irják, hogy ekkora részecskeszámot még 10 évig nem használnak játékok.
a mai VGA kártyák meg kiszámolják , akkor kérdem én, akkor majd miért nem fogja tudni a mai VGA a FHD vagy 4k játékokat röccenés nélkül 100 nál több HZ-en?Ha ennyire jó a dx12 es API akkor nem is kéne fejleszteni a VGA-kat egy jó darabig.
DE ahogy lenni szokott, ugyan ugy félévente jönnek majd ki uj VGA szeriak mert valami csoda folytán megterheli az amugy többszörös teljesitményt tudo chipeket
-
titán
válasz #65675776 #22 üzenetére
Arra gondolsz, hogy aszinkron nélkül lehet, hogy magasabb órajelen boostolt volna ugyanaz a kártya, mint bekapcsolt aszinkronnal, ha hagyták volna? Mondván az aszinkron jobban "fogyasztja" a tdp-t? Így már értem a kifogásod, van benne logika.
evDirect villanyautós töltőhálózat
-
repvez
addikt
válasz #85552128 #21 üzenetére
A lényegen nem változtat , ahogy a cikkekben olvasni lehetett , azt irták, hogy lényegesen több rajzolési parancsot tudnak ,meg most a részecskékek is többszörösen tudja számolni, akkor a mai VGA-k dx12 alatt bőven elég teljesitményt tudnának a folyamatos játékhoz.
HA nem igy lenne akkor nincs értelme az egésznek ha már most elérik a határait és fejleszteni kell hozzá mind hardveresen mind softveresen ,hogy elvigye az ujabb játékokat.
-
#45185024
törölt tag
Meg kell mutatni a Kínaiaknak ezt a grafikont és borítékolt az 1 miliárrd 380x eladása
Nekem ez az egész olyan mint a kocsi törésteszt szimulációja hogy megtervezik az autót , megvan hogy hogy törik aztán ha szalagkorláthoz, kőfalhoz ne adj isten PB gázpalackos autóhoz ér akkor meg történik valami.
Aminek lesz némi köze a törésteszthez , csak ált nem sok.
AMD-nek akkor lenne ebből előnye ha kinyúlna a játékfejlesztőkhöz és azt mondaná nézzétek ebben vagyunk jók akkor most erre alapozva tessék AMD supported játékot írni, amit majd MI IS kiírunk jó nagy betűkkel a képernyőre, de ez csak akkor hatna ha valóban lenne hatása a látványra játékmenetre...
Itt szokott elszakadni a cérna...
Microsoft meg érthető hogy be akarja terelni a cégeket a "hasonló" mesgyéjére , mert akkor nekik PORTolás menyország lesz, de szerintem ha visszaemlékeztek a Matrox , S3Trio, Vodoo stb kártyákra akkor voltak a játékiparba nagy előre mozdulások amikor valaki nem simult hanem valami nagyon mást akart villantani.
Biztos emlékeztek még arra a játékra ami nem kis háromszögeket renderelt hanem gömböket, remélem még megélem hogy kitörünk ebből a háromszög világból és az anyagmodellezések egy uj fajtája jöhet el.[ Szerkesztve ]
-
HalasKYO
aktív tag
válasz #45185024 #26 üzenetére
Ha az "unlimited detail" videókra gondolsz, hát no.. ott a textura-effekten szált el a dolog.
Na meg is van:
[link]
Polygonálisra megvan a kitaposott ösvény, és az még nagyon új volt, ki is fulladt.
Statikus fények, nincs tükröződés stb.
Inkább marad ez a poly dolog, és most már annyira nem kell félni a háromszögek számától mint ps2-ps3 idején.
Ez jó irány, mert azon túl, hogy nem látod a többit megoldja a textúra.
A sziluett legyen jó, a többit megoldják texturázással, lightmapekkel, displacementel.Halas - http://www.flickr.com/photos/halaskyo
-
Olajka02
aktív tag
Csatlakoznék az előttem szólókhoz...
Szerintem ez táblázat, diagram, grafikon, vagy valami, nem mutat semmit.
Értem, hogy azonos órajelen, a különböző architektúrák mást mutatnak, de ez teljesen érdektelen.
Hiszen tudjuk, hogy pláne a most piacon lévő Maxvell esetében, pont a nagyon magas órajalek a jellemzőek, sokkal magasabbak, mint AMD oldalon, így lényegében az azonos sebességen elért teljesítmény különbség elolvadhat.
A másik... A grafikon első értékénél (és talán az utolsónál) mérhető a legnagyobb teljesítmény növekedés az nv kártyáknál, ami mint a cikkben is jelezve van, már így is egy valószínűtlen határérték, mert még az sem fordul elő játékokban.
Kérdezném, hogy ez a grafikon, ha a nullához közeledve kiegészítenénk, akkor vajon mit mutatna?
A cikkben le vagyon írva, hogy az alatti értékekkel dolgoznak a programozók, fejlesztők.Úgy gondolom, hogy ez tényleg a való életben lesz mérhető működő játékokkal.
Feleslegesen jósolgatni, meg a madarak reptéből és valaki által készített grafikonokból kiindulni és megmondani, hogy mi lesz , szerintem felesleges.Hangsúlyoznám, hogy nem az NV-t védem, csak úgy gondolom - mint sokan mások - hogy ez a cikk ferde képet mutat a kialakulóban lévő erőviszonyokról, az egyes architektúrák között.
[ Szerkesztve ]
-
elithun
őstag
Elég nagy káosz van a DX12 körül, de remélem hamarosan tényleg kapunk némi kézzelfoghatót is azügyben, hogy mitől lesz nekünk jobb vele.
„Minden egyes tapasztalat közelebb visz a megértéshez.”
-
Olajka02
aktív tag
Aham...
De ehhez miért kellet akkor őket ugyan azon az órajelen járatni?
Ezt nem értem.
Ebben az esetben akkor a grafikon becsapós, mert akarva akaratlanul is az olvasható ki belőle, hogy a geforce-ok lassabbak az összehasonlító ábrán.
Inkább célszerűbb lett volna táblázatba írni az adatokat, vagy erősorrendnek megfelelő magasságban kezdeni az adott kártya vonalát, mert az viszont akkor érdekesebben be tudta volna mutatni, hogy pl xy kártya milyen erős és azon belül mennyit nő a teljesítménye önmagához képest és így a többi kártyához való már módosult erőviszonya is nyomon követhető lenne, ami szerintem fontosabb felhasználói szemmel. -
ÁdiBá
addikt
Csúnya dolog lenne egy gyárilag BOOStolt MATRIX 980TI belerakni a tesztbe mert majd 1500 mhz annak a referencia értéke. 23% gyorsabb mintegy gyári 980Ti.
Azért azt sem lehet elvárni...
Mindenki tisztában van vele szerintem itt, hogy a Geforce kártyákon a DX12 kód papíron lassabb mint egy Radeon, viszont erőből sokkal több van benne mint egy Radeonban.[ Szerkesztve ]
ÁdiBá
-
nagyúr
Ebben az esetben akkor a grafikon becsapós, mert akarva akaratlanul is az olvasható ki belőle, hogy a geforce-ok lassabbak az összehasonlító ábrán.
Max. azt csapja be, aki nem tud olvasni és értelmezni. A teszt ezen ábrájának lényege az lenne, hogy mennyit gyorsul az adott architektúra az adott körülmények között. Ennyit ígér, és nem többet.
Felhasználói szemmel, pláne laikus felhasználói szemmel teljesen felesleges ilyen grafikonokat nézegetni...
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
TTomax
nagyúr
A teszt nem azért készült,hogy abból bármiféle következtetést lehessen levonni arra,hogy melyik vga mennyit profitál majd az async computeból.A teszt azért készült hogy maxwellen működik-e.Semmi más feladata nem volt,és nem is értem miért megy a találgatás oldalakon keresztül arról,ami sem a teszt sem a cikk témája...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Abu85
HÁZIGAZDA
De ez nem felhasználói program, hanem példaprogram. Nagyon jó olyan dolgokra, hogy bizonyos vitatott kérdéseket tisztázzon, illetve a forráskódot látva a fejlesztők tanulhatnak belőle. Viszont nagyon rossz olyan dolgokra, mint például a hardverek direkt összehasonlítása.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Milonavi
csendes tag
Ez itt a lényeg - ez egy inkrementális gyorsulás, adott órajelen, saját magához mérve.
Rohadtul nem jelent semmit szerintem, hogy pl egy 980Ti csak 5%-ot gyorsul magához képest, ha egyszer még mindig kb a legerősebb kártya a piacon (Titan nálam nem játszik).
Ez pont ugyanolyan, mint amikor azt mondják, az AMD architektúrája alkalmasabb aszinkron VR renderelésre, ha egyszer egy nVidia bután, izomból több fps-t hoz, akkor sajnos azt kell venni.
Személyes perspektívából mondom azt, sok év után most emiatt váltottam nVidia-ra, pedig amúgy drukkolok az AMD-nek. De jönnek a VR szemüvegek, kell hozzá az erő, és perpill erre egy 980Ti a legjobb választás.
https://www.reddit.com/r/Vive/wiki/systems -
Abu85
HÁZIGAZDA
A VR-re messze a legrosszabb választás egy olyan architektúra, amelyen nem meghatározható, hogy mikor fusson a timewarp. Nem véletlen, hogy az NV jó előre bejelentette, hogy a következő generációban teljesen elvetik az aktuálisan használt preempciós modellt, és bevezetnek egy finomabb szemcsézetségű opciót. Elsődlegesen nem az időszakos teljesítmény miatt, hanem azért, hogy ne hányd el magad, amikor játszol a szemüveg mögött. [link] - itt erről beszélt David Kanter.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Olajka02
aktív tag
Előttem szólok:
Már meg ne haragudjatok, de 5 AMD és 2 Nvidia kártya van a grafikonon feltüntetve.
Mi a túróért készül ez az ábra, ha nem azért, hogy mutassa azt, hogy a radeonok mennyivel gyorsulnak típusonként az adott DX12-es kód futtatásával.
Ezt én értem.
De még mindig az a véleményem, hogy jó lett volna ezzel e grafikonnal azt is bemutatni, hogy a magukhoz viszonyított teljesítményükön kívül mennyit gyorsulnak egymáshoz képest a kártyák.
Csak annyit kellett volna csinálni, hogy víszinbtesen el kellett volna őket tolni a DX 11.2-es erőviszonyoknak megfelelően.
Nem kell a porhintés....
Mindenki arra kíváncsi, hogy például egy r9 380-as kártya (most csak mondok valamit) például mennyire közelíti meg ezzel egy gtx 970 szintjét.
Nagyon mesés az, hogy egy 260x 20% gyorsul de - ahogyan ezt már előttem is írták - az mit számít, ha 14 PFS-ről beszélünk.
Sokkal fontosabb, hogy egy hasonló árkategóriás kártyához képest ez mit jelenthet mint előny.
Szerintem a grafikon eben az esetben akkor sem hejtálló.
Táblázatban ugyan ilyen jól meg lehetett volna jeleníteni ezeket az értékeket.Abu85: Az meg hogy egy DX12-es kód le fog e futni az NV kártyákon eddig sem volt kérdéses, hiszen Te magad is írtad, hogy igen. Kérdés hogy mennyit lassul, vagy gyorsul tőle a számolási folyamat, illetve maga a HW.
Vagy rosszul tudtam és lesznek NV kártyák, amik nem adnak képet DX12 alatt és ki kell őket dobni?
Az meg hogy hogyan fut egy játék egy adott vason nem csak a DX12 és a MS feladata, felelőssége lesz, hanem az adott stúdió szakemberein is nagyban múlhat.De lehet hogy rosszul látom ezt a cikket, ez az én véleményem.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Azért van rárakva az ábrára az összes hardver, hogy ne kelljen hét ábrát csinálni. De valójában csak azzal összehasonlítható a rendszer, hogy a 0%-os alapot képző async off opcióhoz képest mennyit gyorsult az async on.
Teljesen lényegtelen, hogy az fps szempontjából a Titan X-et még az R9 390X is lecsapja, mert nem arra készült a program, hogy direkten összehasonlíts vele két eltérő VGA-t. Eleve nem fogsz a játékokban ennyire extrém munkafolyamattal találkozni.
Ez egy példaprogram. Azt leszámítva, hogy tanulásra használható semmi más célja nincs, minthogy megválaszoljon bizonyos kérdéseket. Például most azt, hogy van olyan szituáció, ahol az async compute előnyt jelent a GeForce-on. Tényleg ennyi az egész.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
Érdemes lenne tisztázni néhány alapvetést. Én eddig úgy tudtam, hogy:
- A Kepler és a Maxwell specifikus engine állapotokkal operál, azaz lehet grafikus vagy compute módban, a kettőt viszont nem lehet keverni (tehát grafikus parancsok mellé nem lehet compute parancsokat elsütni)
- Ha compute módban van, akkor lehet aszinkron több parancslistából is etetni neki parancsokat, viszont ez DX12 alatt nem megy, csak CUDA-ban
- A grafikus és a compute mód közötti váltás időigényes, ez elvileg szintén a DX12 miatt van így, nem elsősorban a HW miattHa a fentiek mind igazak, akkor aszinkron compute általi teljesítménynövekedést csak egy esetben tudok elképzelni - ha az egyik parancslistáról minden thread várakozik, és keletkeznek olyan ciklusok, amikor az ALU-k semmit nem csinálnának. Ide be lehet varrni egy másik parancslista "utasításait".
Erről lehet szó? Vagy a fenti 3 felvetésben hibádzik valami?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Nem, a timewarpra akkor van szükséged, ha nem akarsz hányni.
A SteamVR és az Oculus SDK is úgy használja azt, hogy minden kiszámolt képből lesz egy timewarp verzió, ami megjelenik a kijelzőn, hogy meglegyen a 20 ms alatti m2p késleltetés. Timewarp nélkül ezt csak a LiquidVR tudja biztosítani az LDL-lel. LDL vagy timewarp nélkül 30-40 ms-os szinten vagy, ami rossz. Az igazán jó az LDL és a timewarp együtt, ami már 10 ms alá enged.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Abból a szempontból mindegy, hogy mindkettő üzemmódváltást igényel a hardverben, tehát a rendszernek mindkét opcióval megfelelően kell viselkednie. Az async annyiban nehezebb ügy, hogy amellett azért bőven lesz aktív grafikai számítás.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Dragon Age: Origins
- Metal topik
- Skoda, VW, Audi, Seat topik
- Még ebben az üzleti évben leleplezi az új konzolját a Nintendo
- Még több embert rúgott ki a Tesla
- Windows 11
- Google Drive
- Milyen alaplapot vegyek?
- Hamarosan megjön a Samsung 360 Hz-es QD-OLED monitora
- Hogy is néznek ki a gépeink?
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen