- AMD GPU-k jövője - amit tudni vélünk
- Google Chromecast topic
- VR topik (Oculus Rift, stb.)
- Gaming notebook topik
- Milyen TV-t vegyek?
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Milyen cserélhető objektíves gépet?
- ThinkPad (NEM IdeaPad)
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
Hirdetés
-
Mindent megtudtunk az új Nokia 3210-ről
ma Részletes képek, specifikációk és euróban megadott ár is van a legendás modell újraélesztett verziójához.
-
Ilyen lesz a SteamWorld Heist II
gp A folytatás a tervek szerint a nyár folyamán, pontosabban augusztus elején érkezik.
-
Az Apple megszerezné a klubvilágbajnokság közvetítési jogait
ph A vállalat ezért irgalmatlan pénzt fizetne a FIFA-nak, és ezzel rajzolná át az online streaming platformok háborújában a frontvonalakat.
Új hozzászólás Aktív témák
-
pomorski
őstag
Egyébként nem is értem, hogy a benchmark-okat általában miért csinálják grafikusra... Egy-egy kártya számítási (vagy grafikus) teljesítményét le lehetne mérni úgy is, hogy a monitoron közben csak nagy sötétséget, vagy állóképet látnánk, míg közben a háttérben futna a nagy komoly, izzasztó "számolás". Ekkor legalább a kinézetébe nem lehetne belekötni...
-
Duddi
aktív tag
Pont ezt elkerülendő :"Ehhez viszont relatíve egyszerű igazodni, hiszen a tesztprogram nem érkezik konzolra, így teljesen a PC-s igényeknek megfelelően lehet tervezni."
Amúgy meg ha jól értem akkor a vita azon megy hogy : "DirectX 12. Például a bekötési modell tekintetében a Microsoft azt javasolja, hogy a futószalagon belüli erőforrásokat definiáló root signature-ben ne legyen konstans, SRV, UAV és CBV. Ezt ajánlja az AMD és az Intel is, ugyanakkor az NVIDIA ennek pont az ellentettjét javasolja.".
Ebből nekem az jön le hogy a a dx12 feladatkezeléséhez betöltött konstansok másutt kell szerepelnie az ajánlásokban 2-1 re veszít az NV ám mivel a másik két architektúra megbirkózik így is úgy is a dologgal és nem kezd habzani a szája ezért a kevesek akarata fontosabb a többségénél és mindenki egy ért alapon használja az NV ajánlását.
Szerintem ezzel nincs baj a zöld team ürüljön hogy az ő alapjuk nyert a vörösek meg legyenek büszkék arra, hogy a GCN számára kevésbé előnyös környezetben is szépet gyorsult.
Csak nekem tűnt fel hogy a 480 ebben a tesztben már a 980 sarkát rágja 5-8% al lemaradva és nem a 970 essel birkózik mint opengl vagy dx11 ben ?? Megeshet hogy még van benne 10% ha brutál mód neki van optimalizálva de szerintem ez így is win a pirosaknak! -
lee56
őstag
Azért ha valaki, akkor épp te tudhatnád, hogy azok a "bohém" jóemberek, akik ezt a játékot, sőt az egész szériát elkövették, már kb. az első Arma (vagy talán már a flashpoint?) óta nvidiával járnak kéz a kézbe. Ott a szép "the way its ment to be.." logójuk is minden játék elején. Talán ennyi elég is magyarázatnak a kártyák közti kissé furcsa erőviszonyokra..
Abba mondjuk teljesen igazad van, hogy se egy fecske játékra, se úgynevezett tesztprogramra nem érdemes alapozni. Inkább kicsit utánajárni, hogy az ember számára fontosabb játékok/programok min s hogyan mennek, az a legjobb lehetőség. Ha valaki olyan helyzetben van, hogy fejlesztés előtt áll és tanácstalan volna.
3DMark valóban nem tévedhet, maga a 3Dmark a tévedés, de legalábbis túl komolyan venni mindenképpen az.
No Comment
-
nagyúr
Vannak nem látványos tesztprogramok, például Kombustor. Csak azok nem sokakat érdekelnek (a Kombustort is főleg azért használták sokan, hogy a melegedést vizsgálják, lásd még LinX vagy Prime64 a CPU-k esetében).
A 3DMark azokban az időkben született, amikor még a 3D grafika újdonság volt. Abban az időben azért futtattuk le a 3DMark 99-hez hasonló programokat, hogy bizonygassuk magunknak, volt értelme kiadni ennyi pénzt valamiért. Vagyis valamilyen szinten arról szólt, hogy a látványvilágot élvezzük... Aztán persze jött a pontvadászat, hogy kinek nyom többet a 3DMark... Innen nem volt visszaút...
@lee56: már kb. az első Arma (vagy talán már a flashpoint?) óta nvidiával járnak kéz a kézbe. Ott a szép "the way its ment to be.." logójuk is minden játék elején.
Konkrétan az OFP-nél még választhattál, hogy Direct3D, OpenGL vagy Glide API-n fusson a játék.
Az ArmA TWIMTB logója ellenére emlékeim szerint nem volt látványos gondja az ATi kártyákkal (most hirtelen ezt találtam róla).
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
arn
félisten
az eredet ennel sokkal prozaibb... a final realityt scenerek csinaltak, es nem veletlenul volt benne a second reality zaro part megegyszer 3d gyorsitva. akkoriban meg jart is egy "demo" a bench melle, ami azota szimpla techdemova silanyult, talan a 2000 volt utoljara scenedemo szeru, es akkor meg adtak ki rendes demot is a 3dmark enginennel.
second reality @ 1993
final reality @ 1997
maturefurk => futuremark @ 2000[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
arn
félisten
jatekot fejlesztettek ok, ez a benchmarking eredetileg csak vadhajtas volt
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
lee56
őstag
Ha nem is volt látványos gond, abba simán benne lehettek hogy lehetőleg ne nagyon történjen túl sok optimalizálás ATI termékre, hány ilyen volt más játékoknál is akkoriban; aztán volt hogy jött patch ATI kártyákra de csak hónapokkal később, és ez még a jobbik eset, amikor jött egyáltalán.. Azt hiszem nvidia aranykorszaka volt ez az időszak, amikor kis CIA-nak képzelték magukat. Persze azóta se sokat változtak gondolom, az meglepne.
No Comment
-
Kicsimix
őstag
Egy tesztprogramtól azt várnám, hogy a lehető legtöbbet hozza ki minden hw-ből. Ha kell kapcsolokkal, hogy így is úgy is lehessen tesztelni és ne maradjon tartalék a kártyában sehol. Így tényleg kár érte és nem mutat semmit.
Szerk;
A korrekt az lett volna szerintem ha azt mutatták volna meg, hogy ugyan azon jelenet alatt melyik kártya mit tud kihozni a legjobb tudása szerint. _O_[ Szerkesztve ]
...Kockázat nélkül nincs vereség... : ------------)
-
félisten
Vártam egy ilyen cikket, napvilágra kerültek az első 1060 eredmények 3 D markban.valamivel meg kell magyarázni miért szerepel olyan jól benne. kizárólag az Nv rafináltsága miatt természetesen, amúgy mókusok hajtják az összes pascalt és az Nv fizeti az összes egyéb játékot is amiben jobb. ( egyébként nagyjából ugyan ez a különbség van 17 játék átlaga alapján is,mint amit a 3D tükröz. szóval pártatlanság ide vagy oda, kb + 6-8 % a 480 hoz. abban is és a játékokban is.( Amúgy mindkét kártya jó.)[link]
Aki 3D tesztprogram alapján vesz kártyát meg is érdemli.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
kikikirly
senior tag
Rise Of The Tom Raiderben megírták az Nvidia specifikus Async kódot.GNC 3-6% Pascal 1-2% gyorsul.
Az Xbox One-nal megegyezően csak a volumetrikus fények futnak Asyncba.Ha a Pascal olyan Async, Hardcore kártya lenne, átírattam volna több effektet ,nagyobb halmaz esetén 2% VS 6% magasabb FPS differenciát jelent.Azt nem lehetett,még a végén egy NV játék gyorsabban futna Radeonon.Bekötési modell nem változott,maradt Tier 2 bár ennek nincs jelentősége.
A GTX1080-at Doom Vulcan verziójával promózták,első körben még sem került be Pascalra az Async, még dolgoznak rajta,szóval nem csak 1-2 kódsort kell átírni a kompatibilitáshoz.És ott vannak még a konzol effektek áthozása AMD-re,hülyék lesznek nem élni vele a fejlesztők,ennél olcsóbban teljesítményt nyerni nem lehet(nem csoda hogy a fejlesztők évek óta nyaggatták vele AMD-t).Végre valahára AMD olyan Feuturokat rakott a kártyáiba amit széleskörűen használnak/fognak használni.Mindez AMD-nek egy vasába sem kerül.Nvidiának többségében tejelni kell ha azt akarja hogy specifikus kódot kapjon és még úgy sem ér el akkora teljesítmény növekedést.Ez a 3D mark meg pont annyira alkalmas DX12 mérésre mint a Tomb Raider.
[ Szerkesztve ]
-
Joshi
titán
A cikk utolsó bekezdése:
"Az aszinkron compute is csak a fentiekhez hasonló módon lett bevetve, kínosan ügyelve arra, hogy az igazából az összes érintett gyártó számára jó legyen. És az valóban igaz, hogy a játékokban ezekhez hasonló modellekkel nem találkoztunk, illetve várhatóan nem is fogunk találkozni, mivel a konzolra írt kód nagymértékben meghatározza a PC-s portot is, de ettől a 3DMark Time Spy nem lesz részrehajló. Sőt, pont emiatt lesz hiteles tesztprogram, amellett persze, hogy az eredményeit nem lehet majd levetíteni a játékokra."
De könyörgöm, ha tesztprogram de nem vethető össze a konfig teljesítménye egy játékkal sem, akkor mi a francnak a tesztprogram? Tesztelek vele, kapok egy valag pontot vagy rosszabb esetben kevés pontot, aztán a játékokban meg fene se tudja hogy mi lesz? -
Ren Hoek
veterán
válasz kikikirly #68 üzenetére
Nekem is kb ezek a gondolatok fogalmazódtak meg, és a "mantrából" kezd realizálódni is a dolog. A következő fél-1 évben főleg... Ettől függetlenül minden jelenlegi AMD-s balfaszkodással az 1070/1060 felé rúgdalják a usereket kétlábbal (Amilyen az én formám, veszek egy 1070-et és pár hónapra rá talicskával hordják ki a shader intrinsics játékokat)
Ez a tesztprogram meg egy vicc.
A cikk inkább irónia akar lenni : ) "Time Spy nem részrehajló, de nem is jó semmire, főleg nem a GCN-nek."
A a konzolfunkciós cikk is kicsit fekete humor volt. "Rohadtul káros a PC piacnak, de amúgy marhajó jó nekünk : D" Igazából mindkettő jogos. (Ha GCN lesz a gépemben, akkor még tapsolok is hozzá majd)[ Szerkesztve ]
-
leviske
veterán
Attól, hogy Abu85 polkorrekt, még a dolog bullshit. Nem lehet elválasztani egymástól a PC-s és konzolos játékot, főképp manapság. Aki ilyet tesz, az ne tesztprogram fejlesztésével foglalkozzon, hanem PC exkluzív címeket készítsen.
A teszten belüli helyzetekre meg lehet, hogy érdemes később visszatérni. Van ahol az RX480 10%-al a 980 előtt van és van ahol meg ugyanennyivel mögötte. Azonban annyi biztos, hogy az emberek egy ilyen tesztben sose az "erkölcsi győztest" keresik. Szóval az AMD a hajára kenheti, hogy az nV pártiság esetén is még hoznak valami szintet a kártyák.
-
aginor
addikt
Tegnap még azt hangoztattad nagy bőszen, hogy a 3d mark tesztje milyen jól sikerült és reprezentálja a jövőt. A linkelt tesztben 4 címből háromban alulmarad a 1060, tehát ez az én olvasatomban cáfolja a teóriádat, de tudod mit, legyen igazad. Témát a részemről lezártam, nem szándékozok széllel szemben..
Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/
-
arn
félisten
mashol kb atlagban egal dx12 alatt az 1060 es a 480. de tudom, az a dx12 teszt szar de tessek jobb benchmarkot irni, hogy senki ne kosson bele... amig emberek hitvitakat folytatnak arrol, hogy zold vagy piros, addig nehez lesz, mert a masik fel szemet csipni fogja a dolog.
esetleg tudsz jobbat?
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
sb
veterán
Szerintem egyről beszéltek, csak mást értetek alatta.
Te azt mondod egy ilyen általános kód lesz a "jövő" a mark szerint, gyártófüggő optimalizálás nélkül.
A többiek (legalábbis páran) meg azt, hogy vélhetően nem ez lesz, mert konzolról jön minden ami GCN+DX12/Vulkan(Mantle) alapú erősen. Tehát ez lehet inkább az elterjedtebb "általános" kód.Abban igazad van, hogy az AMD feature-öket soha nem használta senki, de azt azért lássuk be, hogy ilyen meghatározóak soha nem is voltak. Még a közelében sem voltak. A PC-s részesedésük gyászos, de az látszik, hogy:
1. Az új API-k GCN-re vannak hangolva...avagy megfordítva.
2. A konzolokban GCN van és új API-k.
3. A játékfejlesztés 99%-a a konzolok alapján zajlik.Egy jó logikai feladat is lehet, hogy mi következik ebből.
Korábban semmilyen hasonló, szoros összefonódás nem volt. Van feature-ük az eladott pár kártyájukon a jelentéktelen PC piacon.szerk:
Amúgy a 3DMarkkal nagyon igazságtalanok vagytok. Egy (régi) teszt teljesen korrekt cpu benchmark.[ Szerkesztve ]
-
aginor
addikt
No, ez már egy olyan hozzászólás, amiből lehet értelmes vitát indítani. Az egyik korábbi hozzászólásomban kényesen figyeltem rá, hogy a zöldeket ne említsem és általánosságban fogalmazzak, pont azért, hogy ne legyen belőle hitvita. Fordított esetben ugyanennyire zavarna a dolog, teljesen mindegy, hogy kit diszkriminál egy teszt, ha a többi szereplőt ez negatívan érinti, akkor nem pártatlan és a legtöbb esetben következtetésekre sem elegendő. Azt gondolom, hogy minden elérhető funkciót bele kellett volna tenni a tesztbe, hogy ha később (vagy akár már most) van/lesz olyan hardver, ami ki tudja használni, akkor az látható, mérhető legyen. Különös tekintettel arra, hogy a mérvadó programozási irány jelenleg a konzolokról jön, azokban pedig kivétel nélkül GCN van, ami a tesztben lévőknél több tudást kínál. Így a teszt nem mér pont olyan funkciókat, amik jó eséllyel (ha más miatt nem, akkor a lustaság miatt mindenképpen) megjelenhetnek majd az alkalmazásokban.
A fentiek miatt tartom a tesztet a jelen formájában teljesen feleslegesnek és elhibázottnak. Megértem azokat, akik simlit feltételeznek mögötte, még ha én magam ilyen messzire nem is mennék a feltételezésekkel. Én inkább azt vélem a dolog mögött, hogy megnézték a szolid vga-k eladási adatait, és az Nvidia dominanciát látva úgy döntöttek, hogy erre optimalizálnak, hogy minél több embernek fusson jól a teszt. Természetesen pont emiatt a végeredmény nem alkalmas arra, aminek hívják. Jelen formájában ugyan ez is egy benchmak, de csak azt lehet vele lemérni, hogy a kártyád hogyan futtat Nvidia optimalizált kódot, és a végeredménynek kapott pontszámmal össze tudod vetni a listákban található Nvidia kártyákkal.
Ez az én véleményem, mint a témában mérsékelten járatos egyénnek.Azért vagyunk a világon,hogy valahol vegyünk egy ATI Radeon-t :))) by: LADA VFTS http://www.flickr.com/photos/40852488@N03/
-
arn
félisten
szvsz nem fogjak a piac 60-70%at labon loni azert, hogy a maradeknak kedvezzenek. te el akarsz adni vmit, tudod, hogy a piac nagy resze nem profital belole, de azert azt erolteted, mert ugy jobb, raadasul ebbe energiat fektetsz. ez szerintem nem igy mukodik. de meglatjuk
en szkeptikus vagyok, mert a gcn eddig is piacon volt (2012!), a dx12 is (2014 marciusaban jelentettek be, 2015 nyaratol mindenki szamara elerheto), megsem lattunk semmi attorest. most mi valtozott? jelent meg megegy gcnes kartya? miert pont ez inditana el barmit is? a vulcanos dolog biztato.
masik oldalrol... a legszelsosegesebb esetben sem olyan rossz a helyzet - mert az nv jelenleg olyan helyzeti elonybol indul, hogyha levonsz belole 20-30%okat, meg akkor sem lesz tragedia a reszukrol. atlagban meg egyaltalan nem jellemzo ez, eddig is voltak olyan nevek, amik ide vagy oda huztak jobban.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
Új hozzászólás Aktív témák
- Eladó ASUS GeForce GTX 1660 Super 6GB Phoenix videokártya (PH-GTX1660S-6G)
- Újszerű PowerColor Fighter AMD Radeon RX 6600XT 8GB GDDR6 ÁR/ÉRTÉK BAJNOK! Bolti Garanciával!
- Rog 4070 Ti //KERESEM!!//
- EVGA GeForce GTX 1080 Ti FTW3 GAMING 11GB GDDR5X 352bit (11G-P4-6696-KR) Videokártya
- Gainward Phoenix RTX3080
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Ozeki Kft.
Város: Debrecen