- Fujifilm X
- SSD kibeszélő
- Processzorra való vizesblokk az ASUS ROG-os portfóliójában
- Házimozi belépő szinten
- Apple asztali gépek
- Nyár közepén jön az AOC 540 Hz-es gaming monitora
- Philips LCD és LED TV-k
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Gaming notebook topik
- HiFi műszaki szemmel - sztereó hangrendszerek
Hirdetés
-
Bővíti a ROG Ally garanciáját az ASUS
ph Az egyes termékek, kártyaolvasóval kapcsolatos problámájára reagált a cég.
-
Kulisszák mögötti videón a hamarosan megjelenő Stellar Blade
gp A kizárólag PlayStation 5-re szánt akciójáték alig két nap múlva debütál.
-
Megjelentek az első HMD okostelefonok, ezek a magyar áraik
ma Három készülékkel indít saját név alatt a gyártó: Pulse, Pulse Plus és Pulse Pro. Májustól kaphatók.
Új hozzászólás Aktív témák
-
Kansas
addikt
válasz RyanGiggs #100 üzenetére
Ezen???
Menj a CUDA-ba! És nézd meg, azon mennyi van...Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kedves szerzők!
Ha már az AMD oldalon sikerült a táblázatban frissíteni a multimédia motorok verzióját, akkor az lenne a legkevesebb, hogy az NVIDIA-nál is megtesszük ugyanezt.
Nagyon szomorú, hogy az NV esetében már hosszú hosszú évek óta nem frissíti a PH a PureVideo verzióját. A táblázatban még mindig a VP4 szerepel, ami a Fermi-ben debütált. Azóta a PureVideo motor 4 generációnyit fejlődött, mára a 8. generációnál tart, nem a negyediknél!
Kéretik javítani!Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
MaUser
addikt
Beszédesek az OpenCL, Luxrender stb tesztek. Van itt erő és teljesítmény, csak épp a játékoknak nem tetszik.
Khm, az ocl az AMD által támogatott API. nV esetén ott a cuda, ha akarsz valamit. Valós teljesítmények összevetéséhez keresni kell egy olyan gpgpu platformot ami mindkettőt támogatja rendesen, optimalizálva és ott kiderül a valós viszony. S pont itt a gond. Nem véletlenül egy közepesen népszerű (még a saját területén is) gpu használó rendererrel kell itt tesztelniük. Ocl és cuda-t szinte csak video/képfeldolgozó cuccok támogatnak (hogy mennyit emlegettem ezt anno a nagy apu-s fellángolásnál itt, amikor egyesek azt vizionálták, hogy mindenütt majd kell gpgpu -> ja, csak éppen nincs algoritmus amihez kéne az esetek 99%-ra...) Egyszerűen egy valamire való gpgpu cuccnál cuda only van, mert régen az volt és mert kapsz mellé mindent. Még egy nyamvadt Matlab-nál is eszetlen korlátokba ütközöl ocl-lel (még egy sima fft-nél is gond van), miközben cuda-ra alád raknak mindent. Komolyabb pyton-os cuccokról meg inkább ne is beszéljünk.
''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''
-
leviske
veterán
válasz RyanGiggs #100 üzenetére
Az elkövetkező 2 évben még biztos marad, mert jön a Vega 7nm-es iterációja, illetve valamikor 2019 előtt vagy annak az elején befut a Navi.
Ráadásul a Mantle API-val elindított explicit API-s hullám miatt én a későbbiekben sem várnék teljesen 0-ról újraírt architektúrákat. Szvsz a Volta érkeztével beköszönnek majd azok a Vulkan/DX12 címek, amiknek már fájna egy nulláról újraírt architektúra.
(#106) MaUser: Azért az OpenCL mögött bent áll pár megkerülhetetlen iparági szereplő, mint amilyen pl az Apple és az Intel is. Egy adott fejlesztő stúdió hiányosságait meg ne kenjük az API-ra. Nem lepne meg, ha bizonyos CUDA implementációk is azért futnának normálisan, mert az nVidia megíratta házon belül a szükséges kódot.
[ Szerkesztve ]
-
félisten
Jó teszt lett, objektív, csak így tovább! köszi!
Maga a kártya szerintem nem lett rossz,arányaiban jobb, mint a 64 és AMD pártiak is tudnak most legalább már venni maguknak kártyát a felsőbb házban, persze ha megfizetik az árát.
ceripapa (#13) : Én úgy tudom, lefújták a Pascal 2.0 verziót, nem látták szükségesnek a gyártásba pénzt fektetni, helyette a Volta jön 2018 első felében, de már idén év végén be mutatnak valami Volta alapú gamer kártyát.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
BReal
addikt
-
BReal
addikt
Ha Euroval számolsz, abban eleve benne van már valamennyi (20% körüli) ÁFA, amire csak a magyar extra magas, 27% ÁFA különbözetét kellene rászámolni. MSRP szerinti euróra váltva 340 a ref modell, erre mondjuk 30-50 euró a custom változatok hűtéseinek ára és akkor lehet számolni a 27% ÁFÁ-t. 140e környékén már többféle customnak kell lennie az MSRP alapján.
(#47) ->Raizen<-: A nem működő funkciókkal és a bugos driverrel (bár a bugos nem tudom mit jelent, mert az azt takarja hogy szarakodik a kártya a driverrel, ilyenről viszont nem olvastam, ellenben mondjuk olyan lesz-lehet, mint az RX széria, a pár hónappal későbbi driverekkel összesen gyorsul 10%-ot, ezt viszont nem tudom miért nevezed bugosnak).
[ Szerkesztve ]
-
BReal
addikt
A Crimsonba már be van építve a finomhangolási lehetőség, semmilyen Afterburnerre és társaira nincs szükség.
(#68) awexco: Annak az ára nem azért esett annyit. Nyilván az első 1-2 hét extra felára mellett emiatt tűnt soknak az árcsökkenés:
(#83) Ren Hoek: Techpowerup tesztben +8% 1440P, +10% 4K-n. Azzal ezen a két felbontáson stabilan a 1070 és 1080 között van (4K-n pont félúton). Illetve ott, ahol vannak újabb részek (Sniper Elite), nem az előző részt tesztelik (amiben épp az NV jobb), hanem a legújabban (amiben az AMD).
[ Szerkesztve ]
-
-
derive
senior tag
Nem csak szerinted Az NV valoban rengeteg penzt ol a CUDA szoftverkornyezet fejlesztesere. Az AMDnel meg drivert sem tudnak irni, nemhogy 3rd party librarykat portolnanak OpenCLre. Hozzank is beutott a nagy machine learning laz, azt az osszes nagy kornyezet csak CUDAt tamogat es itt az NV mellet sem az Apple, sem az Intel nem rug labdaba.
@KisDre: Pedig ugy kell. Ezen a teruleten nincs mas nagyobb szereplo. Az Intel sem kacerkodik mar a Knights Cornerrel, az IBM Power gyakorlatilag halott es valahogy az ARMos SoCok supportjarol sem hallani tul sokat.
Igazabol szemeznek en a Vegaval, de igy a Volta arnyekaban ez eleg harmatosra sikerult. Ha az NV 8 eves architekturajat sem sikerult befogni, akkor a Volta ezt megb***a anyja hatan... Emellett jo szokas szerint sikerult agyonfeszelni, hogy 100 W aran kisajtoljanak +5% teljesitmenyt.
[ Szerkesztve ]
-
icon
senior tag
válasz huskydog17 #105 üzenetére
Köszönöm az építő jellegű javaslatot, javítottam is!
http://phmegbizhatosag.atw.hu/phtabla.php?nev=icon
-
Egon
nagyúr
A teljesítmény nem rossz, de ilyen árral és fogyasztással, szerintem csak a fanboyok fogják venni. A fogyasztással a jelek szerint nem tud mit kezdeni az AMD, így maradna az árcsökkentés. 50 dolcsival olcsóbban már megfontolandó alternatíva lehetne.
Mondjuk azt nem tudom, ki veszi meg ezeket a kártyákat (mert állítólag viszik mint a cukrot, bár ez valahogy sosem látszik az AMD negyedéves pénzügyi jelentéseiben; bezzeg a konkurencia...): bányászni állítólag nem jó, a teljesítményhez viszonyított ár és fogyasztás paraméter pedig az nV-nek kedvez,"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Petykemano
veterán
adoredTV/livebiand szerint:
- a 290X azért lett a kelleténél túlhúzva, hogy elérje a Titan-t
- a 390X a 980 mellé, a 390 a 970 mellé lett húzva
- a polarist az eredetileg tervezetthez képest szintén azért kellett húzni a fogyasztás kárára, hogy a méltán népszerű és széles körben elterjedt 970-et lenyomja
- a vega kitűzött performance targetje, amiért az efficiency mutatókat hajlandók voltak beáldozni az a biztosan (némileg) fogott 1080 volt. A Vega64LC-nek. Feltehetőleg a Vega56-nak az 1070, de ez másodlagos.Én őszintén továbbra is csak a túlfeszelést nem értem. Látszik az összes UV videón, hogy alulfeszelve magsabb frekvenciákat is elér kisebb fogyasztással. Akkor nem lett volna jobb úgy? Még akkor is, ha válogatni kell.
Találgatunk, aztán majd úgyis kiderül..
-
BReal
addikt
Nem csak fanboyok. Egyrészt várjuk meg, hogy az AIB modellek megérkezésével milyen áron lesznek kaphatóak. Mert ha azonos árban lesz kapható, mint a 1070 AIB modellek, akkor azonos árért valamivel jobb teljesítményt kapsz magasabb fogyasztással. Azonban ezt a különbséget napi 4 óra játékkal számolva is valami 3500 Ft különbséget hoz ki 1 év alatt. A hőmérséketről és hangról meg fölösleges beszélni, a custom modellek tenni fogják a dolgukat. Hozzászámolhatod még a driverből gyorsulást (a 200-as sorozat óta ez nyomon követhető), de ha ezt nem akarod, akkor ez legyen egy esetleges plusz. Freesync tulajoknak - azt vásárolni szándékozóknak meg egyértelműen jobb választás.
[ Szerkesztve ]
-
nagyúr
Ennek a kártyának már némileg több értelme van, mint a 64-esnek. Ugyan sokkal többet eszik, mint az 1070, de a 150W helyett 210W már nem annyira brutális, és helyenként még gyorsabb is valamivel. Az MSRP-ket összevetve ez a kártya is DOA lenne, viszont miután az 1070 soha nem volt MSRP-n kapható, a 400 USD-s ár akár még megfelelő is lehet. Amennyiben lehet majd kapni 400 USD-ért, persze.
Tesztet köszönjük
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
ZuluMASTER
csendes tag
Én meg vagyok elégedve a látottakal. És az ár/teljesítmény is egészen korrekt..
Minden publicitás jó, kivéve a nekrológot.
-
-
MaUser
addikt
Azért az OpenCL mögött bent áll pár megkerülhetetlen iparági szereplő, mint amilyen pl az Apple és az Intel is.
Felsorolnád az általuk szállított gpgpu megoldásokat, amit bárki használ is? Az ocl egy Apple initiative volt, mert kellett nekik egy nem ms függő api (vö. ogl). AMD meg csak erre tudott csatlakozni, mert propriatery api-val még ennyi piaci részesedése sem lenne. Btw, egyébként mivel két beszállító van érdemben, így nagyjából teljesen mindegy is mára, mert Inteles gpu tervek buktak a igp szintjén a gpgpu területén is. Arm meg csak nem akar beérni ide...
Egy adott fejlesztő stúdió hiányosságait meg ne kenjük az API-ra.
Itt nem egy "fejlesztő stúdió" hiányosságáról van szó, hanem az elsődleges, nagyjából mindenhol használt mérnöki fejlesztői nyelv sem támogatja az ocl-t. Matlabbal találkozik a mérnökök 100%-a egyetemen, iparban standard hogy prototypingot abban kezdesz, aztán a tool-ok jó része marad akár abban is, a cégek abban készült modelleket/logikákat küldenek mielőtt hw menne, stb. Ez nagyjából olyan, mintha lenne egy procinál egy hw kiterjesztésed és még az ms fordító és a gcc sem támogatná. Hát izé, sokra mész vele néhány spec területen kívül. Egyszerűen nem éri meg vacakolni ocl-lel prouser-től felfelé, mert úgyis cuda-val kéne futnia a cuccoknak, mivel nulla nagyjából az amd részesedése ott, vagy ha éppen az is lenne, senki nem fogja megfizetni a cuda cuccok átírását, hogy még lassabbak is legyenek a végén...
Nem lepne meg, ha bizonyos CUDA implementációk is azért futnának normálisan, mert az nVidia megíratta házon belül a szükséges kódot.
Ahogy ezt bármilyen normális szállító is csinálja.
KisDre: Miért lenne túlzás? Ocl csak amiatt él, hogy Apple akart valami független api-t, amire ráülhet és az AMD meg jobb híján erre csatlakozott be, mert saját api-val nulla esélye lenne. Gyakorlatilag AMD kártyáknál kell csak ocl.
[ Szerkesztve ]
''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''
-
KisDre
senior tag
"csak amiatt él, hogy Apple akart valami független api-t,"
Ezért túlzás, míg a CUDA célirányos és új volt kizárólag az nVidia részéről.Egyébként, ha jól értem akkor a CUDA-nak csak szoftver rész miatt van előnye? Oké hogy a működéséhez kellenek speckó magok is.
A dolog nekem azért furcsa, mert akkor eszerint jobban elterjedt lett egy olyan megoldás amely kizárólag egy márkát preferál, míg az a nyílt megoldás kuka?
Múltkor Maxwell render-el kísérletezgettem egy kört, meg is örültem hogy jééé, GPU render, nosza probáljuk ki... ja AMD-m van, hoppá.
szerk.: Bocsi az értetlenkedésért, de érdekel a téma
[ Szerkesztve ]
KisDre.artstation.com
-
EVL2
aktív tag
Remélem mihamarabb kaphatóvá válik! Tuti hogy 100e alatt lesz mert épp eszű ember ígérgetésekre többet nem költ. Remek kártya lehet ha reálisan lövik be az árát. 1060-at simán a sírba lökheti 100e alatti reális árával. Én megelőlegezném még az AMD-nek is a bizalmat hiszen mindig hozzák az elvárt szintet csak 1 éves késéssel.
-
sakal83
addikt
válasz ZuluMASTER #121 üzenetére
Hogyne lenne korrekt az ar.A valaha volt ati es kezdeti amdk arrol voltak híresek hogy kb ugyanolyan vga olcsóbban adtak mint az nvidia. Olykor jelentosen.
De most feltalálták a spanyolviaszt hogy adjuk drágábban az nidianal rosszabbat
Valoban nincs vele gond.
Változnak az idők elvtársak. De tovabb is ki kell állnunk az imperalistak ellen
[ Szerkesztve ]
-
BReal
addikt
válasz Viktor77 #125 üzenetére
Olvastam.
"Ha az induló ajánlott fogyasztói árat nézzük, anno a GTX 1070 349 dollárral nyitott, tesztalanyunk 399 dollárral startol el"
Ez eleve hibás, hiszen a 1070 379$-ról indult. Icon ezt kijavíthatnád majd.
(#127) awexco: Attól még 35-40 Ft-tal kevesebbet ért egy dollár az utóbbi időben, mint a Ryzen rajtjakor.
(#129) EVL2: A GTX 1060-nak nincs szüksége ellenfélre, ott volt az RX470/480, az RX570/580.
[ Szerkesztve ]
-
->Raizen<-
veterán
Nem a hbm miatt van túlfeszelve. Látszik hogy fogalmad nincs az egészről. Jóval kevesebbet fogyaszt a hbm 2..0 mint pl egy gddr5 chip. És kevesebb hőt is termel. A gpu kihozatal arányának javítása céljából van mindegyik túlfeszelve. De wattman-ban orvosolható a probléma, alulfeszelheted és még húzhatod is a cuccot.
Már nem jelent jelentős extra költséget az interposer a kártya gyártásakor. Az nv is idővel át fog váltani erre. A legújabb tesla gyorsítójuk is hbm 2.0-át használ.
[ Szerkesztve ]
-
félisten
már több cikk szólt erről, hogy a kihozatali arány miatt IS vannak túleszelve,mert válogatni nem tudják. Sajnos van olyan Vega GPU amin nem segít az alulfeszelés, sőt, meg van olyan is ami megtáltosodik. szóval eléggé random...
Szerintem aki vásásrolni akar annak lehet várnia kellene egy kicsit, míg beáll a gyártás vagy megjönnek a driverek, bár szerintem így is megfelel sok embernek, ahogy van...
Nem tartom kizártnak, hogy ebből is fog jönni majd egy frissített verzió,amin már jobb lesz a kihozatal, meg kulturáltabb lesz az egész, a la RX 580-570.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
myckey
veterán
Így igaz.
Ez a fanboy duma szokásos demagóg baromság.Az általad leírtak megállják a helyüket.
Alulfeszelve pedig további pozitívum hozható ki, ami már már velejárója az AMD kártyáknak.Jó lesz ez, de biztos nem most váltok ( erre vagy 64-re ) .
"Biztos mint a halál! Sóhaj, Szobaasszony, Fárosz.. 2, 9, 11. " Ha a kacsa nem tud úszni, nem a víz a hülye "
-
Resike
tag
válasz ->Raizen<- #140 üzenetére
Hol írtam hogy a HBM miatt van túlfeszelve? Ne röhögtess már. Itt dobálóztok a 60W-os fogyasztáskülönbségről mint semmiség, de majd a 0,15 V különbség a HBM2 és a GDDRX5 között releváns lesz?
És nekem nincs fogalmam az egészről...Őszintén tegyenek HBM2-t gyíksarcként a legdurvább kártyákra engem nem érdekel, de egy középkategóriás kártyára mi a büdös franc értelme volt megint? Úgy néz ki ugyanaz lesz a sorsa ennek a kártyának is mint a Fury X-nek.
[ Szerkesztve ]
-
tibaimp
nagyúr
Kicsit szomorú vagyok. Így már biztos, hogy a 290x-et nv vga-ra (vagy 1070 vagy 1080) cserélem....
Pedig bizakodtam a vega-ban.
Évek óta amd vga-kat használok, a 8800GTX óta nem volt nv vga-m.A tehén egy bonyolult állat, de ÉN megfejtem...| 2016-tól az tuti, hogy az angyalok is esznek babot...
-
-
Resike
tag
válasz ->Raizen<- #145 üzenetére
Te vagy eltévedve hogyha az 56 fóruma alatt azt hiszed hogy a 64-ről beszélek. De másba már nem sikerül belekötni, oké.
Amúgy a hőn áhított HBM2-tök maximális sávszélességen 10W-al fogyaszt kevesebbet a GDDR5X-hez képest, azonos sávon ez ~30W.
[ Szerkesztve ]
-
s.bala31
őstag
Nekem is hasonló érzéseim vannak ezzel az új AMD szériával. 8800 GT óta csak AMD videokártyáim voltak, tetszettek mert jobb ár/teljesítmény mutatóik voltak mint a konkurenciának. A driverekkel sem voltak különösebb problémáim. Viszont most szerintem nem jó irányba indultak el. Az RX 480-at egy Giga GTX 1070-re cseréltem, sajnos az 1 hónap után elfüstölt. Ezután úgy gondoltam megvárom a Vegát és újra AMD VGA lesz a gépemben. Az első tesztek nem győztek meg, kb hasonló teljesítmény mint az 1080 de mellé jóval magasabb fogyasztás és hőtermelés. Plusz ugye ehhez képest az árát is elég magasra lőtték be amire a készlethiány még rátett egy lapáttal. Az meg már tényleg röhej hogy valahol olvastam majd decemberben jön valami "csodadriver" amivel űberkirály lesz. Nekem augusztusban kellett volna faszának lennie nem 4-5 hónap múlva ezért döntöttem úgy hogy születésnapomra meglepem magam egy GTX 1080-al. 166 ezer Ft-ért szerintem jelenleg nem nagyon van jobb választás Ár/teljesítmény-t nézve.
-
Zeratul
addikt
Egyáltalán nem biztos hogy a hagyományos GDR5 memóriával lassabb lenne, még az se biztos hogy többet fogyasztana. A HBM memória elsősorban szuperszámítógépes GPGPU alkalmazások és főleg a szerver/WS környezetbe szánt monsta APU miatt fontos. SZVSZ e miatt beáldozta a gaming piacot a AMD.
Új hozzászólás Aktív témák
- ZOTAC GeForce GTX 1080 AMP Edition 8GB GDDR5X 256bit
- 4070 Ti Aorus Master //KERESEM!!//
- Sziasztok! Eladó az alábbi videokártya, nagyobbra váltás miatt: - Zotac márka - nVidia GeForce RTX
- eMag GARANCIA! ZOTAC Trinity RTX 3080 10GB OC GDDR6X Videokártya! BeszámítOK
- GARANCIÁLIS! ASUS TuF RTX 3090 24GB DDR6X OC Videokártya! BeszámítOK