Hirdetés
- 3D nyomtatás
- Milyen TV-t vegyek?
- Házimozi belépő szinten
- Milyen videókártyát?
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- OLED TV topic
- Projektor topic
- Picit gazdaságosabb és halkabb lett a PlayStation 5 Pro legfrissebb verziója
- TCL LCD és LED TV-k
Új hozzászólás Aktív témák
-
pengwin
addikt
válasz
Atti777
#10297
üzenetére
A 28nm-ről nem az AMD tehet, csak a konkurenciának van jobb technológiája, meg olyan cégeknek, amiknek a kapacitását a mobil termékek kötik le.
Az APU-koncepcióval meg semmi baj nincs, a modulos CPU résszel már annál inkább, szerintem ez lesz az AMD Netburst-je. Az APU-ról mint koncepcióról csak annyit, hogy meg kell nézni, mennyit fejlődött az Intel CPU-ban a Sandy Bridge óta, és mennyit IGP terén. Ebből látszik, hogy az APU alapkoncepciója igenis helyes, csak a jelenlegi AMD-s megvalósítás hagy némi kívánnivalót maga után.
Azon is érdemes elgondolkodni, hogy az AMD 28nm-en hoz olyan szintű integrált grafikus teljesítményt, mint az Intel 14-en, ráadásul mélyebben integrálva.
Ha sikerülne egységes 14 vagy 16nm-en gyártatni a következő generációs, DDR4-et kezelő APU-kat, az azért érdekes lenne... Még ha maradna az 512SP akkor is komoly ugrás lenne teljesítményben és fogyasztásban, megnézném mit csinálna a konkurencia, ha azonos pályán kéne játszania.
Akkor azért kárörvendő nevetésbe kezdek, ha az AMD integrációs és low-level API víziója bejön a következő 1-2 évben és a cég meg is éli épen és egyben, hála annak, hogy bedolgozták magukat a konzolpiacra.![;]](//cdn.rios.hu/dl/s/v1.gif)
Így is nevetésre ad okot, hogy mind GPU mind APU/CPU terén a gyakran lesajnált, fikázott underdog határozta meg az elkövetkező évek fejlődési irányát, a piacvezető konkurensei meg követhetik. -
#45185024
törölt tag
válasz
FollowTheORI
#10294
üzenetére
Ez megjelent valahol hogy a Samsung jövőre gyárt HBM et? Bár jövőre már HBM 2 t kellene gyártania.
Csak mert mondták hogy 7 éve kisérleteznek az AMD vel karöltve Hynixék , nem olyan történetnek hallatszik amibe csak úgy jövőre belép a Samsung is. -
xxxxxxxxx
tag
am.. apró tele van 980al
vajon TI-re váltanak? -
-
pengwin
addikt
válasz
#45185024
#10291
üzenetére
Kiegészítés: az AMD szempontjából mindegy.

Nyilván a vevőnek nem az.
Ha kicsit fel tudna zárkózni az Intelhez az AMD mind teljesítményben mind fogyasztásban, és nem csak az alsó- és az alsó-közép kategóriában lennének CPU-ik/APU-ik, akkor nem csak a veszteséget termelnének. Csak az alsó kategóriából elég nehéz megélni, igazából ez az a kategória kéne legyen, ahol a felső kategória selejtjét adják el, lsd. mellékelt Intel.
A két résztvevő meg kell. Már az is csoda, hogy az Intel a jelenlegi piacellenes magatartásával (pl. notebookokba dömping áron szállítja az APU-kat a partnereknek, ha azok kerülik az AMD egyébként versenyképes termékeit, pl. Carrizo) megússza a komoly bírságokat/feldarabolást, ha végleg eltűnne az AMD CPU fronton akkor viszont nagy kavarodás lenne ezen a piacon.
NV milyen veszteséges részlegeit építette le? Gondolom nem olyanokat, amik a piacukon az egyedüli konkurenciát jelentették az egyetlen másik cégnek.(#10292) rocket
Szerintem is az egyik legjobb lehetőség az MS bevásárlása, meg már hónapokkal korábban is pletykáltak róla, hogy a Sony-MS duó bevásárolhat az AMD-be, a konzolok jövőjét biztosítandó.
Jelenleg AMD-nél szerintem kulcskérdés a pénz, mivel arról lehetett olvasni, hogy a veszteségek miatti folyamatos leépítésekben elküldtek fejlesztésen dolgozó mérnököket, ami miatt gondok lehetnek a fejlesztésekkel és csúsznak a projektek várható piacra dobási időpontjai, ami megint csak a veszteséget növeli. -
rocket
nagyúr
válasz
pengwin
#10290
üzenetére
Persze kapnanak tokeinjekciot, de ez onmagaban nem egyenlo a sikerrel.
AzATi-nakRTG-nek szoftver es marketingben agressziv vevore lenne szuksege, mert ezekben gyengek ~15 eve, igy a M$ a legjobb alternativanak tunik ezeket a szempontokat figyelembe veve, mindket dologban elmezonyben van. -
#45185024
törölt tag
válasz
pengwin
#10290
üzenetére
Egyáltalán nem mindegy.
Más az ha az AMD-ben van 10% od vagy az ha VGA igarban van 20% od ami komoly előrelépés előtt áll.
Az a rész ami életképtelen halljon meg, elég a VGA nak cipelni az ATI hitel terheit nem kell még egy veszteséges CPU teher is. Nvidia is eladta a veszteséges részeit, Csináljon CPU-t aki tud, csak azért ne legyen 2 résztvevő hogy egyik termelje a veszteséget. -
pengwin
addikt
válasz
rocket
#10289
üzenetére
Mindegy melyikbe vásárolja be magát az MS, az AMD így is, úgy is komoly tőkeinjekció kapna.
Ráadásul szerintem nem fog teljesen szétválni a cég, mivel a CPU részleg magában életképtelen lenne, és senkinek (se az Intelnek, se az MS-nek) sem lenne jó, ha eltűnne az AMD az x86 piacról.(#10285) Askformore
Szerintem annak elégnek kell lennie ha nem nagyon tervezed tuningolni a VGA-t, esetleg kérdezz rá a VGA-ra itt, a tápra pedig itt. -
-
pengwin
addikt
válasz
Locutus
#10275
üzenetére
Szerintem ez a Microsoft-nak jóval több lehetőséget tartogatna, nem csak komolyabb befolyást a konzolok hardverére. Pl.:
- jobb alkupozíció az Intellel szemben bármilyen hardver beszerzésnél
- MS-nek sem érdeke, hogy az x86 CPU-APU piac egy szereplőssé váljon, még ha csak a Radeon Group-ba vásárolják be magukat, már az is tehermentesítheti valamennyire az AMD APU/CPU részlegét
- az AMD top GPU-inak 90%-a nem feltétlen az Apple gépeibe kerülne, indíthatna az MS is egy Surface AiO szériát az iMac ellen
Nyilván ezek eltörpülnek a konzolos lehetőség mellett, de attól még ott vannak. -
#45185024
törölt tag
válasz
FollowTheORI
#10277
üzenetére
Msnek azért lenne jó a szétválasztott csak GPU cégbe szerezni vagy 20%-ot mert akkor belülről tud beleszólni az Xbox Új generációinak GPUjába, Furyt már pattanthatja is bele egyből szinte saját tulajdonként.
Sőt MS helyébe Hynix be is bevásárolnám magam hogy egyből a konkurenciából is hasznot húzzak. -
pengwin
addikt
válasz
Askformore
#10273
üzenetére
+1 7950-7970, itt a hardveraprón, megbízható eladótól, lehetőleg kis garanciával.
(#10274) Pepeeeee
Ez így nagyon primitíven van megfogalmazva és ráadásul még nem is igaz, csak ijesztgetni jó szöveg...
"mucsaröcsögéről" - gondolom pesti vagy, földi...

-
#35434496
törölt tag
válasz
Askformore
#10280
üzenetére
Az a GTX
Viccet félretéve Malibutominak igaza van. 7970 nagyon jó kártya. 
-
-Solt-
veterán
válasz
Askformore
#10273
üzenetére
Én a piros ászt javaslom, az mindent visz!
) -
válasz
Locutus
#10275
üzenetére
Ez sem egy rossz alternatíva... Ez max az nVidiának nehezítheti meg a dolgát a jövőben DX fronton.

Viszont ha ez lesz a következő Sony konzol intel+nvidia lesz megint (ha x86 kompatibilisek akarnak maradni).

Egyébként nekem a szimpibb struktúra még mindig az lenne, ha a CPU rész (ami visszafogja a bizniszt) menne IP/licenc onlyba. És az maradna önálló. A GPU+APU+SoC biznisz meg egy másik cég. Amit aztán akár az MS is megvehet, bár jobb lenne a ha független maradna.
-
Malibutomi
nagyúr
válasz
Askformore
#10273
üzenetére
40 korul 7950-7970 eleg jo elorelepes
-
#45185024
törölt tag
válasz
Askformore
#10273
üzenetére
Szerintem add el a kátyádat a használtpiacon, kuporgassál hozzá még vagy 10 15 ezret és akkor ott 65 70 környékén már vannak értelmesnek nevezhető kártyák.
40 ből max ilyen lepukkant bitcoin bányászkártyákat kapsz sivító ventillátorral, mucsaröcsögéről postázva aztán örülj neki ha nem papírgalacsin van a csomagban.
Engem is le akartak húzni a "nem vaterás" használtpiacon 40 ezer forinttal ,mikor nemet mondtam 4000 előleget kért , amit aztán a bankszámla alapján csalónak detektáltam, szóval csak óvatosan. -
Askformore
senior tag
Sziasztok!
Kártyát szeretnék cserélni, AMD illetve Nvidia is szóba jöhet.
A jelenlegi egy Asus HD7790 1GB DirectCU II OC kártya. Ehhez képest szeretnék előre lépni. A keret 40-45ezer lenne, használt-garis is érdekel.
Tudnátok ajánlani mindkét oldalról kártyákat?
Köszönöm!
-
HSM
félisten
Ez itt a baj. Marhára nem elég egy i3 egy komoly VGA alá.
Amit mutatni tudok kép, egy 290-es Radeonnal (900Mhz-en) BF4 multi, 64 fős szerver, Mantle-vel, max grafikán FHD-ben: [link]
Proci egy Intel i5 4690K, 4,4ghz-re húzva. Az is jól látható, hogy az átlagos CPU-használat majdnem 80%-os volt a 27 perces mérés alatt. Szerinted itt mit alkotott volna egy kétmagos i3 vagy Pentium? Szvsz leginkább semmit.
Amúgy a Crysis 3-ban is vannak pályák, pl. a Welcome To The Jungle, ahol szintén a 4,4Ghz-es procival is jó, ha megvan az 50FPS, amikor belegázolsz a fűbe, olyan CPU-limit van, hogy csak győzd nézni.
[link]
Mindkét képen 94% a teljes CPU-kihasználtság, megörökítette az OSD.
Ha bemész a fűbe, még jobban lezuhan az FPS, ilyen 30-40-re is. Na, ott is mit csinál az I3/Pentium feleennyi nyers erővel? Semmi jót... 
És ez csak két kiragadott mérés, amiről épp volt kéznél képem.... De pl. egy GTA4 alá már az 5850-es Radeonomalá is kellett a négymagos proci, lehetőleg húzva.
-
Shing
őstag
Miért lenne nagy segítség? Miért kell mindent CPU-ra pakolni? Egy 2 magos proci majdnem mindenhez elég.
Akkor hol vagyunk attól, hogy leterheljünk egy I5-ös csodát DX12-vel? Inkább azon kellene gondolkodni, hogy milyen dolgokat lásson el a processzor párhuzamosan, mert már most is csak annyit látok laikus szemmel, hogy a videokártya 100-on pörög, a proci pedig 30%-on. -
Petykemano
veterán
Ez akkor azt jelenti, fog tudni úgy futni egy program, hogy AMD esetén erősen épít az aszinkronitásra, nvidia esetén nem, vagy kevésbé anélkül, hogy hátrványosan érintené egyik vagy másik gyártó termékét?
És ha igen, akkor az aszinkron használat mértéke - akár külön ágon is - csak attól fog függni, hogy az nvidia mennyire nyitja ki a pénztárcáját? -
Abu85
HÁZIGAZDA
válasz
rocket
#10248
üzenetére
Nem az AotS kapcsán volt róla szó. Az async DMA és compute egy olyan dolog, amit a konzolra dolgozó fejlesztők jó ideje használnak. Tehát semmi újdonság nincs benne, csak PC-re még nem használták sokan (csak a Thief). Elsődleges célja, hogy ingyenessé tegyen bizonyos számításokat, mert ezeket a hardveren belüli buborékokra rá lehet ütemezni. Például shadow mapoknál a shader feldolgozók 90%-a NOP-ot futtat, vagyis nem csinálnak semmit, csak várják, hogy végezzen a ROP a számítással. Ezekre a feldolgozókra ki lehet osztani feladatokat, amelyek addig végeznek, amíg a shadow mapok számítása zajlik. Ergo a teljes számítás, amit ezekre kiosztottak gyakorlatilag ingyenessé válik. Számolt a rendszer egy csomót, de közben kvázi semmit sem lassult a tempó, mert a shadow map számítása tovább tartott így is.
A multi-engine ezeknek a hardveren belüli idle buborékoknak a betömésére jó.
Aztán ott a gyakorlat, hogy ezt ki hogyan használja, mert egészen sok lehetőség adódik azzal a modellel, amit a DX12 lehetővé tesz. Nem muszáj buborékokat tömködni, akár elindítható több alacsony prioritású compute feladat is a grafikai feladatok mellett. Valószínűleg a Nitrous eleve egy nagyon kiegyensúlyozott motor, így nem sok buborékot lehet betömni, ami miatt inkább párhuzamos megközelítéssel dolgoznak a fejlesztők. De az valóban igaz, hogy a motorok 99%-a a Nitrous teljesítményének a töredékét sem képes hozni, és így logikus, hogy jóval több idle buborékok lesz a hardvereken belül. Így például ezeknél a motoroknál lehet más megközelítéssel is élni. Írtam az ezzel kapcsolatos cikkben, hogy az NV valószínűleg azért nem tiltja le csípőből ezt a képességet, mint az Intel, mert egyrészt szeretnék használni az async DMA-t, másrészt nagyon valószínű, hogy van olyan megközelítés, amitől a Maxwell 2 is gyorsul, mert valószínű, hogy a compute bizonyos grafikai state-ekre épül. Bár a Maxwell 2-ről nincs dokumentáció, de nagyon jellemző, hogy stateful hardvereken a compute és a pixel feladatok ugyanazokat a state-ket használják. Nyilván, ha az NV azt gondolná, hogy a fejlesztők nem képesek olyan kódot írni, ami a hardverükön gyorsul, akkor nem is gondolkodnának a multi-engine hardveres kezelésén.Az meg teljesen normális, hogy egy fejlesztő letilt dolgokat, bizonyos alternatív kódrészletekkel, ha az adott implementáció nem felel meg az adott hardvernek. Pontosan ezért van a Nitrousban egy NV-re kialakított kódrészlet a fő programkód mellett. Ez nem tudom, hogy miért újdonság, hiszen lassan egy évtizede folyamatosan alkalmazott praktika.
-
Abu85
HÁZIGAZDA
válasz
Locutus
#10265
üzenetére
Csak más fog velük játszani. Bár a fejlesztők is gamerek bizonyos szinten, szóval ők is játszanak majd.
Hidd el egyébként nem hülyeségből kérnek olyan dolgokat, amelyekkel hatékonyabban tudnák programozni a GPU-kat. A mostani nyelveket a tíz évvel korábbi modellekre találták ki. A Vulkan az első API, amely lépéseket tesz annak érdekében, hogy C++11 vagy akár C++14 részhalmazának képességeit el lehessen érni. Ez az olyan cégeknek, mint az Ubisoft nagy segítség lenne, mert ők már most azon gondolkodnak, hogy átvisznek bizonyos számításokat a CPU-ról a GPU-ra. GPU-driven pipeline modell.
És itt megint csak a PC-ről van szó, mert konzolon megcsinálják, itt az a kérdés, hogy PC-re hogyan oldják meg. Nyilván első körben az executeindirect elég, de később szükségük lesz a Vulkan újításaira.
-
Abu85
HÁZIGAZDA
Nem feltétlenül függ az API-tól, hogy egy játék Win10 only-e. A Vulkan éppúgy lehet Win10 only, ahogy a DX12, mert a WDDM 2.0-ból profitál. Az valóban igaz, hogy a Vulkan esetében van esély rá, hogy egy játék elinduljon Win7/8.1/akárminamireleszVulkan, de ha egy motor valamilyen szempontból kötődik a WDDM 2.0-hoz, vagy egy hasonló modellhez, amit nem lehet igazán jól visszamappelni a WDDM 1.x-re, akkor Vulkan ide vagy oda a programhoz Win10 kell.
Ettől függetlenül a Vulkan valamivel jobb API. A DX12 nem tartalmaz olyan funkciókat, amelyeket a fejlesztők kifejezetten kértek, és elérhetők konzolon is. Mint például az ordered atomics, GPU dispatch, SIMD lane swizzle, template támogatás a shader nyelvben. Ezeket a Vulkan tudja.
-
HSM
félisten
Az AMD PowerPlay amúgy gyönyörűen működik, főleg a Hawaii kártyákon.
Ugyanakkor a gyártó paraméterezi BIOS-alól, szóval ha az el van tolva, akkor hiába minden. 
Amúgy most is működnie kellene a szivárgás alapján beállított fesznek, a Tahitik esetében még szépen meg lehetett figyelni, ott egy táblázat volt a BIOS-ban, a különböző %-okhoz milyen feszültségeket adjon.
Bár azt megfigyeltem, hogy a hawaii kártyák szűkebb tartományon mozognak ASIC Q-ban, mint a régi Tahitik, azok 58%-tól voltak felfele 80% felettiekkel is, míg Hawaii-ból 70-80% közötti mind, amit láttam. Persze, ez nyilván nem reprezentatív minta.
-
Egon
nagyúr
válasz
schawo
#10251
üzenetére
A Vulcan azért lehet jobb a DX12-nél, mert nem lesz Win10 only, illetve ott az nV-nek van lehetősége az AMD hardvereknek kedvező feltételeken változtatni (Abu írta, hogy konkrétan mit kell fejleszteni, de már elfelejtettem).
Szerintem a Win10 elterjedése lesz a kulcs: ha úgy jár mint a Win8, akkor lehet esélye a Vulcan-nak. -
HSM
félisten
válasz
daveoff
#10257
üzenetére
Annyiból nem baromság az a kártya, hogy az ugye egy vérbeli tuning kártya, és mint írtam, főleg extrém tuningra a minél magasabb szivárgású csipek a legjobbak. Tehát ott valódi hozzáadott érték a magasabb szivárgású csip.

A VRM is adott rajta, hogy durvább tuningok alatt is etethesse aGPU-t. -
daveoff
veterán
Na mondjuk ott lehet hülyeséget írtam, mert az nem tudom, hogy az alacsonyabb, illetve a magasabb ASIC milyen szivárgó áramot jelent, annyira nem vágom a témát. Azt tudom, hogy NV-nél határozottan jobb a magas ASIC-Q, de általában AMD-nél is jobb volt. EVGA 980Ti K|NGP|N kártyát pl tudsz venni ASIC-Q szerint, nem kevés felárért.[link] Mondjuk egy jó nagy barom marketing fogás szerintem, de van ilyen is....

-
daveoff
veterán
Ezt most már végképp nem értem. NV-nél pont úgy van, mint a GPU-Z-s táblázatban, magas ASIC-Q, jobb minőségű csip, alacsonyabb szivárgással, és alacsonyabb alapfesz-el. NV-nél sokkal jobbak a magas ASIC-Q kártyák minden szempontból, hőfok, tuningolhatóság, fesz. stb. Mondjuk én is emlékszek AMD-nél ez tényleg nem így volt....

-
HSM
félisten
válasz
schawo
#10251
üzenetére
Azért nem egészen. Az OGL elég sok sebből vérzett sajnos, leginkább a lassú fejlesztéstől és a nem teljesen jó kompatibilitástól. A Vulcan sokkal jobban ki lett találva az eddigi hírek szerint.
Ráadásul ellentétben a DX12-vel, több platformon is jelen lesz, különösebb hátrányok nélkül. Itt sokkal jobb esélyek vannak, hogy népszerű lesz a fejlesztők körében. 
Melyik a jobb? Az az alacsony szivárgású, ami jól bírja az órajelet a lehető legkisebb feszen.
Tehát amivel a lehető legkisebb fogyasztás mellett éred el a kitűzött órajelet.
A fórumokon viszont az (téves!) a nézet volt egy időben egyeduralkodó, hogy a kisebb feszen nagy órajelt tudó csip a legjobb, ezek pedig tipikusan a nagy szivárgású példányok.
Extrém tuningra is amúgy az extrémebb szivárgású csipek szoktak a legjobbak lenni, ott úgysem számít, mennyit fogyaszt.
A csipgyártók nyilván küzdenek a szivárgás ellen, hiszen ők azért jobban értenek a dolgokhoz a fómuzók többségénél.
-
HSM
félisten
"a túlnyomó többség megelégedetten használja"
Nem az emberekkel, hanem az AMD-vel szemben kiszúrás.
Bár ennek még lehet a felhasználókra is kihatása."Kapitalizmusról hallottál már?"
Igen. Nem is mondtam, hogy ez baj, csak ez történt.
Ez a kérdés amúgy nagyon messzire vezet. Az Nv itt úgy gondolom, a vásárlóik érdeke elé tette a saját anyagi hasznukat, míg az AMD nem. Számomra ez lényeges + az AMD oldaláról."Te, a kristálygömbbel?", "(I)Nekik is van kristálygömbjük?(/I)"
Szintén a fejlesztő fórumtárs írta, hogy 2012-ben már kész volt a DX12 prototípusa. Szóval már akkor láthatták, mi lesz az irány.
Nem reménytelen teljesen az ügy, de lényeges extra optimalizáció kell, és még úgy sem biztos, hogy minden gyengeséget helyre lehet hozni. Lásd Abu két VR cikkét a napokból.(#10246) schawo: Mert a fórumokon elterjedt (téves) nézet alapján a kisebb fesszel nagy órajelet tudó csip a jobb.

(#10249) Egon: Én is a Vulcan-nak drukkolok, hogy beváljon.
Win10 nekem nem adja.
Sors iróniája, hogy azt is az AMD-nek köszönhetjük. -
Egon
nagyúr
Szerintem nem lehet kárhoztatni az AMD-t a kialakult helyzetért. Az MS-t viszont igen, mert ezzel a húzással bebizonyították, hogy nagy ívben tesznek a gamer PC-sekre (persze a pakliban az is benne van, hogy 1-1 speciális esetet vagy területet leszámítva, nem lesz ebből olyan nagy probléma).
Remélem elterjed a Vulcan, és rájuk rohad a Win10. -
rocket
nagyúr
Akkor minek hypeolta Huddy az AOTS kapcsan az aszinkon computeot, ha a benchmarkban nem mukodik naluk se?
Egyebkent ez a lenyege az aszinkron compute koruli cirkusznak:
"Aquanox Dev: We'd Do Async Compute Only With An Implementation That Doesn't Limit NVIDIA Users" -
Egon
nagyúr
Újabb gyöngyszem...
![;]](//cdn.rios.hu/dl/s/v1.gif)
Nézd, szerintem meg az Nv-től volt hatalmas kiszúrás, hogy kidobták a Maxwell architektúrát,
Lassan egy éve kint van, a túlnyomó többség megelégedetten használja, a jövőtállósága kapcsán vannak kérdőjelek, de még semmi sem dőlt el.
szembeköpve az AMD-t,
He? Kapitalizmusról hallottál már? Igények felismerése/teremtése, piaci rés megtalálása stb. Mióta kellene bármilyen szempontból figyelembe venni a konkurencia problémáit? Az AMD is olyan megértő volt a 970 3.5 GB-os memóriaproblémája kapcsán, hogy nem kezdett el azonnal trollkodni, ugye?

Arról nem az nV tehet, hogy az AMD (a jelek szerint) nem tudta megtalálni a kulcsot a vásárlók pénztárcájához, mivel nem ismerte fel és/vagy nem alakította a megfelelő marketinggel a maga javára az igényeket.amiről ők is tudták, hogy nem fog passzolni a DX12-höz.
Ki az az is?
Te, a kristálygömbbel? Egyelőre nem úgy tűnik, hogy bárki tudná, milyen mértékben fog passzolni a DX12-höz... Mindenesetre a fejlesztő fórumtárs legutóbbi hozzászólásából az látszik, hogy messze nem reménytelen az ügy, még speciális esetekben sem... 
Pedig az Nv már évekkel korábban tudta, merre tervezi az AMD és az Ms továbbvinni az API-kat és grafikai hardvereket....
Honnan is? Nekik is van kristálygömbjük?

És még sajnáljam őket?
Ki kért ilyesmire, hol van a legkisebb erre vonatkozó utalás abban a háeszben, amire válaszoltál?
-
HSM
félisten
válasz
schawo
#10241
üzenetére
Tudom, mit jelent a szó.

"Márpedig alacsony fesz -> alacsony órjel, nagyobb fesz -> nagyobb órajel szabály régóta él."
Ez csak AZONOS csip esetén él, értsd úgy, ugyanazon egyetlen darab csip esetén. Ezért is van szivárgás alapján megkülönböztetve a dolog, a magasabb szivárgású csak akkor kerülhet a PCB-re, ha kisebb feszen is hozza az órajelet, különben kuka, mert nem fér bele a TDP-keretbe.
A legjobb csipek (kis szivárgás és kis feszültség igény) pedig többnyire notebookok számára kerül leválogatásra.(#10242) tailor74: Az van, hogy ez nem az ASIC %-on múlik. Az ASIC %-on az múlik, hogyha van két GPU, amik 1000Mhz-et tudnak 1,1V-on, akkor az fog kevesebbet fogyasztani azonos terhelés mellett, aminek kisebb az ASIC %-a.

-
Abu85
HÁZIGAZDA
válasz
Dark KillerX
#10238
üzenetére
De az MS bármikor mondhatta volna nekik, hogy köszönjük értékeljük a munkátokat, de nem kérjük. Viszont ezzel sem lenne előrébb az ipar, mert akkor is kiadták volna a saját API-jukat, és akkor ott tartanánk, hogy az Intel és az NV is tervezné a sajátját. Az átmenet rossz lesz, de összességében jól jártunk azzal a váltással, amit az MS végigvitt. Lehet, hogy jövőre lesz némi kellemetlenség belőle, de két éves távlaton túl csak pozitívumokat fog hozni.
-
sayinpety
tag
Volt szivas, am megoldottuk. Sajnos developer driverek sokat valtoznak, nem stabilak meg. Jelenleg multi-engine & sync code eredmenye +4% Geforce es +22% Radeon. Am mi software tessellationt futtatunk async compute modeban. Specialis eset.
Szerintem Nv tul ideges. Latszik rajtuk, am nem ertem miert. Tobb alternate pathot irtunk be enginebe fel ev alatt. Sokat segitett a Geforceoknak. Mar hasonlo teljesitmenyu a 980 es 290x. VR-tol felnek. Mi VR tamogatasunk nem lesz kesz jovore. Elmondtam nekik. Latszott rajtuk a megkonnyebbules. Vicces volt. :-)
Szerintem Nv tul optimista volt. Tobb programozojuk belatta nem jo a Gameworks. Hiaba hoztak 4 effektet, egyiket se tudom beepiteni. Legalabb egy evvel csuszna engine. A kiado nem orulne. Par uj Gameworks effekt hasznal conservative rasterizationt es ROVsot, am olyan enginerol nem tudok, ami tamogatna. En jovore kezdem tervezni az updatet. Akkor veszem szamitasba uj lehetosegeket. Ha minden jol alakul conservative rasterization es ROVs algoritmusokat harom ev mulva tudunk beepiteni. Nem varazsutessel fejlesztunk! D3D12 tul nagy update. Nem lehet mindent gyorsan tamogatni. A tamogatast eloszor alapfunkciokra korlatozom, plus multiadapter. Ha mukodik lepunk tovabb. Meg be kell epiteni a Vulcan APIt. Mantle miatt nem varok nehezseget, am par hetet elvisz.
-
tailor74
addikt
Azért itt még van annyi csavar a dologban, hogy vga-nál egy adott órajel eléréséhez szükséges feszültséghez viszonyítanak, nem pedig a chip működéséhez szükséges üzemi feszhez.
Kérdés..
Ha adott egy gpu, ami 1000MHz-et tud mondjuk 1,1V-on, a másik ezt nem tudja csak 1,18V-on, de működne 1,1V-on is, csak ott mondjuk 940MHz-en, akkor mi van? Melyik milyen asic-os?
Szerintem ugyanazt írtuk, csak elbeszéltünk egymás mellett.

-
schawo
titán
Az ASIC szó szerint semmi mást nem jelent, mint application-specific integrated circuit, azaz alkalmazásspecifikus integrált áramkör. Amiről szó van az az ASIC Quality, az pedig az kész szilícium lapka használati minőségét jellemzi. Márpedig a nagyobb szivárgási áram az nem használ, hanem egyenesen árt, hiszen alacsonyabb feszültség mellet marad csak stabil a rendszer (végletekig egyszerűsítve P=U^2/R, tehát ha R kicsi, akkor P nagy). Márpedig alacsony fesz -> alacsony órjel, nagyobb fesz -> nagyobb órajel szabály régóta él. Persze én nem chiptervezéssel foglalkozok, egy szaki is mondhatna a témáról valami okosságot.
(#10239) Szaby59
A Default Voltage az egy alapértelemezett feszültségérték, nem pedig a max voltage, ami sokkal fontosabb a tuning szempontjából. -
HSM
félisten
válasz
tailor74
#10236
üzenetére
Az ASIC a csip szivárgása, se több, se kevesebb. Azt mutatja meg, azonos feszen melyik csip mennyi áramot fog fogyasztani.
Találkoztam már nagyon jól tuningolható alacsony szivárgású (ASIC) GPU-val, és nem olyan jól tuningolható magas ASIC/szivárgásúval is. Az első a létező legjobb kombináció, de viszonylag ritka, míg a második szerencsére szintén ritka, és a legrosszabb.
Nem is megy, de legalább jó az étvágya. 
(#10238) Dark KillerX: Nézd, szerintem meg az Nv-től volt hatalmas kiszúrás, hogy kidobták a Maxwell architektúrát, szembeköpve az AMD-t, amiről ők is tudták, hogy nem fog passzolni a DX12-höz.

Pedig az Nv már évekkel korábban tudta, merre tervezi az AMD és az Ms továbbvinni az API-kat és grafikai hardvereket....
Most az nyal vissza, amivel degeszre keresték magukat az utóbbi egy évben. És még sajnáljam őket? Ugyan, kérlek.
Amúgy nem pasziánsz szintre fog butulni az Nv, csak ahogy állnak a dolgok, nem fognak közelsem annyit gyorsulni, mint a konkurenseik.
(#10239) Szaby59: A power consumption állítás hibás, a többi nagyjából helytálló.
-
Dark KillerX
addikt
Nem persze nem, de az sem szebb dolog AMD részéről, ami nem ment a termék vonallal, azaz eladást termelni, most egy olyan szoftverkörnyezetet akarnak kialakítani MS-el karöltve, aminek csak az AMD felel meg.Kb csak ezt veheted, különben marad a pasziánsz, nekem nem jön be ez, hogy vmit lenyomnak a torkomon, már bocsi.

-
tailor74
addikt
Én úgy tudom, hogy az ASIC quality, az alkalmazás specifkus áramkör minőség, amit egy gpu esetében egy állandó, homogén terhelésen lehet legjobban mérni, ilyen volt például gpu-k esetében a bitcoin stb. bányászás.
Ott a chip névleges üzemi feszültségéhez viszonyítottan magas (77-83%) asic quality azt jelentette, hogy kevesebb a szivárgó áram, ezért az üzemi feszhez képest kevesebb plusz fesz kell az ideális 100%-hoz.
Alacsony asic quality-nél több a szivárgó áram, ezért több fesz kell a névlegeshez feszültséghez képest, hogy elérd az elméleti 100%-ot.Namost játékoknál, ahol nem beszélhetünk állandó leterhelésről, szerintem más a kép, ezért véleményem szerint itt az asic quality százalék nem sokat mond a tuningolhatóságról.
Persze ez csak magánvélemény, és az is lehet, hogy rosszul tudom.

-
HSM
félisten
válasz
schawo
#10233
üzenetére
Nézd, engem nem érdekel, miért pont így nevezik. De úgy van, ahogy írtam.

Logikai bukfenc nálad: a magasabb szivárgású csip bír el nagyobb feszt.
Pont a szivárgása miatt. 
(#10234) Dark KillerX: Arról nem az AMD tehet, hogy az Nv meglovagolva a beragadó DX11 és 28nm technológiákat piacra dobott egy GCN-nél "butább", de ezáltal energiahatékonyabb architektúrát, aminek a DX12 újításai nem igazán fekszenek.
-
-
HSM
félisten
válasz
proci985
#10212
üzenetére
Fordítva... A low ASIC a kis szivárgás AMD-nél, ez 100%.

A tiédnél is az lehetett a gond, hogy a Matrix brutál VRM-jével az 1,25V elég brutál. Ahhoz képest meg nem olyan kicsi a szivárgásod.
(#10213) oliba: Igen, így kéne lennie. De itt éppen az van, hogy a magasabb ASIC (79.3) kap magasabb feszt (1,21V) az MSI 390X esetén, míg a "normális" fogyasztású PowerColor 390 csak 73.1% ASIC, és csak 1,15V-on megy, majdnem 100Mhz-el kisebb órajelen. Szerintem eme három tényező együttes kedvezőtlen fennállása magyarázza az MSI összességében elég komoly +100W-os többletfogyasztását.
(#10214) schawo: Mert amelyik csip magas szivárgású, és nem elég neki alacsonyabb fesz, abból radiátor lesz, nem GPU.
![;]](//cdn.rios.hu/dl/s/v1.gif)
(#10228) Dark KillerX Az aszinkron compute-ban semmi zárt nincs, ahogy az API-ban sem, ki van adva szabványba, az nem zárt. Lásd pl. Vulcan API.
A VR-re azért jön "zárt" szabvány, mivel a nyílt szabványban még nincs kidolgozva az ahhoz szükséges támogatás. -
mcwolf79
veterán
válasz
Dark KillerX
#10228
üzenetére
Sajna itt már régóta ez megy.
Ha az AMD kijön valami "forradalmival" (ami jobbára inkább csak füst, mint láng) akkor Hallelujah, de jó ,hogy az AMD ilyen innovatív.
De ha jön valami negatív dolog az NV-től ,akkor azonnal máglyára az összes NV VGA-val, és átok az összes tervezőre.Mikor megláttam a címlapon a VR-es cikket, már előre tudtam, hogy megint valami NV köpködés lesz (most lehet nyomni a púdert, hogy ez csak egy vélemény,és csak lehozza a PH), de nyilvánvaló, hogy ez csak egy újabb gumicsont a sok vörösnek, hogy legyen miért örömködni az NV kárára. Az már más tészta, hogy mi lesz a valóság, de van 1-2 szerkesztő itt, akik szeretik kelteni a feszkót ilyen cikkekkel.
Tényleg tiszta bulvár már a PH (de leginkább a "VGA-szekció" ,hála bizonyos nem is titkoltan elfogult cikkírónak). -
Dark KillerX
addikt
Nem akarom megbántani a Prohardver szerkesztőségét, de lassan olyanok lesztek mint a HVG, vagy Index.
, csak kicsit vagytok elfogultak 
Mert amíg vkinek szabad mindent, itt gondolok AMD-re,mert ők szabványt készítenek, azaz lehet zárt forrás kód náluk ( persze azt mondják nem az, csak éppen az aktuális csúcs hardverén Nv-nél gyakorlatilag használhatatlan ) ,gondolok itt a VR-re,és az Aszikron compute-re
Addig ezzel ellentétbe, ment a cirkusz a Physix-el, vagy a akár a Cuda programozással kapcsolatban, vagy a Gamerworks idején.
Az AMD ilyen hozzáállással nem fog vásárlókat szerezni,és ők sem különbek mint, mint a "gonosz" NV

2 nap alatt két Nv-t nem éppen jó fényben feltüntető cikk [link] , [link]
És ez szigorúan magán vélemény
de ez nagyon részre hajló szvsz 
-
#85552128
törölt tag
válasz
Laja333
#10225
üzenetére
A sima Fury magasabb Power Targettel is sokszor a 390X szintjén van, a Ti-nek meg több ROP-ja van szóval valószínűleg (itt is) az ami visszafogja a teljesítményt.
Legalább 96 ROP nagyon kellett volna ebbe a GPU-ba, még ha ez kevesebb shadert is jelentett volna sokkal "kiegyensúlyozottabb" konfig lehetne. -
Laja333
őstag
válasz
tibcsi0407
#10223
üzenetére
Nekem is ez a fura, fel is tettem a kérdést, de nem kaptam választ.

Miért teljesít hajszálra úgy, mint a 390x? Egyedül a ROP mennyisége közös. -
#35434496
törölt tag
válasz
tibcsi0407
#10223
üzenetére
Már megkapták és letesztelték az amd kártyákat így közölhetik a valós mérést.

-
gtamate2
veterán
válasz
tibcsi0407
#10217
üzenetére
A végén még kiderül hogy a Maxwell nem csak dx 11-ben jobb akkor kíváncsi leszek mi lesz itt.. dx13 várás?

-
rocket
nagyúr
válasz
tibcsi0407
#10217
üzenetére
Raadasul mindezt aszinkron computetal produkaljak a Radeonok es anelkul a 980Ti, persze biztos nem FAIR a teszt, legkozelebb semmit nem kapnak majd tesztelni

-
tibcsi0407
félisten
Nekem inkább ez volt az érdekes az előző napok vitái után:
-
#35434496
törölt tag
Nano 240k-ért ezt tudja? Vagy ez most valami vicc akar lenni?

-
proci985
MODERÁTOR
válasz
Malibutomi
#10205
üzenetére
a Hawaii irdatlanul tud szivárogni, foleg egy low ASIQes darab.
ld az én 290xem, gyári hűtővel konnektorból 610Wos peak, levizezve 510W (szabalyozast tweakeltem meg kozben, de az nagyon max 10-20W). kb a 250W vs 310-330W fogyasztas stimmelt is az atfolyo aramot mero szenzorok alapjan. a ventik hianya -a gyari bordarol- magaban azert ekkora kulonbseget nem as.
mondjuk 390x mar talan jobb a helyzet, de a 290x OC modellek egy resze gyarilag kb uvegre volt huzva. enyem is a gyari 1.250as fesszel alapon 1050es orajelen jart, firestrike ezen a feszen 1085ig volt stabil. 1.300on (ami kb vizen a max hosszutavu stabil a Hawaiinak) 1135 volt a kartya vege, 20%al magasabb deltaT mellett.
oke, kb a forum egyik legrosszabb 290x kartyaja az enyem, de akkor is letezik.
-
HSM
félisten
válasz
#85552128
#10204
üzenetére
Na ja, magasabb ASIC-ra még több feszt is ad.
Lehet sok lett a gyári OC.
Mondjuk ez nem magyarázza az üresjáratban/multimonitor/BR is magasabb fogyasztást.
Pedig amúgy nem lenne rossz, ezt is írtam a srácnak.
(#10205) Malibutomi: Én a gyárit nézem, mivel azt garantálják, abból lehet kiindulni. Ráadásul a hülye "Offsetes" tuning miatt a Hawaii kártyákon nem is olyan egyszerű az alulfeszelés, ha gyárilag eltolják a BIOS-ból...
Több, (sokkal több) mint 40 másodpercet szántam rá, csak én nem bízok azokban az oldalakban, amiket 40s alatt megtaláltál, így nem is foglalkoztam azokkal az értékekkel.(#10206) Televan: Azért az nem mindegy, 250W-ot kér a kártya, vagy 350-et... A 350W azért már tényleg kicsit durva, főleg gyárilag.
Azt ráadásul mind ki is kell szellőztetni a házból. -
-Solt-
veterán
válasz
Malibutomi
#10198
üzenetére
MSI drága, Sapphire 2 év garancia, Powercolor nincs itthon, XFX szintén 2 év garancia.
A számokon nem akarok lovagolni, 1080p-n 10-15%-l biztos gyorsabb mondjuk a G1 980 mint egy 390X, viszont a gond az, hogy amelyik minőségben érdemes lenne a vételre, az kb annyiba kerül mint az említett 980.
(#10206) Televan: A sorsra bízom... belőttem árfigyelőket, amelyik előbb átesik a tűréshatáromon, azt veszem!

-
Malibutomi
nagyúr
Ha hasznalod a fejed, rajossz magadtol is hogy hulyeseg, es nem fogyaszthat 100W-al tobbet mint a tobbi ugyanolyan kartya ugyanolyan terheles alatt.
Foleg nem mervado, ha azt nezzuk hogy tuningolnak az emberek. Meg azt hogy te ugyis alulfeszelned

Ha meg nem talaltal, akkor nem is nagyon kerestel mert en kb 40 masodperc alatt talaltam a sracnak olyat ahol nem fogyaszt tobbet, es direkt olyanokat ahol ugyanazon az oldalon ossze lehetett hasonlitani.
-
HSM
félisten
válasz
Malibutomi
#10200
üzenetére
Azóta az kiderült, hogy akkor most végülis mi a tényleges fogyasztása?

A TPU azért nem szokott 100W-okat tévedni.
[link]
Másik horror fogyis teszt: [link], harmadik: [link]
Ennyi épkézláb oldal, és mindnél kb. +100W-al megy magasabb fogyasztással, mint kéne neki.... Se a TPU, se a Tomék nem piti vackokkal mérnek pedig és nem is ma kezdték..... Igazából olyat nem is találtam, ahol nincs meg ez a +100W.
Szóval nem a levegőbe írtam a fórumtársnak.
-
-Solt-
veterán
Lehet, hogy neked nem ellenfele, én is örülnék, ha ezt ilyen határozottan kijelenthetném, de azért ezzel így nem értek egyet!
A 970 nekem elvből nem pálya, ezt már párszor kifejtettem, nem kezdek bele megint.A 980 viszont ezen a 150K-s áron sajnos jobb választás mint a 390X. 135K-ért van a kétes hírű voltage lock-s Giga G1, vagy a Sapphire, amire csak 2 év garancia van. A DC2-s Asus már 143K, a hűtése a 290X esetében nálam a nagy házban még elment, de már határeset lehet a 390X esetében. A STRIX már 153K, a hűtését a PH teszt is lehúzta. Marad az MSI, de azon is két venti van, és az is 153K!
Ehhez képest a Giga G1 980 157K, de 166K-ért már EVGA SC van.
Fogyasztást, teljesítményt kitárgyaltuk már... a gépemen lévő játékok jó része DX9/11-s, tehát a jelenben egyértelmű a választás. Tekintsünk optimistán a jövőre, tegyük fel, hogy ezt a 20%-t a 390X behozza a DX12/Vulcan alatt. Még mindig csak egál van...
Egyedül a VR az, ami miatt lehetnek még kétségek, de ez a rész is annyira képlékeny, hogy jelenleg ez nekem nem visszatartó erő. Ha nem lesz jó hozzá, eladom a francba aztán kész.

Választékban, minőségben, és árakban is elég komoly gondok vannak a jelenlegi AMD palettával.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- GYÖNYÖRŰ iPhone 12 Pro Max 128GB Graphite -1 ÉV GARANCIA -Kártyafüggetlen, MS3951, 100% Akkumulátor
- GYÖNYÖRŰ iPhone 13 mini 128GB Starlight -1 ÉV GARANCIA - Kártyafüggetlen, MS3133, 95% Akkumulátor
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7500F 32/64GB RAM RTX 5060 Ti 8GB GAMER PC termékbeszámítással
- AKCIÓ! Törött Apple iMac 19.2 i5-8500 Radeon Pro 560X 4GB 16GB 256GB SSD 21.5" 4K Retina
- Xiaomi Watch S4, 1 Év Garanciával
Állásajánlatok
Cég: Laptopszaki Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
![;]](http://cdn.rios.hu/dl/s/v1.gif)
vajon TI-re váltanak?


Viccet félretéve Malibutominak igaza van. 7970 nagyon jó kártya. 

)
Ha bemész a fűbe, még jobban lezuhan az FPS, ilyen 30-40-re is. Na, ott is mit csinál az I3/Pentium feleennyi nyers erővel? Semmi jót... 









