- Elképesztő mértékben tömörítenék be a nagy nyelvi modelleket
- Radeon RX 9060 XT: Ezt aztán jól meghúzták
- Atomenergiával dübörögnek tovább az Amazon adatközpontok, SMR-ek is jöhetnek
- Macron betiltatná az EU-ban a közösségi médiát a 15 év alattiaknak
- Az NVIDIA ipari AI-felhőt épít a németeknek, együtt az OpenAI és a Google
Új hozzászólás Aktív témák
-
Milka 78
nagyúr
Dx 12 alatt összeadódik a világ összes memóriája (szintén innen s forrás) .FuryX meg egy 2gb-s 5450-es+egy marok ddr2-es memória egységesen elhintve a gépházon belül és kész is.. tudatlanok!
-
do3om
addikt
válasz
Milka 78 #21894 üzenetére
Nem teljesít rosszul az igaz. De már nincs semmi vevőcsalogató értéke.
A HBM ami még azóta is egyedülálló csak nem látni semmi hasznát.Tudom hogy csak viccnek szántad, de azért kis igazság van benne de ez is csak töredéke annak ami a megjelenéskor ment hogy mekkora király lesz majd a DX12-ben. Viszont kevés van belölle és ha valamikor jönnek a valóban csak dx12-őt használó dolgok amiknél a driver nem számít (ezt valahogy még mindig nem értem -hiszem) a játék készítőinek kel mindenre külön optimalizálni (valaki szerint ennek még örülnek is mert ez is olyan jó dolog
) nem biztos hogy kellő figyelmet szentelnek rá.
-
keIdor
titán
válasz
TTomax #21892 üzenetére
Én tök úgy emlékszem, hogy Abu a GK210-re mondta, hogy nem lesz. Az nem is lett, de GK110 igen.
Most is ez van, van GP100 meg GP102, de valamiért a GP102-t nagyon limitálják, és nem a gyártás a probléma szerintem.
Nem hiszem, hogy ekkora igény lenne Pascal Quadro-kra. Valami anomália van ott... -
TTomax
félisten
Azért mert még optimista,el akarja hinni amit lát.Ezért nem szabad pálcát törni mások feje felett,attól hogy neked,vagy nekem más a véleményem még illik tiszteletben tartani másokét is,még ha mi azt nem is úgy gondoljuk.
(#21894) Milka 78
Ja persze,majd árulnak hozzá öntapadós VRAMot is,amit mindenki otthon nyugodtan ráragaszthat...Vagy esetleg http://www.downloadmorevram.com/ -
do3om
addikt
válasz
#35434496 #21879 üzenetére
Ha ez így van biztos jön majd valami cikk: ez jobb is nekünk, meg előtte is így gondoltam, félreértettétek a vonalhúzogatást......meg a sok mese habbal. (nagy égés lenne...megint)
A követők meg majd azzal hogy: persze hogy nem vártuk a batlefield 1-re az csak vicc volt azét vertük rá a mellünket hónapokon keresztül.
Bár ezen még lehet javítani, át kell vinni ennek a megjelenését is jövőreAzért remélem ez csak pletyka, mert ha nem az nem jó. Főleg hogy én a Zen-től egyáltalán nem számítok semmi jóra (az intel túl nagy falattá nőtt esélye sincs), szóval csak a GPU fronton van esély az ellenfél ellen.
TTomax
Ha az valóban a születési idő akkor nem értem hogy lehetnek ilyen hsz-ei. Inkább a gallo02 lenne a megfelelő. -
TTomax
félisten
válasz
Venyera7 #21886 üzenetére
Hát ha a 91 a születési éved akkor még nem is olyan régóta lehetsz szemtanúja a vga piacnak...azért régen ez nem így volt.Voltak nagyon jó ATI/AMD vgak,a GCN se indult rosszul,bár kellett fél év mire találtak hozzá drivert,igaz speciel nem is azt keresték a gyorsulás állítólag csak mellékhatás volt.
Azért nincs egyszerű helyzetben az AMD,nekik kvázi egy gpuval kell lefedni a desktop és a professzionális piacot,míg az nV a keplerig két külön gpuval oldotta ezt meg,és most megint csak úgy látszik a pascalnál kettéválasztják ismét.Hogy ez miért jó?Gondoljunk csak vissza amikor a 290X kijött,nagyon gyorsan lehozták a GK200at desktopra,olyan gyorsan,hogy még ABU sem hitte el,és most megint ott van a nagy pascal talonban,tudom TitanXP kinn van ,de az sem a vége még szerintem.Ez az egy GPUval mindent lefedni kb mint a 4évszakos gumi,télen se jó,de legalább nyáron sem... -
Habugi
addikt
válasz
Venyera7 #21883 üzenetére
Az aztán mindent meg fog enni, előre rákészülnek már a gyártás előtt, kizárólag olyan emberek állhatnak majd csak a gyártósorok mellett mire a Vega oda kerül, akiknek az ősei közül minimum egy ember huzamosabb ideig éhezett, bizonyíthatóan, hova-tovább már előre úgy veszik fel őket napjainkban is, hogy aláíratják velük miszerint munkaidőben nem lehet majd enni, biztos ami tuti..
Nem lesz olyan probléma ami az első tesztekben lenni szokott, rögtön kibontás után olyan lesz a kártya mint két tucat, közvetlen uzsonna előtt álló megvadult napközis. Nekifutásból kettészakítanak majd minden benchet/játékot mint hülyegyerek a chipses zacskót.
-
Milka 78
nagyúr
-
TTomax
félisten
válasz
#85552128 #21881 üzenetére
Ami majdnem olyan jól néz ki mint a GeneralsZH 2003ból...
(#21883) gollo91
Úgy mint a Polaris a Pascal ellen....Nekem egyre gyanúsabb,hogy az történik mint cpu fronton,az amd ignorálja a versenyt mert nem tehet mást.Az nvtöl meg jönnek a bicskanyitogató árak mint ahogy az inteltöl is korábban...
-
Venyera7
senior tag
válasz
#35434496 #21879 üzenetére
Eredetileg is ez volt tervben. Szerintem ez már a Volta ellen megy ,vagyis azt eszi meg. Hamm hamm
#21881 Szaby59
Meg itt is. -
#35434496
törölt tag
AMD mentions Vega Enthusiast GPUs to be released H1 2017 [link]
Idén nem lesz válasz az 1080-ra AMD oldalról -
válasz
Petykemano #21877 üzenetére
Ez most egy az egyben ráhúzható az AMD vásárlókra, de nem tudom, mennyire általános a megállapításod, ha más termékeket, piacot nézünk.
-
-
válasz
Ren Hoek #21861 üzenetére
A kommentjeiből nekem ez jött le. Percepció, érted?
Egyébként nincs is mit belekötni az NV termékeibe, hozzák azt jelenleg, amit az áruk szerint hozniuk kell. A jövő ködbe burkolózik, hülye az, aki úgy vesz kártyát, hogy majd 1-2-3 év múlva dek*rvajólesz a konkrenciához képest. Igen, a Vulkannal és a shader intrinsics-szel látjuk, hogy egy 7870 is milyen komoly sebességet tudott nyerni a korabeli ellenfelekhez képest, de ezt sem lehetett tudni 4 éve.
Egyébként meg nevetséges és gyerekes ez az egész NV vs AMD hitvita. Mert ez már hitről szól egy ideje, néhyány hangadóval mindkét oldalon, közben a többség meg boldog a saját NV vagy AMD kártyájával.
-
válasz
#65755648 #21853 üzenetére
Azzal sok mindent nem lehet kezdeni, hogy nem azt olvasod, amit írok, hanem beleképzelsz minden marhaságot, és aztán azokon hőbörögsz. Amúgy ezt az utóbbi időben egyre többen csináljátok, lassan kész szociológiai tanulmány lesz ez a fórum
Utolsó kísérlet, ha ezt sem sikerül értelmezni, akkor oh well.
1. Egészen eddig az algoritmusról volt szó, Te keverted bele, hogy melyik kártya mit tud. Tekintettel arra, hogy az AMD kártyák jellemzően kevesebb FPS-t vesztenek a felbontás növelésével, nyilvánvaló, hogy magára a funkcióra jobbak, mint az nV-k. Ezen érdemes volt duzzogni, nem?
2. Semmi olyat nem írtam, hogy a 78% extra pixel 78% extra teljesítményt igényel. A fullHD -> WQHD váltás jellemzően 40-60%-kal növeli meg a frametime-ot. Ebből nyilván 1-1 játék kilóghat valamennyire, de a 10% az orbitális baromság (esetleg CPU-limit), és ha képes vagy reálisnak elfogadni, akkor dilettáns vagy. Sorry.
3. Arra persze lehet utalgatni, hogy elb***tam a mérést, csak nem feltétlen okos dolog. Igen, ellenőriztem minden lehetséges módon, hogy jók-e a mérések. Jók. Lehetne több játékkal tesztelni? Persze. Pl. Te is megteheted.
4. Arra hivatkozol, hogy a DSR sebességhátrányát elnyomják más szűk keresztmetszetek - magyarul tényleg nem tudod, hogy működik.
5. Én is a saját szememnek hiszek, sőt, mi több, én csak arról nyilatkozom, amit látok vele. Mivel nVidia kártyán néztem a DSR-t, arról tudok nyilatkozni, AMD-ről egyelőre nem. Ha nem hiszed, hát nem hiszed.Zárásként: akkora elvakult nVidia fan vagyok, hogy ezt a hsz-t egy RX 460-on írom - most vettem át 2 órája. Lehet, el kellene gondolkodnod (meg a másik két derék kollégának is, aki az elvakultságomat feszegeti), hogy nem nekem vette el a márkaőrület az eszemet...
-
gtamate2
veterán
válasz
Venyera7 #21867 üzenetére
A kukában, hány dx12 only játék is van amit a régebbi nvidiák nem tudnak futtatni?
Ott figyel mindenütt a dx11 mód, a 12 pedig legtöbbször semmivel nem hoz többet.
Érdekes én egy 660-al elvagyok még mindig, most gondolkozom a cserén, de 50k-ért (amennyi a 660 volt anno) egy hasonló teljesítményű 460-at kapni maximum, ami dx 11-ben sokszor gyengébb a jelenleginél.
Jól hangzott anno a 150-200$-os 470,480 ár, aztán sikerült ezt is megoldania az amd-nek. -
-
Venyera7
senior tag
válasz
Ren Hoek #21861 üzenetére
Azèrt nèzd hol van most a Maxwell, a kukába. Ax új dx12 játékokban gyászosan teljesítenek. Azèrt van nèmi igazság abban amit néhányan írnak az Nvidia kártyáival kapcsolatban. Ott a Hawaii még mindig tökéletesen lehet vele játszani mind a mai napig. Hol a Kepler? A kukában. Hol lesz a Pacal 2èv múlva? Kukában. Ebből látszik, hogy az AMD kártyák nem olyan sz@rok, mint azt sokan gondolják. A nagy jövőbe mutatás itt van.
-
-
Ren Hoek
veterán
válasz
Yutani #21854 üzenetére
Nem értem mi a probléma.... Gbors írásai és kommentjei továbbra is pártatlanok, csak maximum realisták és kritikusak. AMD-t szeretnék venni, de valljuk be, elég nehéz belekötni a jelenlegi NV termékekbe... és sajnos a Vega várakozás mellett nagyon csábító gondolat bepattintani egy 1070-et és játszani. A 270X után a 970 ugyan ez a flow érzés volt. Betettem és ment szó nélkül. A vörösök meg kétoldalas HSZ-eket írtak, hogy miért szar és miért lesz fos hónapokon belül. Bánom már, hogy eladtam +5-10K bukást megelőzve... csak bíztam egy erős Polaris fölényben / Vega hírben...Szerintem októberben semmiféle Vega nem fog jönni...
-
#02119936
törölt tag
válasz
Yutani #21854 üzenetére
",de az utóbbi időben az NV iránti nem titkolt részrehajlása miatt nem látom azt az embert, aki korábban volt. És ez őszintén elszomorít."
A gbors objektív és tárgyilagos, némi irónival fűszerezett vitái Abu-val szemben áll másik ember meglátásával és te ettől depresszióiba esik? Gyenge, fejletten jellemre enged következtetni.
-
gézu
őstag
-
válasz
#65755648 #21853 üzenetére
Másodsorba, ki vagy Te és mit csináltál azzal a gbors-sal aki értelmes teszteket csinált és tudott gondolkodni?
Mert hogy Te nem ő vagy az biztos.Az a vicc, hogy ezt így kimondva nekem is van egy ilyen érzésem gborssal kapcsolatban. Mindig is tiszteltem a tesztjei, elemzései, pártatlansága miatt, de az utóbbi időben az NV iránti nem titkolt részrehajlása miatt nem látom azt az embert, aki korábban volt. És ez őszintén elszomorít.
-
#65755648
törölt tag
Először is, az egész dolgot félremagyarázod. A DSR-t és VSR-t nem tudod úgy futtatni, hogy a kártya ne számolna nagyobb felbontásban. Így az, hogy a GN-os tesztben azt is beleszámolták a különbségbe hogy mennyire bírják a kártyák a nagyobb felbontást (illetve, nem vonták ki különbségből mint ahogy Te tetted), nem hiba. Az eredményt azzal együtt kell elfogadni.
Másodsorba, ki vagy Te és mit csináltál azzal a gbors-sal aki értelmes teszteket csinált és tudott gondolkodni?
Mert hogy Te nem ő vagy az biztos. Az igazi gbors pontosan pontosan tudta, hogy a pixelek számának növelésével a FPS nem lineárisan kezdenek csökkenni, messze nem!
Az igazi gbors tudta, hogy a legkülönfélébb VGA-n belüli (ROOP-ok, ALU-k, memória stb) és kívüli (CPU, RAM stb.) rendszerelemek limitáló tényezői, szűk keresztmetszetei miatt, valamint a futtatott szoftver terheléseinek függvényében, a skálázódás a felbontás függvényében nem lineáris.
Bárki, aki látott valaha VGA tesztet az pontosan tudja ezt.Emiatt természetesen óriási butaság, és sztem Te is érzed, hogy egy aljas csúsztatás azt sugallni, hogy +78% pixelszám emeléstől hasonló mértékű FPS lassulást kell várni.
WQHD-ben nem tudok tesztelni, de lemértem GRID:AS-ban 1280*1024 és 1200P közti különbséget, ami pixelben +76%.
Na és FPS-ben?
-22%Ennek fényében a BF4-es mérés a tesztben nagyon is lehet reális.
Ami pedig a mérésedet illeti, két lehetőség van:
1. Elb@**tad a mérést és ha valóban WQHD monitorod van, lehet hogy mindkét mérés valójában natív WQHD-ban futott. Meggyőződtél róla a monitor menüjében, hogy az elméletileg DSR-es tesztnél mennyi a képernyő aktuális felbontása? Ha fut a DSR akkor FHD-t kell jeleznie, miközben a játék WQHD-ra van állítva.
2. Nem a GPU, illetve azon belül nem a DSR-t számoló rész a szűk keresztmetszet, hanem pl. a ROP-ok, vagy a memória stb. Egy mérés nem mérés. Ezt neked is tudnod kéne. Az hogy 1 játékban, 1 felbontásnál, 1 (elavult) VGA-val, 1 driverrel nem lassított sokat a DSR, nem jelent semmit. Majd ha veszel 5-6 különböző, új szériás VGA-t, a GN-es játékokkal és beállításokkal végigméred az egészet és velük ellentétes következtetésre jutsz, akkor hiszek Neked."As for how VSR and DSR differ, it appears that VSR has a more immediate performance advantage when strictly looking at deltas (the % FPS difference between 1080p and the virtual resolution render, i.e. the FPS drop from 1080 to 1440 or 3200x1800)"
Ami pedig a képminőséget illeti, ha nem haragszol, inkább hiszek a saját szememnek, mint egy egyre inkább elvakult NV-fanatikus megnyilvánulásokat mutató fórumozónak, aki nem akarja látni azt amit jól lehet látni...
Ja és csak a vicc kedvéért tegyük fel, hogy igazad van és bár az elmélet és a gyakorlat szerint is szebb és gyorsabb a VSR, de a különbség inszignifikáns. Akkor mi van? Megmondom mi van: egyesek még ezt az inszignifikáns győzelmet is el kell vitassák az AMD-től, csak mert az "NV a csúcs mindig mindenben".
-
Peat;)
veterán
válasz
Laja333 #21851 üzenetére
Én nem vetettem fel semmit, nem igazán értelek. Én az elméletet gyakorlati oldalról nem látom igazoltnak a topikot követve. Asus állítólag hibás a biossal, ez meg az azért mert tud melegedni, ki kell tolni tdp kereteket stb. Nem támadásnak írtam a fentit, tényszembesítésnek. Nem kell mindenen fennakadni
-
proci985
MODERÁTOR
válasz
TTomax #21849 üzenetére
JC3ban ahogy en lattam csak "single SLI" volt, tehat nem megy. force AFR van AMDvel is, de azzal nem sokat erunk.
de ha tudsz mutatni benchmarkot ahol az SLI javulást mutat azt szivesen veszem.
Egyébként pedig nem fogom az AIO-s TitanXeimet fillérekért leadni valakinek,majd ha lesz olyan egy gpu ami ennél gyorsabb talán,nekem pascal kimarad mert semmi értelme.
TXek helyett nekem FC vizezett 290X OCk vannak, de a mondat többi része áll. Azzal a kikötéssel, hogy az új Titan talán már gyorsabb náluk GPUbound helyzetben extrém felbontásban, az 1080 még biztos nem volt az.Jó, pár napja persze közepesen mérges vagyok az új Deus Exre, de némi irritáció kisimítja a ráncokat és sokkal kevesebb energia, mint mondjuk eladni két kártyát, a vizesblokkokat, bukni darabonként kb 200 eurot helyi áron, beszerezni egy 1080at még 200 euro ráfizetéssel (+150 euro elkerülni egy második átszerelést amikor rájövök, hogy ez is baromi hangos terhelve*), szerelni 40 órát, kihúzni a forgalomból a desktopomat egy-két hétre miközben dolgozni is kéne rajta lehet, aztán konstatálni, hogy van három cím ami már jobban fut (amiből kettőt kitoltam szóval mértékkel érdekes). miközben mondjuk a tavalyi kevésbé HWigényes játékok ahol megy a CF jellemzően 60+ fpssel mennek eyefinity ultrán. hát persze.
*ez relatív, vannak csendes kártyák, de épített víz jellemzően más világ.
-
TTomax
félisten
válasz
proci985 #21848 üzenetére
"Márpedig ha az egyik gyártónál megy a multiGPU akkor záros időn belül a másiknál is rendben szokott lenni."
Hát nem,sajnos nem... JC3 például.De mindegy is,mert most még majd ezt a kis supportot is cseszhetjük mert a kiadók nagy ívben tenni fognak a multiGPUra (meg sok egyéb másra is),tehát még a lehetösége sem lesz meg lévén hogy driverböl nem lehet tovább "maszatolni".
Egyébként pedig nem fogom az AIO-s TitanXeimet fillérekért leadni valakinek,majd ha lesz olyan egy gpu ami ennél gyorsabb talán,nekem pascal kimarad mert semmi értelme.
-
proci985
MODERÁTOR
válasz
TTomax #21845 üzenetére
A CF egyébként megy HWInfo alapján (Afterburnerrel még mindig CTDzik), valahol máshol van bottleneck.
Ha ott jól megy akkor levonhatod a konzekvenciát,múltkoriban ezt próbáltam meg vázolni neked.
Ehhez képest Te is még mindig SLIzel ha jól emlékszem. Márpedig ha az egyik gyártónál megy a multiGPU akkor záros időn belül a másiknál is rendben szokott lenni.
Btw, néztem steam fórumokat, láttam ugyanazt a problémát ami nálam van, csak ott 980Ti SLI volt (ugyanúgy SB-E platform 32GB memoriaval). Viszont SB-E + multigpu kombo eleg ritka, szoval tippre meg az SB-E nem hivatalos pciE3.0 tamogatasa is lehet az indokok kozott.
-
proci985
MODERÁTOR
válasz
daveoff #21838 üzenetére
grafikában semmi előre mutató
Ultran a jelenlegi egyik legszebb jatek, ha nem a legszebb szvsz. Nem az effektek miatt, hanem olyan szinten reszletes a grafikaja, amit meg nem lattam. Kepeken es videokon ez nem jon at, de amikor egy lakasban kb nincs ket egyforma textura a mahagoni boritasu falon, az osszes postit es ujsagcikk a falakon olvashato (nem klikkelesre, tenyleg el lehet olvasni mi van rajtuk), az szerintem mindent elmond. A performance problemak egy resze is emiatt van szvsz.Gyakorlatilag ugyanaz a helyzet mint a HR eseten: Nem az volt az akkori legszebb jatek (hanem a Crysis3), de reszletessegben es designban behozta a lemaradasat.
UInel nagyon ugy nez ki a fel dev csapat gondolta arra, hogy nem mindenki 50es FoVval 16:9en jatszik, a masik fele meg nem, es ettol van par problema.
Performance problema nalam is van, nalam a borderless widescreen oldotta meg a dolgokat kb, de tippre a DX12 lekepezonek a nalam jelentkezo problemakat el kene tuntetnie: Nem a VGA a bottleneckes, nem a CPU (egeszeben) a bottleneckes, en threadlimitre gyanakszom.
-
#00137984
törölt tag
válasz
Laja333 #21837 üzenetére
Az RX470 és RX480 topikkal semmi, viszont a Polaris GCN4 nem kicsit az elvártak alatt teljesit a Powertune képességeit figyelembe véve is. Az elméleti részét Abu85 kifejtette, viszont gyakorlati értelemben a gyengébbre sikerül FinFet 14 nm wafer-ek miatt a chip-ek szivárgása nagyobb lett és a hűtésére nagyobb hangsúlyt kellett volna fektetni. Ez némely gyártó szerint két végletben jelentkezett. Asus Strix RX470 videókártyán alacsonyabb órajeleken van a kártya terhelés közben és agresszivebb órajel visszaváltásokkal egy biztonságosabb szinten tartják a kártya müködését, de ezzel a kártya teljesitményszintje van meglőve. Másik esetben a fent már emlitett módon az órajelekhez és hozzá igazitott feszültségértékekhez egy jobb teljesitményszintet probálnak elérni, mert a Polaris GPU-ban van potenciál. Viszont ilyenkor a fogyasztás és a kártya melegedése drasztikusan megnő. A feszültségek egy kissé túl is vannak állitva, hogy mindegyik GPU megfelejen a magasabb teljesitményre. Igy mindenképp nagy szórás van a kártyák minősége kapcsán. Én most a részletekbe nem mennék bele megint, mert itt-ott a témát már kitárgyaltam.
-
Laja333
őstag
"Az NV megad egy alap órajelet a GPU-nak, és e fölött kapsz pluszba még sebességet a boostnak köszönhetően aminek a vége már nem lesz mindig ugyan az, mert a környezet is beleszól meddig megy el."
Ugyan ezt csinálja az AMD is. RX480-nál pl. 1120 MHz az alap, és 1266 MHz a Boost.
Customoknál pl Sapphire-nál 1206 MHz az alap órajel és 1342MHz a Boost.Az alapot mindegyik tartja, a Boost meg változhat.
-
válasz
#65755648 #21834 üzenetére
Case closed, my ass
Egyrészt, most komolyan azt várod, hogy az eddig szentnek és alapigazságnak tekintett CB teszt konklúzióját az AC-ről bíráljam felül, mert szerinted az AMD-t kell élesebbnek látni? Töltögessen ezért videokat a rosseb, inkább futtatok egy játékot, azon is elég jól látom, hogy a homályosítás nem észrevehető.
Másodszor, a második idézett teszt az valami zseniális. Nem kellett volna legalább egy picit gondolkodni rajta, mielőtt bedobod azzal, hogy a VSR sokkal gyorsabb? Belegondoltál egyáltalán, mit mér az a teszt? Elárulom: azt, hogy melyik kártya mennyi sebességet veszít, ha felkapcsolunk 1080p-ről 1440p-re vagy 1800p-re. Ráadásul azt is rosszul, mert no way, hogy a Far Cry 4-ben vagy a BF4-ben 10-15% FPS-t vesztünk a +78% pixellel.
Megmondom, hogy kell megmérni, hogy mennyire gyors vagy lassú a DSR vagy a VSR: kell egyet mérni natív WQHD-ben, aztán kell egyet mérni fullHD-ből 1.78x-osra felskálázva. Én ezt meg is csináltam a GRID Autosporttal az elmélet szajkózása helyett:
fullHD: 63.55 FPS
WQHD: 45.22 FPS
fullHD + DSR 1.78x: 44.71 FPSSzóóóóóval, az nVidia DSR-je kőkemény 1%-ot ront az FPS-eken. Az AMD-é mennyivel gyorsabb? 5x? 10x?
And who the fuck cares?
Összegezve: a képminőség között elvileg van különbség, csak a gyakorlatban ez leginkább akkor látszik, ha az ember ezt szeretné látni. A sebességben is lehet különbség, az AMD algoritmusa nem tudjuk, mennyivel gyorsabb, de akár 1%-kal is javíthatja a framerate-et az nVidiához képest.
Újabb kiütéses győzelem a piros oldalnak. Case closed, ahogy mondod...
-
Puma K
nagyúr
válasz
Laja333 #21837 üzenetére
Annyi, hogy ha ott próbál segíteni az ember vagy adott témával kapcsolatban pontosít-helyreigazít, akkor az már off. És ott off-nak nincs helye.
De hsz-t gyűjteni, havonta ugyan azt a kártyát linkelgetve és hoppá! olvastátok-láttátok hozzászólásokat írkálni azt lehet.
Ez az én saját tapasztalatom.
-
do3om
addikt
Ez megint vicces.
Amd+notebbok ez még kapható valahol?Még tiszta szerencse hogy ilyen lehetőséget kínálnak ide, biztos készülnek is ráugrani a notigyártók mint minden AMD dologra.
Az NV megad egy alap órajelet a GPU-nak, és e fölött kapsz pluszba még sebességet a boostnak köszönhetően aminek a vége már nem lesz mindig ugyan az, mert a környezet is beleszól meddig megy el.
Mi ezzel a baj? Amiért fizetsz és elad neked az megvan, nem?Nekem meg sokaknak valahogy sokkal jobbnak tűnik mint az AMD megoldása, a felhasználók szerint meg az AMD nagyon gyengén működik benne.
Ha az amd a fejlettebb de csak erre képes vele és az NV is erre tart akkor nagyon lefogja alázni az AMD bostot.
De ha nem lehet csak így megoldani mint az AMD tette akkor maradjon csak ez az elavult boost rendszer.daveoff
Pedig örülni kéne hogy végre egy az egyben át lehetesz hozni a konzol játékokat PC-re, meg a csúcs konzolos efektekat a DX12-vel. Ez annyira jó dolog, majd ezt is elmeséli a Abu hogy miért.
Amikor a konzol-pc átjárhatóságot isteníti nem értem soha mért akarja a PC játékokat tönkre vágni és ennek még örülni is kéne. -
daveoff
veterán
Ez a Deux Ex dettó olyan, mint a Hitman, tele van buggal, a grafikában semmi előre mutató, a játék instabil. A PC-s irányítás egy kalap szar, nem foglalkoztak vele egyáltalán, igazi konzol port. Szóval üdvözöljük nagy tapssal a legújabb Gaming Evolved üdvöskét, mondjuk nem is vártam mást. Legalább maga a játék nem rossz. Várjuk a patchek tömkelegét, mint pl az AotS, és Hitman, kis túlzással napi szinten jönnek hozzá a frissítések steamen.
(#21835) Abu85: Én tényleg nem értek hozzá, de NV kevesebbet fogyaszt, hűvösebb, eközben sokkal magasabb órajelre képes, ezáltal a boost is sokkal stabilabb. Mi itt a gond?
-
Abu85
HÁZIGAZDA
A GPU Boost az egy nagyobb rendszernek a része. Az AMD által alkalmazott DVFS, ami most már AVFS a GCN 4 óta igazából az a szint, ahova mindenki tart. Az oka ennek az, hogy gyors órajel váltást tesz lehetővé, vagyis nem kell másodpercekig egy szinten ragadni. Emellett teljesen hardveres, vagyis nincs kitéve a meghajtó késleltetésének a válaszra várva.
A megértés kapcsán a probléma az, hogy nem ismeritek az egyes konstrukciók problémáit. Egyszerűen annyit láttok, hogy mekkora órajelet emel a Boost és azt hiszitek, hogy az a legjobb, ha az minél magasabb. Ez fatális tévedés. Az a jobb, ha a normál órajel (már ha van ilyen, de valamilyen szempontok szerint azért definiálni lehet) és a boost között a lehető legkisebb különbség van. Ennek az oka pedig az, hogy ilyenkor a rendszer hatékonysága megnő, mivel sokkal sűrűbben képes az elméleti határ közelében működni.
Egy chip órajelének meghatározásánál az a legnagyobb probléma, hogy számos körülményben fog működni. Nem is mondhatod a vevőnek, hogy mi csak akkor vállalunk rá garanciát, ha 25°C-os környezeti hőmérsékleten használja. Ez baromság is lenne. Emiatt a gyártóknak mindig az abszolút legrosszabb forgatókönyvre kell berendezkedni. A legrosszabb forgatókönyv azonban alacsony órajeleket jelent, és emiatt jöttek be a különböző DVFS rendszerek. Ezek nem oldják meg a problémát csak kezelik. Ugyan a paraméterezést még mindig a legrosszabb forgatókönyvre kell kialakítani, de betáplálnak a rendszerbe egy táblázatot is, ami a lapka viselkedésének megfelelően jegyez bizonyos feszültség és órajel párosításokat. Ennek persze ezernyi módja van. Lehet ezt szoftveresen vagy hardveresen biztosítani, bár a hardveres a gyorsabb reakció miatt előnyösebb. A gyorsabb reakció pedig azt teszi lehetővé, hogy az elvi maximális órajel közelebb legyen az elvi minimális órajelhez. Na most ez még mindig nem olyan jó rendszer, mert a lapkák minősége akkor is eltérő, ha a legjobban és a legrosszabbul sikerült lapkát is eladhatónak ítéli a gyártó. Ez azt jelenti, hogy a jobban sikerült lapka képességeit nem tudják kihasználni, mert a legrosszabbhoz kell igazodni. Erre vannak bizonyos hardveres trükkök, amivel a maximum és a minimum közelebb vihető, de akkor is lehet 4-5%-nyi eltérés két ugyanolyan hardver között. Ilyen módszer a PowerTune az AMD-től a GCN1/2/3-ra. Különösen nagy a probléma, ha a DVFS szoftverből vezérelt, mert képtelenség lesz sokszáz profilt szállítani csupán egy-egy termékre. Nem technikai akadálya van, hanem mérnökök ezreit kellene felvenni, hogy ezt kezeljék is, ami finanszírozhatatlan. Emiatt ilyenkor egy másik trükköt alkalmaznak, amit bizonytalan maximumnak szokás csúfolni. Ilyenkor nem is törekednek arra, hogy a minimum és a maximum közel legyen, hanem megadnak egy olyan maximumot, amit feltételezhetően mindegyik lapka el tud érni, és a jobb lapkákra beállítanak egy bizonytalan maximumot, ami az elvi maximumnál is több, lehet, hogy sokkal. Ennek a módszernek a legnagyobb hátránya, hogy két ugyanolyan hardver között tipikusan van 7-8%-os sebességeltérés, de a gyártási legrosszabb és a legjobb között 15% is lehet. És ugyanabban a dobozban van, ugyanannyi pénzért, ugyanazzal a felirattal! Ilyen módszert alkalmaz az NV a GPU Boostos hardvereken.
Amire a gyártók jellemzően törekednek az 3%-os variancia. Emiatt egyik DVFS megoldás sem tökéletes, mert mindkettő efölött dolgozik. Ezért vezette be az AMD a GCN4-re az AVFS-t. A probléma a DVFS-nél nem az, hogy maguknak a lapkáknak a jó része rossz lenne, hanem az, hogy nem tudják elég közel helyezni az elvi minimum és maximum órajelet. Egyszerűen erre a manuális, táblázatos, betáplálós módszer nem alkalmas. Egyik lapkából sem képes kihozni a maximumot, mert mindenképpen a legrosszabb forgatókönyv képzi az alapot. Az AVFS eredeti kutatása az volt, hogy legyen egy közepesen rossz forgatókönyv, ami sokkal közelebb vihetné a legrosszabb és a legjobb lapkát egymáshoz, de ennek a hátránya az, hogy nem mindenhol lenne az adott termék működőképes. Az ötlet viszont nem volt rossz, ugyanis ebből alakult ki az, hogy ne legyen előre betáplált forgatókönyv, mert ez okozza az összes bajt. Az AVFS-ben nincs is ilyen, és a lapka a gép bekapcsolásakor számol egy környezetnek megfelelő forgatókönyvet, amibe beírja az ideális feszültség és órajel párosításokat. Ennek az elvi alapját az adja, hogy gyakorlatilag kizárt, hogy ha egy nem extrém környezetekre tervezett terméket valahova megvesznek és működtetnek, akkor ott a termék működésének ideje alatt ~50°C-kal megváltozzon a környezeti hőmérséklet. Tehát az elvi legrosszabb eshetőséget el lehet felejteni, mert egyszerűen a fenti feltételezés a gyakorlatban nem reális. Ahol az, oda extrém környezeti viszonyokhoz tervezett hardvert vesznek tízszer annyi pénzért. Emiatt az AVFS mindig kalkulált működés, vagyis nem kell tervezni semmit előre. Be kell táplálni a kalkulációért felelős rendszert és a hardver saját magát beállítja az adott környezetnek megfelelően. Emiatt az elvi minimum és maximum órajel nagyon közel lehet. Ennek az előnye az is, hogy két tök ugyanolyan termék között a variancia nem több 2%-nál.
-
#65755648
törölt tag
Az Abu által linkelt tesztben, ha letöltöd a videókat és teljes képernyőn nézed, pl. az AC-nél nagyon jól látszik hogy sokkal élesebb a VSR. És akkor ez még mindig csak egy 1440P-ről illetve 4K-ról (amiben a játékot futtatták) FHD-ra leméretezett videó. Nyilvánvaló, hogy eredeti méretben a különbség még látványosabb lenne.
Ehhez add még hozzá, hogy a VSR, gondolom a hardveres gyorsítás miatt, amit Abu írt, gyorsabb mint a DSR, nem is kicsit
A VSR győz a DSR-rel szemben sebességben és minőségben is.
Case closed. -
Abu85
HÁZIGAZDA
válasz
TTomax #21821 üzenetére
Az a fixfunkciós egység nem a VSR miatt van benne, hanem amiatt, hogy a notebookgyártóknak ne kelljen a notikba külső skálázót építeni, mert van egy a Radeonban, ráadásul magasan az iparág legjobbja. A külső skálázót manapság a legtöbb notebook esetében amúgy is kihagyják, mert bekötik a kijelzőt eDP-n keresztül, ami nem baj, de ha a natív felbontásról lejjebb mész, akkor fos lesz a képminőség. Az AMD a GCN2/3/4-be tervezett kijelzőmotorokkal ezt a problémát akarta kezelni, és ez komoly érvként szerepelt anno a Kaveri APU esetében. És ha már benne van ez a skálázó, akkor miért ne használják VSR-re is? Oda is kell resampling, és így az AMD ezt a folyamatot ingyen megúszhatja, mert nem kell az ALU-kra írni egy algoritmust. De a terv egyáltalán nem a VSR-hez való használat volt, ez csak egy "kellemest a hasznossal" dolog.
A GCN3 GPU-kba épített kijelzőskálázó az Apple esetében is azonnali előnyt hozott, mert nem találtak olyan jó külső kijelzőskálázót, ami felvette a versenyt az AMD GPU-kba integrált megoldásával. Ez számos érv mellett az egyik legnyomósabb volt amellett, hogy teljesen dobják az NV-t, annak érdekében, hogy el lehessen hagyni az összes gépükben az elavult skálázót. Szóval a fejlesztésben ezek játszottak főszerepet és nem egy felhasználók 1%-át se érintő VSR.
A TrueAudio megmaradt a GCN4-ben is. Emulációval futtatható. Régebben azért nem volt futtatható, mert a GPU-k egy szálú teljesítménye pite volt, de a GCN4-ben ez pont majdnem az ezerszeresére gyorsult, tehát már simán le lehet emulálni ezt a fixfunkciós egységet ebben az architektúrában. A TrueAudio Next előnye viszont, hogy képes sugárkövetésre, amire a fixfunkciós TrueAudio nem volt alkalmas.
Egyébként ha arra akarsz utalni, hogy bárki képes az AMD által használt algoritmust ALU szinten futtatni, akkor ez 100%-ig igaz. Nem az a probléma, hogy ez nem megoldható a gond. Az a baj, hogy erőfeszítéseket sem tesznek azért, hogy a Gaussiant Lanczosra cseréljék. Ennek az oka, hogy a Gaussian Blur már eleve elvisz úgy 3-4%-nyi teljesítményt, mert az ALU-kon fut. Egy Lanczos ennél sokkal többet vinne el. A fixfunkciós egységgel való implementáció miatt az AMD-nek nem kell törődnie ezzel a kérdéssel, mert nem az ALU-kat terheli a számítás, vagyis a Lanczostól nem lassulnak. Tehát amíg az AMD-t a lassulás nem érinti, addig az NV elemzi azt is, hogy vajon a képminőségelőny megérne-e még kb. 10%-os lassulást. Az esetek többségében valószínűleg nem a válasz, már csak azért is, mert az AMD a VSR szoftveres módját ugyanúgy Gaussian blurral csinálja. De ha lenne erre fixfunkciós egysége az NV-nek, akkor nyilván mennének a minőségre, hiszen nem kerül sebességbe.
-
Petykemano
veterán
válasz
lezso6 #21828 üzenetére
Nem mondom, hogy nem függ programtól és apitól, de az újabb játékokban elég gyakran látni, hogy a sokat szidott fury x az 1070 nyakán van. Jó, persze, tudom, ezek csak laboreredmények, de úgy tűnik, csak idő kérdése, hogy ez általánossá váljon.
Azért számoljunk kicsit.
A polerisz computexes bemutatóján láttunk egy videót, amelyben két rx 480 ~80%-os cf skálázódással érte el az 1080 teljesítményét.
A Fury X-ben 4k shader van, ennyi lesz a kis vegában is. Valószínűleg a kis vega egy ugyanolyan befejezett fiji, emilyen befejezett tonga volt a polaris 10.
Tehát a Fury x használható teljesítmény baseline-ként.A polarist lemérték, emlékeim szerint 5-8%-os gyorsulás azonos paraméterek között a tongához képest. Mivel a vega gfx9, számoljunk számoljunk 12%-kal.
A Fury x frekvencia 1050-ről a polarisból ismert 1266-ra emelésével +20% nyerhető.
Ha helytakarékosak akarnak lenni, akkor csak két hbm vezérlő kerül a lapkára (-2 vs fiji) és 1000mhz-es hbm egységekkel hoznák a polaris sávszélességének dupláját
a poláris egész jól skálázódik a memóriasávszélességgel. Ha itt nem számolunk a dcc fejlődésével, ez 100%-os sávszél emelkedés 77%-os shader szám emelkedésre, ami közel 12%-os sávszél emelkedést jelent egy cu -ra nézve, aminek a polaris példája alapján a fele tényleg realizálható: 6%Tehát alsó hangon 1.12*1.2*1.06=1.42-szeres teljesítményt lehet várni a Fury.x hez képest. Ez azért már ott van az 1080 mellett, nem?
Méret
77%-kal több shader
100%-kal több rop (64)
Kevesebb memóriavezérlő
Számoljunk 80%-kal: 232*1.8=419
Ha a tonga-polaris aránnyal számolunk: 232/359 * 596 = 385
És akkor nagyon topán nem számoltunk semmilyen fejlődéssel.Fogyasztás
Tudjuk azt is, hogy az rx480 asic tdp-je 110w, és általában túl van feszelve. A papíron szereplő 150w-os tdp-ből
Számoljunk itt is az 1.8-as szorzóval: 110*1.8=198 + 10w hbm * 0.85%-os vrm hatásfok = 244w
És akkor nagyon topán nem számoltunk semmilyen energiahatékonyságbeli fejlődéssel, csak azokkal a túlfeszelt értékekkelc amiket a polarisnál láttunk. -
do3om
addikt
válasz
lezso6 #21826 üzenetére
Batlefield 1 megjelenést írtak a nagy hozzáértők, nem is egyszer.
Október 21. a pontos dátum.Ha az 1070-el lesz partiban ami 150e alatt már több gyártónál is van, addigra akár 140 alá is mehet. Na ezzel kellesz versenyeznie, hát sok sikert.
A következőknek meg gyakorlatilag a Volta-val, amivel szintén bajban lesznek. Ha ügyesek és nem csúsznak meg nagyon akkor talán marad vagy 2 hónap a pénzszerzésre amíg az kijön, de ha így megy mint most akkor semmit sem jelent ez sem. Hiába lesz gyorsabb meg rárabolnak a HBM2-re az újdonság miatt ha nem lehetesz kapni, amire meg igen addigra lesz ellenfele is. -
mlinus
őstag
friss investor presentation alapján a vega 2017 első felében fog jönni. hmm?
-
válasz
TTomax #21821 üzenetére
Az NV-s jóval rugalmasabb, de nem a legjobb, akárhogy állítod be. Az AMD megoldása meg ugyan csak néhány felbontást tud, de azt nagyon jól. Nekem az utóbbi jobban tetszik. Ha már csinálnak valamit, akkor az legyen a lehető legjobb.
A fix vs nem fix dologról annyit, hogy az NV-ben pl az interpoláció fixfunkciós egységekkel történik, míg az AMD-nál shaderekkel emulált. Vagy ott FreeSync (Adaptive-Sync) vs G-Sync. Utóbbinál a monitorban van plusz fix funkciós egység, pedig az aztán tényleg tök felesleges. S cseszik kihalni, pedig halálraítélt cucc. Szóval van itt minden, mindenhol.
A Trueaudio egy tök más dolog, nem volt rá válasz. AMD kitalálta, de kb senkit nem érdekelt, pedig jó feature, kár érte.
Most van egyébként utódja a 400-as szérián, TrueAudio Next néven, ami már a CU-kon fut. Bár nem tudom NV-t mennyire támogat (gondolom semennyire), jó lenne ha mindenen futna, vagy akár szabványosítanák.
-
TTomax
félisten
válasz
lezso6 #21820 üzenetére
Én akkor sem vagyok híve a fixfunkciós egységeknek a gpuban még ha negyed cu is.Amikor kijött a VSR akkor se volt egységes AMD oldalon,pont azért mert hwes és a régebbi gpukban nem volt benne.A jövöben pedig így is-úgy is fejleszteni fognak rajta,vagy esetleg teljesen kiveszik mert azért ehhez nem kell fixfunkciós egység.Ha visszatekintesz a múltba pont arról szólt eddig,hogy a fixfunkciós egységeket kiszervezték...nézd meg mire jutott a trueaudió,az is ilyesmi volt a gpuban,hova lett?Ráadásul ugye amíg egy hardveres megoldásban fix minden,és ott már nincs mint korrigálni,addig egy szoftveres megoldásban megvan ez a lehetőség,nézd meg nv oldalon mennyivel több felbontást állíthatsz,és a szűrőt is kalibrálhatod,amd oldalon meg az van ami be van építve.Mindkét oldalnak megvan az előnye és a hátránya,nekem az nv megoldása szimpatikusabb,mert rugalmasabb.
-
válasz
TTomax #21819 üzenetére
Jaj, ne már.
Egy ilyen fix funkciós egység nagyon minimális helyet foglal, egy negyed CU se férne szerintem a helyére. A kompatibilitást meg aztán végképp nem értem. Minek kell kompatibilisnek lennie mivel? Jobb új resampling nem hiszem, hogy lesz mostanában, mivel a Lanczos algoritmus legalább 40 éve létezik.
-
TTomax
félisten
válasz
lezso6 #21816 üzenetére
És nagyobb is a gépigénye,valamit valamiért.Ám ha álló képre zoomolni kell hogy lásd akkor mozgás közben ebből semmit nem érzékelsz,tehát lényegtelen melyiket látod.Viszont az AMD megoldása mivel hwes így korlátolt,mind a célzott felbontást mind a vgat tekintve,mig a tuloldal megoldás visszafelé mindennel megy,és sokkal finomabban hangolható....nVidiával a downsampling mondhatni tradicionális,mielőtt be nem építették a driverbe,is engedélyezve volt,és sokszor használtuk is.AMDvel ez nem volt ilyen egyszerű,és még most sem az.
-
A Gaussian kicsit elmossa, a Lánczos pedig megőrzi a részleteket, ennyi, ez olyan tény, mint a 2×2=4, nézz utána melyiket használják gyakrabban image resamplingra, meg nézd meg a fenti képet, világosan látszik. Vagy most az a logika, hogy amit az AMD használ az csak rossz lehet?
-
-
#02119936
törölt tag
Mi történt 470/480 lakókkal szemükbe sütött a nap?
-
do3om
addikt
válasz
lezso6 #21808 üzenetére
Ez most valami olyasmi mint a GPU Boost ami Abu szerint az AMD-n sokkal modernebb és jobb, de valahogy lefelé szeret működni
.
Az ócska elavult NV megoldás meg igen csak jól teszi a dolgát ahogy arról beszámolnak. és valahogy mégis köröket ver az AMD szuper fejlett megoldására.
Az számít amit látunk meg ahogy működik ezt a papír alapú fejtegetést jó lenne erősen háttérbe szorítani. -
blu79
addikt
Mit el nem kell követni , hogy egy Amd hűvös maradjon [link]
. Egyébként érdekes megoldás lehet, minden tiszteletem
-
Hát... Elvileg jobb, mert hardveres, mert az képes jobb resamplingra.
Azért Lánczos nem kicsit jobb kompromisszum, nem véletlenül használják ezt, ha a legjobb minőség a cél. Más kérdés, hogy valaki látja-e vagy érdekli-e ilyen szinten a grafika.
Amúgy igen, ez különbség kb semmit nem nyom a latban, ha NV vs AMD-ről van szó, úgy általánosságban.
-
válasz
lezso6 #21804 üzenetére
Igen, én is tisztában vagyok ezzel, nem is én hivatkoztam arra, hogy az AMD jobb, mert hardveres
Jó a Lanczos-algoritmus, csak szerintem felesleges ekkora feneket keríteni neki, mert a gyakorlatban alig van különbség a fullscreen képek között.
(#21803) Abu85: ahogy lezso képein is látható, mindegyik algoritmusnak van előnye és hátránya. Az idézgetett teszt szerint pedig elhanyagolható a különbség a kettő között egy játékban. Szóval ez egy újabb olyan eset, amikor az AMD elméletben jobb, a gyakorlatban meg WTFC.
(#21802) gyiku: hát igen, a sok lelki szegény meg veszi az nVidiát. Viszont legalább boldogok (vagyunk)
-
proci985
MODERÁTOR
válasz
proci985 #21793 üzenetére
csereltem drivert nem szamitott.
mennyire akadnatok ki ha azt mondanam, hogy dedicated fullscreen (azaz fullscreen) helyett atalltam sima fullscreenre (win10 alatt gyakorlatilag ablakban fut teljes kepernyon), es hirtelen leesett a CPUterheles es felment az fps 58ra ugy, hogy a ket szelso monitor ment, majd leesett 48ra lekapcsolva a szelsoket (wut).
ilyet en meg nem lattam, hogy egy AAAs jatek ablakban jobban fusson. elvileg lehetseges a dolog mert ugy nincs multiGPU, de a CPUterheles az ami minimum gyanus.
na mindegy, meg mindig tetulassu a jatek a benchmarkokhoz kepest, de legalabb mar kezdek elfogadhato fpst kapni.
kieg: FoV ertek allitasara ugy nez ki nagyon erzekeny a program, 50 es 70 kozott 15% kulonbseg volt mas beallitast nem allitva.
kieg2: 1080p / ultra borderless windowednel 42 fps avg (ez nem elkepzelhetetlen ugy, hogy csak egy kartya megy), mikozben dedikalt teljes kepernyon 1080p medium tud 35ot (ultra 30at).
-
-
Abu85
HÁZIGAZDA
Az önmagában biztos, hogy nem előny. Az teszi előnyössé, hogy nem azt a béna gaussian blurt használja, hanem egy normális megoldást. Aztán, hogy ezt miért nem implementálták ALU-ra a többi megoldásnál ...
Valószínűleg jóval drágább mint a guassian blur, csak ez fixfunkciós motorral nem számít. Ez viszont így előnyösebbé teszi a VSR-t hardveres megvalósítás mellett. Ahogy arról a linkelt teszt is beszámolt.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Nintendo Switch bazár (Okosított Nintendo Switch konzolok, játékok, tartozékok)
- Újszerű Apple Macbook Air 13 - M2 - 30 Ciklus - 100% Akkumulátor - 8GB/256GB SSD - MAGYAR - Éjfekete
- Telefon felvásárlás!! Samsung Galaxy S21/Samsung Galaxy S21+/Samsung Galaxy S21 Ultra
- BESZÁMÍTÁS! HP ZBook 15 G6 munkaállomás - i7 9850H 16GB DDR4 RAM 512GB SSD Quadro T2000 4GB WIN10
- BESZÁMÍTÁS! Gigabyte B760M i5 14600KF 32GB DDR4 1TB SSD RX 6700XT 12GB Zalman Z1 Plus Seasonic 650W
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: Liszt Ferenc Zeneművészeti Egyetem
Város: Budapest