- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
- Két Zen 5-ös dizájnjának mintáit is szállítja már az AMD
- A Colorful "fagyosan kompakt" alkatrészekkel megy elébe a nyárnak
- A Keychron ismét egy űr betöltését vállalta magára az egerek szegmensében
- Az átlagnál vaskosabb ventilátorok kandikáltak ki a Corsair vitorlája mögül
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Bambu Lab X1/X1C, P1P-P1S és A1 mini tulajok
- Milyen billentyűzetet vegyek?
- Raspberry Pi
- AMD vs. INTEL vs. NVIDIA
- Modern monitorokra köthető 3dfx Voodoo kártya a fészerből
- OLED TV topic
- iPad topik
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
Hirdetés
-
Eleglide C1 - a középérték
ma Szintet lépett az Eleglide, az egyébként egész korrekt M2 után a C1 sokkal komfortosabb közlekedésre alkalmas.
-
Spyra: akkus, nagynyomású, automata vízipuska
lo Type-C port, egy töltéssel 2200 lövés, több, mint 2 kg-os súly, automata víz felszívás... Start the epic! :)
-
Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
ph Megkezdődött az NPU-k elleni hadjárat, de egy fontos részletet nem említ a cég.
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
TESCO-Zsömle
félisten
válasz MPowerPH #4462 üzenetére
Egyedül AMD-n múli, hogy lesz-e árverseny. nV simán belövi az árait föléjük. Tavaj is ezt csinálta, iden meg ugye mégszarabb a helyzetük. Csak reménykedni lehet, hogy idén is úgy döntenek a nagy zöldek, hogy dúrva árcsökkentéssel megnyírbálják a kiszöldek bevételeit.
Mert ugye a SweetSpot-nak köszönhetően AMD még azon az árszinten is szép profitot termel, ahol nV már mínuszba megy. Persze nV-t nem nagyon hatja meg a dolog, hisz az ide is kidobott GPU nem erre a piacra készült, csak annyi a feladata, hogy fenntartsa a GeForce brand-et egy későbbi visszatérésig, meg hát hülye lenne tálcán átadni a piaci részesedését a konkurenciának...
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
smkb
őstag
válasz MPowerPH #4484 üzenetére
"Már a 4000 -es szériával is sokat keresett, "
A 4000-es szériával bizony nem keresett jól... sehogy sem keresett, megkell nézni a negyedéves beszámolókat.
" Hiába reagált az NV árcsökkentéssel az AMD lépéseire, ők itték meg a levét, mert nem tudtak jelentős profitot felmutatni, a GTX295 -el meg óriási veszteséget termeltek"
Sajnos ez sem igaz, mert az NV tudott pofitot felmutotni, nem az AMD, de ennek is utánolvashatsz az NV negyedéves pénzügyi jelentéseiben.
[ Szerkesztve ]
-
Raymond
félisten
válasz MPowerPH #4494 üzenetére
"Ez butaság. Pont hogy ez a széria mentette ki az AMD -t, mivel akkoriban a processzor piacon elég gyenge volt, és ha nincs a vga ágazat, akkor most nagy bajban lennének."
Talan nem csipobol kene tuzelni, hanem tenyleg megnezni azokat a penzugyi jelenteseket. Itt a felosztas a bevetelrol es a nyeresegrol a GPu agazatban azokbol az idokbol amikor a 4000-es szeria volt a termekcsalad egesz az 5000-es szeria megjeleneseig:
Bevetel Profit
2008Q1 262 13
2008Q2 248 -38
2008Q3 385 47
2008Q4 270 -10
2009Q1 222 - 5
2009Q2 251 -16
2009Q3 306 3A 4000-es egyebkent csak 2008 kozepen jott ki. Tehat az osszteljesitmegy 2008Q3-tol 2009Q3-ig csak 19 millio. Ez nemigen huzott ki senkit sehonnan.
Privat velemeny - keretik nem megkovezni...
-
biggamer
veterán
-
nagyúr
-
Abu85
HÁZIGAZDA
válasz MPowerPH #28768 üzenetére
Nem tudni, hogy a Ti jelzéssel mi lesz. Már nagyon régóta töröltetni akarják a partnerek ezt a jelölési formát az NVIDIA-val. Csak számozást akarnak, mert most is nehezen magyarázható el, hogy például a 2080 Super miért rosszabb a 2080 Ti-nél, mert a Super pont jobbat jelentene elméletben. Valószínűleg a partnerek elérték a céljaikat, és mostantól számozás lesz, maximum egyféle utójelzéssel. És akkor a Ti húzhatta a rövidebbet a Superrel szemben.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arn
félisten
válasz MPowerPH #28768 üzenetére
De, miert ne... az elozo szeriaban azonnal bedobtak a 80tit, azelott viszont nem. Ez nem zarja ki a 90tit, ha vmi monstre gpu es a jobb kihozatal miatt letiltjak egy reszet.
az egeszben engem a traversalhoz fuzodo viszonya erdekel, mert a kialakitasbol ez amolyan 2in1 megoldasnak tunik, biztos, hogy a 80as is jon ezzel? A 90es kodot legutobb ketgpus megoldasnal hasznaltak, igy magyarazat lenne a modelljelolesre, ha csak a 90es kapna meg amolyan kiserleti dbkent baromi dragan, a 80as meg sima 2x8as megszokott hatekonyabb kartya lenne, nem tul nagy elorelepessel.
80 = sima videokartya
90 = 80 + traversalcsak azert gondolom, hogy nem lesz tul nagy elorelepes a szimpla kartya, mert nem kinlodnanak egy ilyen megoldassal, es vmi kell az elony bebiztositasahoz.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Alogonomus
őstag
válasz MPowerPH #28788 üzenetére
@(#28782) Devid_81 Azt nem mondták, hogy a kiszivárogtatott kártyák a 3090-esek. A fotón mutatott kártya lehet a 3080, mert azokat legyártották a 8 nm-en, és meg is lesznek vásárolhatóak. Egy 400W még hűthető ilyen 3 slotos kártyaként.
Közben pedig a 3090 még csak laborpéldányként létezik, mert az már tényleg túl sokat fogyaszt. Végül, ha AMD valóban erősebb kártyát mutat be novemberben, akkor még mindig bevethetik a karácsonyi szezonra a mondjuk 500-600W-os 3090-et masszív folyadékhűtéssel. -
félisten
válasz MPowerPH #28788 üzenetére
Nem azt írják, hogy nem jelenik meg, hanem nem abban a formában, ahogy eredetileg tervezték. A most kiadásra kerülő, talán a képeken is látható batár 3090 állítólag nem ide és így lett tervezve és jövőre jön az, ahogy elképzelték újabb gyártáson refreshként.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz MPowerPH #28802 üzenetére
Nyilván ez pletyka, de egyre több nyers adat derül ki az új GeForce-ról és Radeonról, és egyelőre a Radeonról érkező számítási kapacitás lényegesen nagyobb, mint ami a GeForce-ról jön, miközben a fogyasztása számottevően kisebb. Ez szüli meg a pletykát, hogy most hirtelen keresik az okát, hogy mi a fene lehet az a különbség, amiért az NVIDIA 300 watt fölött sem éri el a 20 TFLOPS-ot, míg az AMD 300 watt alatt maradva is meghaladja. Nyilván egy tök átlagos pletykagyárosnak a gyártástechnológia lesz az elsődleges célpont. Ez szüli meg ezeket a pletykákat, hogy akkor a mostani generáció tuti csak egy kényszer, biztos nem így tervezte az NVIDIA, stb. Eleve a pletyka vízjelű papír sok mindent elvisel. Abba azért nem nagyon gondolnak bele ezek a pletykagyárosok, hogy ide-oda vinni a dizájnokat nehéz, és közel sem biztos, hogy egy Samsunghoz tervezett dizájn a TSMC-nél jó lesz, stb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz MPowerPH #28807 üzenetére
Részben gyártástechnológia, de nem úgy, hogy csak a nanométer előtti szám számít.
Az AMD esetében tudni, hogy mi történt. A Navi 21 már a Renoirnál is újabb dizájnkönyvtárral készül, és pont a Renoir volt az, ahol ezt átdolgozták. Nem véletlenül tudnak elérni annyira magas órajeleket vele. A Cézanne APU ugyanazzal a dizájnkönyvtárral jön, mint a Navi 21, és abban a Vega 8 2,1 GHz-et is tud 15 wattal. Holott magát a dizájnt sosem tervezték ilyen magas órajelre. Valamit itt tehát eltaláltak, és ebből hoznak ugyanazon a csíkszélen olyan magas hatékonyságot, meg órajelet. Hogy mit találtak el, az nyilván műhelytitok.
Az NVIDIA esetében is a dizájnkönyvtár lehet a kulcs. A FinFET a végéhez közelít, így egyre nehezebb működtetni. Ha elsőre viszel valamit egy ismeretlen node-ra, akkor egyre nagyobb annak az esélye, hogy abból botlás lesz. Ezért csinálta meg anno a Vega 20-at 7 nm-re az AMD. Valójában szükségtelen termék volt a maga nemében, de iszonyatosan sokat számított abban, hogy miképpen kell majd a fontos 7 nm-es lapkákat letervezni. Az NVIDIA a pipe-cleaner lépcsőt kihagyta, és rögtön fontos termékekkel ugrottak neki az új node-oknak, ami egyébként beválhatott volna, de annyira a határon van a FinFET, hogy egyre nehezebb jól belőni, ergo, ma már nagyobb az esélye annak, hogy az első tervezés egy friss node-on inkább félremegy, mintsem sikerül. És általában a félremegy azt jelenti, hogy az órajel növelése igen rosszul hat a fogyasztásra, tehát pont a hatékonyság csökken.
Ezen úgy lehet segíteni, amit anno a Fermi esetében csináltak, hogy maradnak ugyanazon a node-on, és készítenek egy áttervezést. Ez a legbiztosabb módja a javulásnak. A másik lehetőség egy modernebb node, de az ugyanazokat a kockázatokat hordozza, elsőre nem biztos, hogy sikerül betalálni.
Alternatív tényező lehet az Ampere felépítése. Ez a lapka már igen sok olyan részegységet tartalmaz, amely szabvány szinten sokszor tök hasztalan. A tensor magokkal DirectML-ben nagyon nehezen lehet mit kezdeni, mert valójában maga a programozási modell elképesztően szar. A gyártók felül tudják írni a metaparancsokat, de a program oldaláról ezt befolyásolni nem lehet, tehát a fejlesztőnek fingja sem lesz arról, hogy ha bizonyos kerneleket a hardver nem a tensor magokon küldte le, akkor miért döntött úgy, hogy leküldi a normál feldolgozókon.
A Microsoftnak ez a DirectML koncepciója ötletes, ha nagyon sok hardvert akarsz lefedni tök egyszerűen, de a gyakorlatban rohadtul szarul működik specifikus hardverekkel, pont az egyszerűsége miatt, mert egy rakás tényezőtől függ a kiválasztott hardver, és pont az nem kap ebbe beleszólást, akire a leginkább hagyatkozni kellene: a fejlesztő. A fejlesztő tudja, hogy mi történik a programján belül, így csak neki vannak meg azok az információk, amivel a legjobb döntéseket hozhatja. Értem én persze a Microsoftot, legyen atombiztos a rendszer, de mi van akkor, ha valamiért nem fogja használni a speckó hardvereket a kód? A fejlesztő azt mondja, hogy nincs beleszólásuk, a speckó hardver gyártója azt mondja majd, hogy nem ők írták a programot, a Microsoft pedig széttárja a karját, és azt mondja, hogy lefut, ez a lényeg.
Na most ezek a részegységek ötletesek, de lövöd el rájuk a tranzisztort, nem is keveset, miközben ezeket olyan dolgokra is fel lehetne használni, ami mindig előnyt ad, nem csak szökőévente, a csillagok kedvező együttállásakor, teliholdkor.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz MPowerPH #28813 üzenetére
Az Ampere perf/wattja a mostani speckók alapján nem olyan jó, mint a Turing perf/wattja. Ezzel mondjuk meg kellene várni a gyakorlati méréseket, de ugye a pletykagyárak rámennek ám a nyers adatokra is.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
arn
félisten
válasz MPowerPH #28834 üzenetére
Par tiz szazalekot irtam koproci nelkul (uj ipc + gyartastechnologia), a koproci csak bizonyos helyzetekben lesz hasznos.
nem temettem semmit, csak egy tulbonyolitott fura megoldas lesz az ara az egesznek, es nem lesz minden termeknek resze, valszeg igy egyszerubb lesz elhagyni.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
válasz MPowerPH #28844 üzenetére
mondjuk 350W az mar FC vizesblokkal se egyszeru 1 GPU eseten. olyan 400-425W korul meg elkezd elfoni a blokk is .
2080tibol par gyari blokkra emlekszem. akkor mar egyszerubb venni egy (akar bontott dobozos) refet, ra egy blokkot es repkedhetnek az egerek.
[ Szerkesztve ]
Don't dream it, be it. // Lagom amount.
-
sutyi^
senior tag
válasz MPowerPH #28871 üzenetére
4K-ban nettó GPU limiten van minden, még egy RTX 2080 Ti-vel is. i5-9400-tól felfelé kb. mindegy mivel hajtod... <3% perf. delta vs. 10900K. 1440p-ben meg <5%. Ha csak nem valami kieső gamet / motort nézünk, ami valami okból kifolyólag sokkal jobban megy Intel-en, bár ez mostanában kevés.
Gondolom sokan a PCIe 3.0 x8 vs 3.0 x16-ból akarnak előre prognosztizálni, hiszen PCIe 4.0 x8 = PCIe 3.0 x16 sávszél.
Egyelőre nem tudjuk hogy nem célirányos teszt suitokon kívül, a jelenleg piacon lévő és közel jövőben érkező AAA címeknél lesz-e egyáltalán bármi nemű korlátozó tényezője annak hogy a legleglegnagyobb Ampere kártyát "csak" egy 3.0 x16-os slotba tudja a tulaj belegyömöszölni. Sanda gyanúm nem igazán.
Hónap végén úgyis launch (papír vagy sem?) aztán megtudjuk mi a helyzet, mert a techpress megfogja nézni amint van rá módja. Oka biztos van miért 4.0-át kér az NVIDIA és az AMD is majd, aztán hogy ez real-world használat mellett látványosan látszik-e az megint egy másik kérdés...
Szóval egyelőre teljesen felesleges ezen pörögni, főleg annak fényében hogy a felvevő piac 98%-át ez a probléma igazából várhatóan nem érinti a következő ~2 évben.
-Pedig nem is én utállak téged, te utálod saját magad! - ...és mégis egész nap együtt kell lennem saját magammal.
-
-
keIdor
titán
válasz MPowerPH #29037 üzenetére
Mondom, hogy én is a 20GB-os 3080-at veszem, HA lesz, ha nem lesz, akkor nincs miről beszélni.
Flight Simulator is simán beránt 20GB rendszermemóriát amúgy. Ne kezdjük ebben a topikban is, én meg nevetek a frekvenciaéhségeden, mintha 720p-ben játszanál, úgy mész utána. Rendben van, hogy CPU oldalról is kell a sávszélesség, csak ott sem a kapacitás kárára.
Túltárgyalt téma... mondom, veszek én 4000MHz-es rendszermemóriát, ha látom, hogy 25%-ot gyorsul minden 1440p és 2160p-ben.
HZD-t azt mondtad megnézed. Bizonyítsd az igazad, mert annyit mondtál két-három hete, hogy töltöd le, azóta se nézted meg? Nem én tudok csinálni 3000 vs 4000 vs 4400 tesztet, hanem te.¡GLORIA A LAS PLAGAS!
-
-
Abu85
HÁZIGAZDA
válasz MPowerPH #29048 üzenetére
Persze, hogy nyomos okuk volt rá. Tudják, hogy az AMD csúcskártyáján minimum 16 GB lesz, és az AMD még mehet 32 GB-ra, ha akar, de úgy néz ki, hogy nem akarnak (legalábbis gaming szinten). Ilyen szempontból a saját csúcsmodelljüket muszáj volt 24 GB-ra lőni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz MPowerPH #29050 üzenetére
Ez mind abból ered, hogy 1 GB-osak a stackek. Ha lenne 2 GB-os, akkor simán abból mennének a VGA-kra, mert feleannyi memóriából kijön egész jó mennyiség.
(#29051) X2N: Mivel 512 bites buszhoz 16 darab lapka kell, így 16 GB-nál kisebb konfigurációt nem tudnak kiépíteni.
Kismértékben függ a hardvertől a memória kihasználása. Nagyobb mértékben határozza ezt meg a meghajtó konfigurációja. Ha túl sok szeletre van osztva a fizikailag elérhető eszközlokális memória, akkor nem lesz optimális a fragmentáció, és emiatt számottevően kisebb lesz a memóriahasználat fizikailag elérhető kapacitásnál. Tehát effektíve hiába van a VRAM-ban mondjuk 700 MB szabadon, annyira fragmentált formában jelenik ez meg, hogy új allokációt már nem lehet belerakni. Ezen valamennyit javít majd az Ampere, és így a játékok alatti memóriahasználat valamivel közelebb kerül a valós kapacitáshoz, vagyis nő a rendszer hatékonysága.
Ez az AI tömörítés két szempontból lesz problémás. Látod, hogy a DLSS esetében is, ha nem jó a neuronháló, akkor az eredmény fos. Tehát itt is, ha nem jó a neuronháló, akkor számottevően romlik majd a minőség. A másik probléma, hogy a kisebb felbontású textúrát a felhasználása előtt fel kell skálázni. Ennek van egy időigénye, vagyis a memóriaelérés késleltetése a mai tipikus szintnek a sokszorosa lesz, amit más mennyiségű konkurens warp mellett lehet átlapolni, mintha direkten olvasható lenne az adat a memóriából. Ha egy shader túl kevés warpot futtat, és ez azért manapság nem ritka, akkor annyira belassulhat a hardver, hogy lényeges teljesítményhátránya lehet egy on-the-fly upscalingnak. Egyszerűen nem érkezik meg időben az igényelt adat, és a multiprocesszorok nem tudnak majd mit számolni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
keIdor
titán
válasz MPowerPH #29058 üzenetére
Kérdés, hány Cuda Core lakozik a GA102-ben?
Pár nap és kiderül, szerintem 6144, szóval lesz ott hely.
És nincs GA102-400, az 400 szokta az unlockolt magot jelölni.Jövőre javulhat a kihozatal, ki tudja mit terveznek. Gondolom ez az AMD-n is múlik majd.
¡GLORIA A LAS PLAGAS!
-
-
keIdor
titán
válasz MPowerPH #29116 üzenetére
Ezért mondtam én, hogy én venném a 20GB-os 3080-at, ha lesz veszem is.
Ha nem lesz, akkor nem tudok mit csinálni, csak a 10GB-os 3080 marad.
Persze várhatnék még tovább, csak nem akarok.Nálam sem az a baj, hogy nem tudnám kifizetni a 3090-et. Ki tudnám.
Csak hol a vége az áremelkedésnek? 5 év múlva hol tartunk? 5000€? Azt is fizessük ki?
Azért jön idén egy PS5, engem az sokkal jobban érdekel, a PC már csak mellékvágány nálam, ettől még akarok VGA-t cserélni, de nem minden áron... jó lesz az, amit 800-1000€ között kapok azt csókolom.Anyjukat ejtsék teherbe 1600-ért...
[ Szerkesztve ]
¡GLORIA A LAS PLAGAS!
-
Mumee
őstag
válasz MPowerPH #29131 üzenetére
Nézd az azelőtti szériákat. A 2000es széria (Ray-Tracingel járó extra hw, bányászatra is gondolhattak meg az az okozta áremelkedésre stb. miatt) nyers erőben egy zsák kul@ volt az előző szériához képest.
Még így is kb. 1080ti ~= 2080 lett, ennél csak jobbat hozhatnak ki ezúttal.
-
Jack@l
veterán
válasz MPowerPH #29153 üzenetére
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Devid_81
nagyúr
válasz MPowerPH #29158 üzenetére
Nem biztos, hogy a micron GDDR6 rammal volt baj, a Supereken is visszatert a Micron ujra, es ott sem volt baj veluk
Gyanitom valami gyartasi gond lehetett inkabb, olvastam en mar mindent errol, tul nagy nyomast helyeztek a memoria chipekre a hutesekkel es megtort a forraszanyag a hideg/melegtol, vagy epp a GPU die-nal valami gebasz, allitolag volt valami szennyezett silicium wafer is a kepben.
Fene sem tudja oszinten[ Szerkesztve ]
...
-
Z10N
veterán
válasz MPowerPH #29164 üzenetére
Nos, ha azt nezed, hogy 7nm-n 1725-1740 MHz-ig boostolnak akkor elegge vissza vannak fogva. Foleg a 3090. 82 SM vs. 68SM (+20,59%), TGP-nel az 385,888 W lenne.
Viszonyotaskent (12nm vs. 7nm):
TITAN RTX: 72SM @ 1770, 280W
RTX 2080 Ti: 68SM @ 1545, 250W
RTX 2080 Super: 48SM @ 1815, 250W
RTX 2080: 46SM @ 1710, 215WUI: Illetve a csucsra jaratott gddr6, aka gddr6x is 19.5Gbps vs. 19Gbps es meg az is lecsip a tgp-bol egy keveset.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Dyingsoul
veterán
válasz MPowerPH #29487 üzenetére
Nem írtad meg, hogy akkor most mennyi VRAM-ot is eszik meg REVERB-el, mekkora SS-el az ACC.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- XFX RX 6600 XT SPEEDSTER SWFT 210