- Milyen videókártyát?
- 3D nyomtatás
- A héten érkezik az Xbox alkalmazás az LG okostévékre
- Milyen billentyűzetet vegyek?
- Hobby elektronika
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Házimozi belépő szinten
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- AMD K6-III, és minden ami RETRO - Oldschool tuning
Új hozzászólás Aktív témák
-
PROTRON
addikt
Troll on:
Csak sikerült a friss szerzeményekkel teszteket csinálni GN-éknál:
[LINK]
Nem mintha el lennének ragadtatva a használhatóságtól (persze a fizikai méretproblémától tekintsünk el, nem mérvadó). -
Dr. Akula
félisten
"Az elavult API-k kilövésével például lényeges erőforrás szabadul fel a fejlesztőknél, amelynek egy részét ezen új lehetőségek kutatására is fordíthatják"
A lehetőségük ugyan megvan rá, kérdés hogy élnek-e vele. Gyanítom nem, hiszen plussz meló, és már így is sokszor a konzol szintje a szűk keresztmetszet, arra kell lebutítani mindent, abban pedig nincs multigpu, hát akkor itt se lesz, hiszen csak egy portot kapunk. Jobban járnánk ha a lusta fejlesztők (inkább: portolók, gányolók) helyett megírná valaki egységesen, hogy ne azokon múljon a használata, mert akkor nem lesz.
-
Kansas
addikt
válasz
#16939776 #96 üzenetére
"fix" órajelet BIOS/UEFI-ben lehet beállítani, attól hogy Windows-ban nem használod az energiagazdálkodást, az órajelet még nem fixáltad... a feladatütemezőhöz pedig nem tudsz nyúlni, az kernel-szintű, és még mindig több köze van az optimális működéshez, mint neked vagy nekem. Ez a "lila gőze sincs" nagyon szar duma.
Én legalább annyi időt töltök YouTube-on, Netflixen vagy síma szöveges cikkeket olvasva neten, mint játékkal, te ezek szerint célhardverként használod... váljon egészségedre! -
Tomcat
őstag
Szerintem teljesen nyilvánvaló az AMD CF pozitív skálázódása. Érdemes megnézni a linkelt adatbázist. Ez alapján azt kijelenteni hogy hogy megbízhatatlan vagy hogy nem működik nem felel meg a valóságnak.
Az igazsághoz hozzátartozik hogy a legtöbb kezdeti (0-day) kompatibilitási problémát az újabb AMD driver-ek mindig javították (a megjegyzésekben olvasható hogy melyik kiadás) és legvégső estben ha mégsem működött volna (pl. natív DX12) vagy negatív skálázódás volt tapasztalható akkor a driver egy kártyás működésre kapcsolt. Ez alig néhány címet jelent az elmúlt két évtized terméséből.
Az érem másik oldala hogy soha életemben nem volt volt nVidia kártyám, így az SLI-ről nekem semmi személyes tapasztalatom nincs, azt viszont több helyen is olvastam hogy az nVidia SLI hatékonysága mindig is messze elmaradt az AMD CF-től.
-
#16939776
törölt tag
Én a "játék gépet" csak játékra használom, ebben lehet az alapvető nézet béli eltérés.
És nem kell mindenképpen a windows-ra támaszkodni, mert pl.: a Ryzen-ben, van beépített hardveres energiagazdálkodás, aminek van fogalma arról, hogy hogyan működik optimálisan a CPU, de a windows energiagazdálkodásnak és a feladat ütemezőjének erről lila gőze sincs. Ezért nálam, úgy hogy ezek ketten ki vannak lőve, passzívan, ház szellőzéssel el van a CPU "fix" órajelen. Nem szaggatnak a játékok és hideg a CPU-borda. Ha a ház szellőzéstől hideg a borda, akkor olyan rettentő mennyiségű hő nem keletkezhet se idle, se terhelve a CPU-t. Tehát a fogyasztással sem lehetnek óriási gondok.
A GPU meg ugyan annyit eszik IDLE mint az összes eddigi felső kat. (TDP.:250W) gtx kártyám, hidegen 40W körül, melegen 60-70W körül úgy hogy nincs driverből kényszerített energiagazdálkodás.
Mivel a bekapcsolt idő 95%-ában használom, játszok, így felesleges azon rugózni, hogy idle-ben mennyi energiát "pazarol el" azért, mert én kitaláltam hogy "fix" órajelen szándékozom használni a komponenseket. -
Kansas
addikt
válasz
#16939776 #93 üzenetére
"Egy "rendes" játékos gép fix órajelekkel megy"
Akkor nekem azóta nincs rendes játékgépem, mióta bevezették az energiatakarékos állapotokat a procikban... eszem ágában nincs lemondani róluk."Ha élesben eltávolítod a rendszerből, majd lekapcsolod a VGA-t" nem feltétlenül szükséges, elég, ha azt csinálja, mint a notik.
Desktop gépet soha nem altatok, mindig lekapcsolom, ha már nem használom, ki lehet bírni, míg bebootol(UEFI fast boottal nincs fél perc sem). Konzolt például igen, mert a PS4 a PC-mhez képest tetves lassan bootol még SSHD-ről is. Laptopot meg hibernálok, mióta egy kollégám altatott laptopja a hátizsákban feléledt és forráspontig fűtötte a vastagon kibélelt rekeszét, miközben nullára szívta az akkut.
-
#16939776
törölt tag
Egy "rendes" játékos gép fix órajelekkel megy, ami miatt nagyon messze van attól amit szeretnél tőle és 60W alá nehezen fogod betenni "idle".
Ha élesben eltávolítod a rendszerből, majd lekapcsolod a VGA-t, úgy hogy a memóriája nem kapja meg az áramot, majd vissza kapja az áramot, akkor onnan kb.: egy teljes boot-időnyit végig kell várni, mire újra használhatóvá válik a hardver az os számára. Így Inkább egy második gép beszerzésén gondolkozz, ahol a komplett platform megáll mondjuk 20W-nál (soc+mem+ssd), ami altatva 2W-ot eszik. -
Én sem szeretem ,hogyha zabál a gép... de én a csendesség miatt mivel minél kevesebbet eszik idle-ben annál halkabbak a ventik.
Ha meg sok időt csak alapjáraton ketyeg akkor valszeg ,home server + linux isók megosztásáról van szó ... arra meg lehet valami régi core2-es notit kellene befogni aksi nélkül +lekapcsolt kijelzővel egy hétig elmegy ha megdörzsölöd az oldalát...
-
Kansas
addikt
Én nem feltétlenül akarom, hogy együtt menjenek, inkább afféle "Switchable graphics"-szerű setup érdekelne, amilyet a két GPU-s laptopok többsége tud(Intel+NV, Intel+AMD, AMD+NV).
Mert az nonszensz, hogy egy valamire való játékos gép simán bekajál 100W körül kis terhelés mellett is(a PH! 3080-as teszt gépe üresjáratban is!), mégha ennyit lead néma csöndben(bár félpasszív CPU-hűtőről nem igazán hallottam), akkor is.
Csak a könnyű terhelésekre nem akarok külön gépet fenntartani - most véletlenül épp van egy elfekvő mITX Athlon 5350(AM1) konfigom, azt lehet hogy befogom ilyenre, de még ha túlélne is egy pár napos próbaidőt, túl macerás, sokkal jobb lenne, ha a fő gépem tudna spórolósan menni - a tavalyi rendszer 60W-ja már jobb(üresjárat az is, terhelés alatt gyanítom megy feljebb jócskán), de nem hiszem, hogy ne lehetne azt még megfelezni...De befejezem már a nyavalygást, itt hardcore gamerek vannak akik ballisztikus ívben tojnak a fogyasztásra... legalább is mióta kijött a 3080
-
Volt ilyen opció régebben
Csak el is kaszálták , mert az amd/nvidia nem volt partner abban ,hogy különbőző karik együtt menjen.
Annó én kiprobáltam és működödött... -
Cs1csó
titán
TöbbVGA-ás rendszer otthonra kuka. Se a VGA gyártók, se a játékkészítők nem támogatják.
Ennek sincs értelme, mivel a fogyasztás és a hőtermelés elhanyagolható egy asztali gépnél. Ami fontosabb, hogy a VGA félpasszív hűtésű legyen: játékon kívül a ventilátorok némák, filmezni, netezni és irodai szoftvereket használni így is lehet.
Játék alatt ahogy a teljesítménye egyre megy feljebb a ventilátorok bekapcsolnak és ameddig szükséges mennek is.
Aki teszkógazdaságos fogyasztású gépet akar az vegyen simán IGP-s gépet. -
Kansas
addikt
Nézd, az a helyzet, hogy SLI/CF témakörben 100%-ban egyetértek veled, ezért sem volt nekem soha egyik sem
Amit nem bánnék az az, ha desktopon is össze lehetne hozni a laptopokhoz hasonló hibrid módot, ha van IGP-d(esetleg valami olcsó második VGA-d, mint pl. GT710
), akkor alapból netezés, filmezés, stb közben a kevesebbet fogyasztó gyengébb kártyát lehetne használni, játékban, 3D grafikában és egyéb komoly terhelés alatt meg működésbe lehetne hozni a "nagyfiút/nagylányt"(ízlés szerint).
Tehát afféle VGA big.LITTLE setupot...
Erre a DX12 multi-gpu alkalmas lehetne, némi kernel-szintű támogatás(VGA kártya áramtalanításhoz) mellett... -
arra pontosan emlékszem, hogy MINDIG nyűgös volt az SLI működése (igen, még a voodoo2-es időkben is
)
linkelt teszt alatti hsz-ek:
"2db PCI-E 6600GT ~85 körül fogható, 6800GT pedig 100-110"én tuti nem vettem volna 43 ezerért +1 vga-t, ami sokszor egyáltalán, mintha nem is létezne vs. a 6800GT felárát mindig visszakaptad teljesítményben (vs. 1x6600gt)
elfogadom, hogy a matek nem jött ki mindig, de a mateknak csak 100%-osan működő sli mellett lenne értelme
-
Kansas
addikt
Nem fordított logika, egyenes, csak tán nem emlékszel rá, hogy volt idő, mikor még az volt a mondás, hogy ha van egy közepes videokártyád(pl Geforce 7600GS), mikor kezd nem elég lenni a teljesítménye, vehetsz belőle még egyet olcsóbban/használtan, és akkor még egy jó ideig el lehet vele lenni, és anyagilag is jobban jöttél ki, mintha negyobbra/újabbra váltottál volna. Ugyanez volt érvényben pl a játékok egy részében a GF6600GT(akkoriban népkártya) és GF6800GT esetében, a két kicsi együtt pár játékban(pl Halo) eléggé elpáholta a 6800GT-t
Akkoriban egy 6800GT árából(90e Ft) két 6600GT-t lehetett kapni...Ma már ez nem igaz, pl. két 3070 jóval többe kerül egy 3080-nál, és még a teljesítménykülönbség is nagyobbnak tűnik köztük, mint amit SLI-vel be lehetne hozni...
-
-
Tomcat
őstag
Az AMD CrossFire az elterjedt negatív megítélés ellenére meglehetősen jól skálázódik. Amióta az AMD driver beépítve tartalmazza a CF profilokat nagyon kevés azoknak a játékoknak a száma ahol valamilyen anomália előfordul és szinte alig van olyan ahol valamelyik metódus nem működik.
Nálam mindig az volt az alapvető vezérelv hogy 2db megfizethető árú teljesen egyforma VGA-val (...HD5870, R9-280X, RX580,stb) olyan grafikus teljesítményt állítsak elő amit csak az éppen elérhető legnagyobb teljesítményű és legdrágább kártya egymagában elő tudott állítani. Ez eddig nálam mindig is működött és remélem hogy ezután is fog, bárhogy is hívják majd a technológiát magát ezentúl.
-
A.Winston
tag
Engem az érdekelne mikor lehet jó kis amd igp-ket asszinkron módon bekötni nagytesó mellé.
-
BerserkGuts
addikt
Csak nem a techspotos cikk volt a meginditó vagy csak véletlen
[link] FEATURES HARDWAREThe Rise and Fall of Multi-GPU Graphics Cards
Viszont van egy érdekes régebbi tesztjük hogy miért volt jó:
[link]
wow -
Régi jó kis gépem jut ilyenkor eszembe, mikor az SLI-ről van szó. Athlon X2 4200, Inno 3D 7600 GST x2 SLI-be kötve. Akkor volt új játék a cod 2. Állatul ment annó 2 kártyával, mint eggyel. Igaz szívás volt, mert bios update kellett az sli-hez de utána működött. Na meg a FEAR is állatul ment.
RIP SLI
-
makkmarce
őstag
drágának mindig drága volt, a gond inkább az, hogy már el is avult. Fogsz egy 3995X-et, meg egy RTX 3090-et, és kb egy 2x gyorsabb géped van. Bizonyos feladatokra még gyors, de ha csúcs kell, akkor attól már most messze van, amit az ára nem követ. Ahogy néztem a célközönség nem is a profik voltak, hanem inkább a gazdag youtuber közönség. (mert mondjuk a hozzá kapható monitort is csak félszemmel lehet profinak nevezni egy rendes pro monitorhoz képest).
-
Nem kár érte, a koncepció mindig tetszett, de nagyon izzadtságszagú volt mindig.
Majd ha már nem lehet kisebb csíkszélességen gyártani, akkor újra elő fogják venni, ha nem lesz nagyon más irány fejlődni (HA!) -
Robitrix
senior tag
válasz
makkmarce #53 üzenetére
fogalmam sincsen hol van nekem egy MAC pro-ra 10-20 millióm?
Azt se tudom ez egybe szerelt két kártya vagy egy kártya, amire 2 GPU rakható.... minden esetre be van burkolva egy doboz szerű izébe így nem látszik. Minden esetre árulják RX 580X GPSU változatot, van valami kisebb teljesítményű van hozzá valami kisebb teljesítményű VEGA van ez a nagy teljesítményű VEGA GPU és van e dual verzio ahol a 2 kilos modulban 2 GPU van beszerlve e leggyorsabb változatúból. A CPU-ból is van hozzá tizen valahány száltól 28/56 ig. Mint ahogy a meória is igen széles sávban varriálható. én csak a legalapabb modellről láttam egy videót, hogy pakolják ki szerelik össze és probálják ki. az egy gyengébb xeonnal volt és RX 580X grafikával és valami kisebb RAM-mal és háttértárral. Az volt a kapható legkarcsúbb változat potom 3,2 millió körül...
valahol fent van a youtubon róla a videó magyarok csinálták. De úgy dereng nem vették, hanem marketingből kapták kipróbálásra az Apple-től. Úgy csomagolták ki, mint a hímes tojást. Gondolom, ha elbaxák ki kell fizetni és kinek van 3,2 milliója...
simán össze lehetett volna rakni egy jó munkaállomás mondjuk AMD 3950X vagy 3960/3970/3990 procival sokkal erősebbet fél áron. Viszont azon nincsen megharapott alma...
a valós teljesítményéhez képest mocskosul túl van árazva. viszont kurva jól néz ki. Csak a háza vagy 300 ezer.... vagy elvarázsolt milliárdosoknak való gép vagy totálisan hülyéknek, akik semmit nem értenek az informatikához.
-
Kansas
addikt
Szerintem neked valamiért becsípődött a multi gpu mánia
SLI, CF értelmetlen, már fénykorában is az volt, nem csak szerintem, de tesztelők és mint látszik, a gyártók szerint is.
A DX12 multi-gpu érdekes lehet még, de nem gondolom, hogy sok játék vagy alkalmazás fogja támogatni, azon egyszerű okból, hogy két kártya árából kapsz olyat, ami többet tud, mint az a kettő összeadva - kivéve az abszolút csúcsot, de annak az ára meg durván elszállt anélkül is... és akkor még extra programozói erőfeszítést is ighényel.
Ne keverd a vásárlóközönséget az értelemmel... csak attól nem lesz valaminek értelme, hogy van olyan akit rá lehet venni, hogy megvegye...Annak látom értelmét, hogy a második kártyát(pl. IGP-t) más(pl. compute: AI, fizika, stb) feladatokra fogják be...
-
Kansas
addikt
Igen, minden attól függ, te mire és hogyan használod a géped.
Én pl nem játszok egyik RTX-et támogató játékkal sem, tehát jelenleg(!) számomra az RTX-nek az értéke kereken nulla. Azt nem néztem, hogy a kedvenc játékaimi támogatják e az SLI-t, CF-et vagy az új multi-GPU-t, de csak ezért nem fogok drágább alaplapot venni(bár asszem a mostani lapom pont támogatja, de pl egy B550 nem, ahogy a korábbi B350 sem).Neked ezek szerint volt értelme az SLI-nek, de ha összeszámolod, mi minden kell hozzá hogy jól működjön:
- 2 egyforma kártya(+100% ár)
- megfelelő alaplap
- profil driverben
- játék támogatás
... sokaknak nem áll össze ez a 4 -
DonToni
aktív tag
Király!
Akkor már csak azt kell megvárni, hogy lehessen kapni és minden hiéna megszabaduljon tőle... (180% -os áron)
Egyébként van értelme az SLI-nek, legalábbis pár játékban, amikkel én játszok kihasználták, így 4K-ban simán megvolt a fix. 60fps.
Meg ahogy írtam a Blender is nagyon szépen használja mind a két vga-t, szóval nekem ez (eddig) minden kép win-win szitu volt. -
Kansas
addikt
Szerinted akik eddig SLI-t használtak, aszerint szedték le/tették fel az SLI hidat, hogy épp olyan játékkal játszanak-e, ami támogatja? Én nem használtam se SLI-t se CF-et(nem láttam értelmét), de kizártnak tartom. Az alighanem driver bug lesz... lehet, drivercsere segít rajta... ja, persze, NV-nél nincs olyan, hogy szar driver, akkor csak rebootolgasson a kedves user és babráljon az SLI híddal(tudtommal nem hot-swap)...
"sli-hez meg nem lesz profil nem látod?"
Látom, hogy te nem látod: "a következő év elejétől már a régebbi kártyákhoz sem adnak majd ki új SLI profilt" Érted, új profil nem lesz, a meglevők nem tűnnek el a semmiben azonnal(később nem kizárt, bár legacy driverben akár vissza is térhetnek) -
Kansas
addikt
Nem hiszem, hogy bármit elérnél az SlI kíd levételével azon túl, hogy elveszted a meglevő SLI-profilok használatának a lehetőségét.
Mert az újfajta multi gpu működéshez SLI híd ugyan nem kell, viszont a programnak támogatnia kell a technológiát. Magyarul amelyik program nem olyan módon van megírva, hogy támogassa, azon nem fog menni, ha viszont még van SLI profil a játékhoz, azt elvileg továbbra is tudod használni.@DonToni: kukába ne vágd ki, esetleg érdemes lesz eladni, és az árából venni egy 3070-et, ha kapható lesz, vagy egy 3080-at, némi ráfizetéssel, és akkor nem kell foglalkoznod ilyen úri huncutságokkal, mint SLI profil s driverben vagy direktz támogatás a programban...
-
edward2
addikt
A piac nem így működik. Ha amit írsz igaz lenne a következő dolgok történnének:
1. Mindenki több rx580 gpu-s gépet akarna építeni = az rx580 ára felmenne és máris nem érné meg annyira (ugye most azért olcsó mert kutyának se kell)
2. Az amd addig csökkentené az 5700 árát amíg az jobb vásárlás nem lenne mint egy több gpu-s modellAz sli-s/nvlinkes tapasztalatok alapján a 2-es pont mindig is igaz volt.
-
#16939776
törölt tag
Az apu (pc-n) minden megmozdulásával a rendszermemóriát terheli, már hogy a viharba ne fogná meg a gépet, ha az prioritást kapna a CPU-val szemben a memória elérésére.
1x kell valamilyen erőforrást kisajátítania magának és már megy is a többi komponens teljesítménye (ami azt az erőforrást is használná) 0-a közelébe.Ezek a függőségek miatt nem lehet ebből univerzálisan eredményesen használható megoldás. lenne a 100-ból 2 olyan eset ahol nem vennéd észre a negatív hatását, de kb nem is vennéd észre a pozítívat sem, de elvárnánk hogy valaki dolgozzon vele és adjon a ~semmihez stabil supportot.
-
DonToni
aktív tag
Oké, akkor egyszerűsítsük le!
Van 2db 1080Ti 8x - 8x módban (R7 3700x) egy SLI HB bridgel össze kötve.
Vágjam kukába, vagy ne....?!(némileg költői volt a kérdés, mert pl. a Blender gyönyörűen kihasználja mind a két vga-t, de most nyilván a jövő játékaira lennék kíváncsi... Pl. Bf1-ben sem ment rendesen a két kártya, vagy ha mégis, akkor egy pár perc után kilépett a játék....)
-
Shing
őstag
válasz
makkmarce #55 üzenetére
Nem lassítana az APU, mert ez már nem SLI/CF lesz. Nem kell egyenrangúan elosztani a feladatokat. Már a VRAM is rendesen összeadódhat nem úgy mint régen. A lényeg az lenne, hogy beteszed az extra hardvert és onnantól a motor megoldja.
Amennyivel tudja terhelni mondjuk az APU-t, annyival terheli. Kicsit besegít és gyorsabb lesz a játék 30-50%-al.Erről már a DX12 elején is szó volt, nem tudom miért halt ki egyébként a koncepció. Az igaz, hogy az APU-k végül nem lettek általánosak. De pár év múlva újra lángot kaphat ez az egész.
-
hobizoli
nagyúr
lehet en ertem felre, de igazabol elege lenne ha a Dx12 vagy a Vuklan komalja a 2xVGA-t, es akkor a game meg fut ahogy azok egyutt kiszamoljak, amit ki kell
kicsit olyannak tunik, mintha a AMD meg az NVidia szandekosan fektetne meg a dolgot, hogy a ket idovel mar olcsobba valo zsuga helyett az ujabb, ujan dragabb dVGA-ket vegyek, mert azon tobbet keresnek
fruttiert lehet venni mar 2x RX580-t es mukodne is "jol" a kettos, akkor ki venne meg a 5700XT-t 4db RX580 araert, ha a ket RX580 csak a felebe kerul es azt a gyarto mar egyszer eladta, az neki nem bicnyic, ha az ugy hozza a 5700XT sebesseget...mert akkor azt tole ki venne meg? -
PROTRON
addikt
válasz
makkmarce #55 üzenetére
Annyira sokszor írjátok be ezt a trabantos hasonlatot hogy nem tudok elhajtani mellette szó nélkül...[LINK]
xDAmúgy viccet félretéve eleinte a hyperthreadinget se tudták rendesen kihasználni a programok, mostanra ez megváltozott, holott ott sincs teljes értékű fizikai mag, csak a megfelelő algoritmusok elosztják a számolni valót hogy a megfelelő ütemben maradva a rendszer adott idő alatt jobban fusson.
-
makkmarce
őstag
az apu csak lassítaná az egészet, míg a rendszer arra várna, hogy kész legyen. Ahogy itt lentebb már írták, hiába hegesztesz össze akár 3 trabantot, egy egyszerű bmw is állva hagyná az egész tákolmányt. SLI/CF-nek csak a csúcskategóriában van értelme, ahol már máshogy nincs fentebb, de ott se játékra, hanem GPU renderre, vagy egyéb számításokra.
-
Shing
őstag
válasz
Steve_Brown #52 üzenetére
De miért? Pont annak hatására jöhetnek a 2 GPU-s (vagy még több?
) szörnyek hogy végre ki lesznek használva. Az igény meg lenne rá, mert a marketing addig nyomatja az RT, 144FPS, 4K szlogeneket, hogy már mindenki úgy akar tolni mindent, csak a hardver nem elég hozzá.
Még egy ami profitálhat az az APU-k. Tök feleslegesen csücsült ott a GPU minden prociban több mint egy évtizeden keresztül. Most befogható lenne, legalábbis amik hardveresen is ott vannak támogatásban. Persze csak "unlinkelt mód"-ban, de remélhetőleg sok játéknál megcsinálnák.
Elvileg az SLI/CF is egy nagyon erőltetett dolog volt mégis megérte nekik erőforrást áldozni rá, mert mégiscsak emiatt vettek dupla hardvert egye$ek. -
Steve_Brown
senior tag
Soha többet nem lesz R9 295x2
-
Kansas
addikt
válasz
DextyPremium #48 üzenetére
NVlink-et támogatja... kövezzetek meg, de én eddig azt hittem, hogy az NVlink és az SLI nem ugyanaz
-
-
PROTRON
addikt
Jó de mi számítógépekről és használati lehetőségekről beszélgetünk itt, nem pedig konyhai kiegészítőkről meg azoknak a 20 millió huf (a 10-el eléggé alábecsülted)-os dizájner áráról.
Még a célközönség, a bollywoodos filmesek is dobtak egy hátast hogy ezen az átverésen még ők is átlátnak.
Amúgy pont a gpu választás miatt ekézték is hogy szép-szép a teljesítmény de ezért a pénzért lehetett volna erősebb gpuval is szerelni...a sok minden egyéb mellett, pl jakuzzi, masszázs fotel, esetleg thai lányokAmúgy viccet félretéve igazán hozhattál volna valódi gyártóktól is "gyári" megoldást, mert vannak még.
-
Cs1csó
titán
válasz
Eugene Roe #44 üzenetére
Lehet ez sem jó példa talán ez: két közepes traktor együtt erősen tud húzni de ha ezek helyett egy db csúcsmodellt vennél az erősebb lenne kettejüknél is de közben kevesebb sofőr és kevesebb üzemanyag kellene.
-
Robitrix
senior tag
amúgy létezik a dologra gyári megoldás...
Úgy hívják Mac Pro
Ez egy munkaállomás melybe maximális kiépítésben 2 darab 14 /28-as xeon w proci van.
kaphat egy Radeon PRO Vega II Duo MPX modult grafikának, amiben két VEGA GPU van. Ebből a modulból kettőt lehet berakni ami által 4 darab GPU működik a gépben.
Egyetlen apróbb gond van vele, hogy maximális kiépítésben 2 CPU 4 GPU max memória 12 darab 64 GB-os RAM modul. 1,4 KW-os tápegység van hozzá. és egy 4K márkás monitor úgy félmillióért.
2 darab 4 TB-os SSD,
Az induló ár 2,5 millió a maximális kiépítés 10 millió körül van. -
Robitrix
senior tag
a több kártyának ma nem sok értelme van. két GPU esetén nem lesz dupla a teljesítmény, hanem csak úgy 30-40%kal több, mint egy kártyával. Ráadásul csak azokban a programokban amelyek direkt fel vannak készítve a több GPU-s működésre. Vagyis drágán kicsi teljesítmény növekedést érhetünk el nagyon kevés programban. Nem éri meg....
-
#16939776
törölt tag
válasz
GodGamer5 #36 üzenetére
Attól hogy két Trabantot egymás mellé vagy mögé teszel és össze heggeszted a vázukat, még nem lesz belőle kényelmes limuzin, nem fog jobban gyorsulni, és nem fog hamarabb odaérni sehova. Csak lesz egy jóval bonyolultabban irányítható járműved, ami optimális esetben - ha jó az implementáció, és rátermett a vezetője - 2x fogyasztással 2x annyi embert elszállít A-ból B-be.
Két közepes GPU-val, úgy hogy azok úgy vannak megtervezve hogy memória mennyiség és sávszélesség szempontjából nagyjából egyszerre érjenek a képességük határához, nem fogsz tudni kiváltani egy olyan GPU-t, amiben ha 100%-ban ki is van használva a GPU, egyikből vagy másikból de jellemzően mindkettőből marad még bőven tartalék.
Ezért Hi-end kártyából építettek jellemzően SLI-t és CF-et, mert ott még a kártyákban volt annyi erőforrástartalék, amit a többlet adat mozgatásra/tárolásra fel lehetett használni, így nem lassul be vagy laggolta szét magát a játék, ha be kellett tölteni 1db textúrát. -
GodGamer5
addikt
Tök jó lenne, ha elterjedne ez az újfajta többkártyás rendszer és akkor két középkategóriás kártyával is el lehet érni nagy teljesítményt.
-
#09256960
törölt tag
Na és mi van ezekkel a PAW-300 as gépekkel abban is több videókártya van
-
Zotya84
őstag
Na, akkor, mivel látom, megkavartalak titeket: nem, nem valódi igény az 5500+5600, hanem elméleti a kérdés mert az ott idézett rész két mondata véleményem szerint üti egymást. Ezt akartam volna tisztázni. Ti meg elvittétek egy másik irányba. Sebaj, előferdül.
Nem, nem fogok ilyen összeállítást használni, egyelőre bőven jó a most is használt 7950-m, csak már kezdi a pályafutásának végét elérni, még vízzel is, ennyi év után. Valószínűleg a most beesett/beeső kártyák közül fogok válogatni, ha találok köztük számomra megfelelőt. -
PROTRON
addikt
Ne nekem mond, én csak válaszoltam, egy másik kolléga jelezte hogy ilyen igénye van.
Nálam most egy darab 1070 van, 65-ért vettem használtan, jelenleg gondolkodom hogy vegyek még1-et multi gpu érdekében szintén max ennyiért (nem érdekelnek a hisztizők, ennél többet nem ér használt piacon ez a típus), tehát a kérdés egyik fele esetemben hogy 130-ért kapnék-e olyan kártyát ami olyan erős mint a 1070 multi gpu konfigban. A másik fele hogy sikerülne-e 65-ért eladnom a jelenlegi kártyát.
És itt jön képbe az, hogy bizony ha nincs meg a budget az általad helyesnek vélt irányra, tehát nem tudja egyből megvenni a 3090-et akkor szerintem teljesen jó megoldás először venni egy olcsóbbat, amihez ha jól működik a multi gpu akkor fel tudjuk húzni a teljesítményt az eredetileg kívánt szintre.Jelenleg azért gondolkodom hogy tényleg 1070-el próbálgassam a multi gput, vagy inkább ampere-re álljak át (figyelembe véve a költségvetési különbséget).
Egyik oldalról az, ha nem kell arányosan nagy mértékű erőforrást költenie rá, mert pl beépülő modulként csak elő kell hívni a mindenki computerén ott lévő hardver-softver-driver oldalról. Erre fele próbálnak haladni.
Másrészről ez olyan vita hogy minek fejleszt valaki 1080p feletti grafikai minőségre, hiszen a Steam statisztikák szerint a 1440p meg a 4k "csak réteg igény".
Szerintem az is lényeges szempont hogy egyes fejlesztők nagyon adnak a kinézetre, és ott eleve teljes más élmény lesz 1080p mint 4k esetén.
Így maga a fejlesztő cég reklámozni tudja magát hogy nézzétek milyen profin megcsináltuk ezt a projektet.
Persze megoldják hogy elfogadhatóan fusson a program gyengébb gépeken is, de azért lefejlesztik 4k-ra, aztán a fogyasztó meg csak pislog hogy a 2 millába kerülő gépe csak 30 fps-el tudja megjeleníteni...na ilyenkor lehet hozzányúlni a multigpu lehetőségekhez, mert egy második vga behelyezése a teljes 2 millás költségvetéshez viszonyítva már nem sok, és ott van a lehetőség hogy 240 hz-es monitort ki tudjon hajtani.Továbbá bizonyos játékoknál a tömeg, a megjelenített fizikai elemek mennyisége, fizikája nagy mértékben hozzátesz az élményhez, és ha több erőforrás van, több elemet, több npct lehet mozgatni.
"Can it run CRYSIS (REMASTERED!!)?"....and in 4k?
RTX 3080 ----4k-----25...35 fps -
#16939776
törölt tag
A lehetőség a multi-gpu-ra az egy dolog, az hogy optimalizlna-e rá a fejlesztő az egy másik, és harmadik az, hogy a usernél valós hardverkörnyezetben működik-e kielégítően.
Nekem az a véleményem: Ha egy játék x. évben igényli a KÉT gpu-t ahhoz, hogy élvezhető sebességgel fusson egy standard felbontáson, akkor azt nem az x. év hardvereire írták meg. Az x+1. évben már valószínű lesz olyan GPU ami EGYMAGA képes lesz hasonló (~80%) sebeséggel futtatni mint a 2 GPU, de ahhoz képest összehasonlíthatatlanul jobb folytonosság mellett, ami miatt már nem hat zavaróan a 20% alacsonyabb max. FPS ha a min. FPS közben nem reccen meg.
A legoptimálisabb esetben is (ha az első három feltétel maradéktalanul teljesül) ez akkor is CSAK egy áthidaló megoldás lehet, ami a játék megjelenése után 1 ével, a fejlesztőnek és a user-nek is nyűggé válik, mert mindkét szemszögből nézve, addigra lesz egyszerűbb, jobb, mindenkinek kényelmesebb megoldás a játék teljesítmény igényére.
Persze aki szimulátorozik, egyszerre több monitort használva, évekig ugyan azzal a setuppal, ugyan azzal a játékkal játszik, annak a multi-GPU support lehet optimális. És a játék fejlesztőtől elvárható, hogy kerüljön bele a játékba ez a megoldás, és persze folyamatosan javítsák a hibákat-folytonosságot.
A többiekre - szerintem - a véleményem első fele áll, akiket ellenpéldának lehet hozni pl.: bf5-öt két 2080ti-n nyomják, azt gondolom túl gyakori esetek ahhoz, hogy bármilyen statisztikában számítsanak, akár itt. -
Ha végre megoldanák ,hogy a prociban lévő gpu-t is tudnák használni a a játékok szerintem az már előrelépés lenne...
-
MeszesKPT
őstag
De továbbra is az a kérdés, hogy mi fog egy fejlesztőt arra késztetni, hogy egy ennyire réteg igényre fordítsa a cég drága erőforrásait.
-
PROTRON
addikt
Én pont azért nem akartam 2011-es platformot, mert néztem hogy ott max 44 sávot oszt szét a slotok között és 3 kártya felett már le is esik a main kártya x8-ra....ezért vártam meg 2066-ból az új generációt hogy 48 legyen és abból is olyan alaplapot választottam ami tényleg ki is osztja a slotok irányába (ssd kárára). Nem kis fejtörést okozott átlátni a gyártók béna marketing és hiányos specifikáció leírásain.
Mert egyébként a korai x299-ok valójában kevesebbet tudtak mint az x99 kiforott változatai, egészen 2018ig. Akkoriban már megjelentek olyan deszkák és procik amik esetén volt értelme elgondolkodni egy x99->x299 váltáson, de előtte csak a hype volt nagy, valódi ár/érték nem érte meg. Valahol menet közben ezt is elszúrták inteléknél...most kezdik felvenni a fonalat és utolérni azt ahol 2018-ban tartani kellett volna.
Pl.: a legtöbb gyártó az új, 2019/2020-as deszkára ugyan ráírja hogy össz. 48 sáv, de ha az apróbetűt elolvasod akkor hamar kiderül hogy abból csak 44 megy direktben a slotokhoz, a maradék 4 a legtöbb esetben valamelyik ssd-hez megy, vagy megosztva de az ssd-t priorizálva amin nem tudsz változtatni felhasználóként.Sajnos multi gpu kihasználó kódolás téren meg tudom érteni a fejlesztőket. Ha ráírod valamire hogy "beleírtuk azt a pár kódsort, tuti működik" akkor azt teljesíteni is kell...mármint az összes elképzelhető variánsra.
Így viszont a rengetegféle biztosíték és tesztelés már sok erőforrást venne el, sajnos nem csak annyi hogy 1 délután alatt a gyakornok beleírja azt a pár kódsort és éjszakára otthagyja futni a tesztkörnyezetet. :S
Én örülnék a legjobban ha úgy látnák a fejlesztők hogy megéri nekik.
Anno a több magos processzorok indulásakor is évek kellettek hogy rendesen elkezdjék kihasználni a potenciált, pedig a felhasználók részéről az megfizethető fejlődés volt. -
Z10N
veterán
"mas modern rendszer nincs."
X99/s2011 meg boven jo egy sok magos v3/v4 xeonnal.Nalam a lap igy tamogatja:
5 x PCIe 3.0/2.0 x16 (single at x16, dual at x16/x16, triple at x16/x16/x8, quintuple at x8/x8/x8/x8/x8 mode)Most dualban megy, de az explicit multi adaptert majd kiprobalom 3 kartyaval. Talan 4-gyel, ha elfernek
Ui: Amugy pont errol beszelgettunk nemreg Abu-val. Kar, hogy nincs jobban elterjedve, pedig csak par sornyi kodot kene irni hozza.
-
yagami01
aktív tag
" A több GPU-s irány kétségtelenül úgy tűnhet, hogy a haláltusáját vívja, de az sem kizárható, hogy most születik csak igazán meg. "
Reméljük utóbbi.Jó lenne, ha újra megérné a több kártya.
-
#06658560
törölt tag
Pro oldalon hogy néz ez ki? Tehát Quadro, FirePro vonalon, valamint GPGPU területen.
-
PROTRON
addikt
Pontosan ezért választottam ezt a platformot. Első körben csak erre volt keret, aztán ahogy nézem azóta lejjebb is mentek az új proci árak, továbbá mivel még nincs második GPU tatár sem hajt.
Amúgy PLX csipnek (mert ő gyártja)hívják ami a prociból érkező x16 sávszélességet az aktuális igényeknek megfelelően szórja szét 2-3 slot között, de amennyire néztem az is főképp HEDT platformokon van, ahol már 6-8 vga támogatásáról van szó.
-
Kansas
addikt
Az i7-7800X procid(ha még az van) 28 PCIe sávot támogat maximum, abból nem fog kijönni a x16+x16, de egy több sávot támogató procira cserélve neked legalább esélyed van rá, konzumer procik és lapok csak az x8+x8-at támogatják - bár lehet valami extraspéci überhigh-end lap, amire tettek extra PCIe vezérlőt, hogy a slotok egymás közt is 16 sávon tudjanak kommunikálni, de a proci felé akkor se lesz több sáv.
-
proci985
MODERÁTOR
slim nem volt, de ahogy a crossfirenel, ugy ahogy tudom az slinel is mindegy volt, hogy melyik gyarto milyen modellje van bekotve.
viszont tuningprogramokat eltero kartyakkal kb el lehetett felejteni, meg valamennyire a ventivezerles is problemas volt.
6 evig multigpuztam 2013 es 2019 kozott
-
PROTRON
addikt
Bocs a dupla posztért.
Ha még egyszer átolvasod az írásomat amire reagáltál, nem tettem említést arról hogy Nvlink esetén hol folyik kommunikáció, csak a megnövekedett memória kapacitásról idéztem be másik cikkből értekezést.Amúgy egyetértek a játékok terén való jelenlegi használhatatlanságról, ezért is írtam úgy hogy "méregdrága nvlink", én is úgy látom hogy csak speciális munka-kutatási környezetben éri meg jelenleg használni.
-
PROTRON
addikt
Lehet hogy félreérthetően írtam, de a nagy részében egyetértünk.
Az egyetlen különbség, hogy még nem próbáltam ki menne-e nem giga rev 2.0-ás kártyával stabilan az SLI a gépemben, viszont neten azt olvastam hogy a 10x0 generáció még érzékeny erre, tehát ugyanilyen rev 1.0 kártyával lehet hogy menne, de más márkától érkező 1070 kártya esetén amit te írsz, ahhoz már az új módszer kellene.
Amennyire én tudom az SLI nagyon érzékenyen megkövetelte a minél azonosabb kártyák jelenlétét.
De ha vannak ilyen jellegű személyes aktív tesztelési tapasztalataid nvidiaval, akkor kénytelen vagyok elfogadni, mivel még nem próbáltam ki semmilyen SLI-t.Igen a fentebbi írásomnál elegánsan elsiklottam afelett hogy amd alaplapoknál 16 helyett 20 megy a PCIEx busra, régebben is intel alaplapom volt és mérnökként úgy vagyok vele hogy átlagosan rosszabb scenárióra készülök, ha nem is a legrosszabbra...meg egyébként is szem előtt tartva hogy mit rakott le az AMD az asztalra akkor is inkább intel felé húzok.
Jelenleg intel x299-em van, szóval ilyen jellegű limitem nem lesz ha, inkább úgy írom amikor elindulok ebbe az irányba.
-
Abu85
HÁZIGAZDA
Mindegy, hogy rákötöd-e az NVLinket. Nem azon keresztül kommunikálnak a DX12/Vulkan játékok. A DMA motorokat használják, és a PCI Express interfészen közlekedik minden adat. Az NVLink egy játékosnak masszív pénzkidobás, DX12/Vulkan játékban sosem megy majd rajta keresztül adat. A DX11-re pedig megszűnik a támogatás január 1-jén.
Explicit multiadapterrel bármi megoldható. Akár 20 GPU is. A Nitrous 2 például olyan megoldást használ, ami annyi GPU-ra skálázódik, amennyi shading pipeline van. Ha mondjuk ezer, akkor simán leskálázódik 1001 GPU-ra.
-
Lenry
félisten
nagyon rég nem foglalkoztam ezzel a témával, de most nézem, hogy a gépemben lévő RX580 mellé nem volna egetrengető egy második.
volna emellett valami más megkötés is?
a gépem alapjai nem maiak, de van két hosszú PCIe foglalat a lapomon (igaz a második csak x4 sebességű), akkor ezzel is működne? -
proci985
MODERÁTOR
felreerted
sli es crossfire eseten adott GPUbol kettot lehetett osszekotni. tehat pl egy 290X es egy 290 elvileg ment egyutt (bar a 290 szintjen limitalva), 1070bol is osszekothettel ket akarmilyet, es ment. egyezo orajel mondjuk segitett.
elvileg most mehetne az is, hogy egy barmilyen kartya melle berakhatsz barmi masikat, de azt tamogatja ket jatek. erre nem alapoznek.
desktop ryzen biztosan tud x8+x8at (x370en), ezt tapasztalatbol irom.
---
egyebkent sajnos a multigpu kb halott a gyakorlatban.
-
Zotya84
őstag
Egynek jó, remélem jó úton járunk. Köszönöm.
Annyi korrigálásom lenne, hogy a Ryzenekben 24 PCIE lane van, abból x4 Chipset, x4 m.2 tudtommal. Így az x16 megmarad 1*x16 vagy 2*8-nak, nem esik vissza x4-re két kártya esetén, csak 3-nál, ott x8-x4-x4 lesz a felállás. (Az x370-es lapom leírása alapján tuti.) -
LGG555
aktív tag
Minek a 2 kártyás megoldás amikor 1 kártya is méreg drága és a legtöbb játékban a második VGA csak pihenget?
-
Darmol
senior tag
Én azt olvasom ki a cikkből, hogy ABU egy olyan szép új jövőről beszél, ahol a RTX 3090 mellett ott zümmög az RX6950, mert együtt tudnak dolgozni.
-
PROTRON
addikt
Nem biztos hogy jót írok, de az én értelmezésem hogy szándékosan hangsúlyozta ki az eszközazonosítót az elején, hiszen a "linkelt mód" amit a több gpu-t támogató szoftverek halmazából többen használnak, az érzékenyebb erre.
Tehát ha nekem van a gépemben egy gigabyte gaminig G1 1070 rev 2.0 kártyám, a régi SLI esetén ehhez ugyanilyen gigabyte...rev 2.0 kártyát kellett beraknom a híd másik végére hogy ne legyen gubanc.
Az új "linkelt mód" rendszerben meg ha berakok mellé egy EVGA 1070-et akkor már elfognak kommunikálni mindenképpen. Míg ha 1060-at rakok akkor több gubancom lehet linkelt módot használó eszköz esetén.Az "unlinkelt módot" úgy értelmezem, hogy ott már használhatóan működik az általad említett 5600xt mellé 5500-as kártya, csak az a gond hogy az amúgy is kevés multi GPU erőforrásra fejlesztő cégek közül még kevesebb fejleszt ezzel a változattal, pedig ez szolgálná a felhasználók igényeit.
Tehát ha biztosra akarsz menni akkor kénytelen leszel a linkelt módot feltételezni annak a korlátaival.
Azért is az Unlikelt módra lenne igény, mert a sima consumer deszkák ha támogatják is hogy több videókártyát rakj bele, a prociba akkor is csak x16 sáv van bekötve, tehát ez megoszlik, így a nagyobb teljesítményű 2. kártyát legtöbb esetben amúgy sem tudnád full sebességen kihajtani, pl 16 sávból 4 elmegy az m.2-be, 8 az elsődleges VGA-ba, 4 marad a másodlagosnak. Vagy eleve a másodlagosba tartó 4 már a csipseten keresztül érkezik nem közvetlen a cpuból.
-
Zotya84
őstag
"Pusztán arra kell figyelni, hogy a két VGA hasonló legyen. Az az optimális, ha ugyanolyan, de ha az eszközazonosító megegyezik, akkor az már elég a rendszer működéséhez."
A hasonlóság alapján azt mondanám, hogy ha egy 5600XT mellé bepattintok egy 5500XT-t, akkor már menni fog? Hisz elég hasonlók, csak nem ugyanazok. Viszont akkor meg nem egyezik eszközazonosító, ami alapján meg nem mehet. Ezt kibogozná nekem valaki, hogy hol értem félre – már, ha én?
A Civ6 hogyan használja azt az unlinked módot? Arra elég egy link, ha valaki tud olyat adni, mert nem nagyon olvastam még erről sehol. Igaz, nem is túlzottan kerestem. Köszi. -
PROTRON
addikt
Majd 2080TI-ből, amikor annak leesik az ára...furcsállom azokat akiknek annyira sürgőssé vált a gép vásárlás hogy szeptemberben, a 30x0 bejelentése után is berendelik a 2080-asokat...egész évben eddig vártak, most hogy megjelent az új, kb annyiért mint az új generáció beérik a csökkentett teljesítménnyel, de legalább 2 hónappal korábban...
Aztán meg majd megy a rinyálás HA-n hogy miért nem veszik meg a használt kártyáikat az új generációs árban, hiszen az övén is van garancia, most szeptemberben vette.
-
PROTRON
addikt
Amúgy ebben a cikkben az kimaradt, de időközben megtaláltam hogy a lejjebb lévő, szintén az új nvidia kártyákkal foglalkozó cikkben megemlítették az Nvlink hidat. Tehát hogy ha 2 db 3090-es kártyát használ az ügyfél, akkor a méregdrága NVLINK továbbra is beüzemelhető, így a korábbi SLI technológiával szemben ahol a kártyák memóriája nem skálázódott, az új megoldással szépen fel lehet tornászni a kapacitást.
Ami még érdekelne hogy régebben volt mód 3 illetve 4 utas SLI-re bizonyos alaplapoknál úgy, hogy az adott 3. vagy 4. PCIE slot már nem x16-ra volt huzalozva. Itt a cikkben oké hogy x16 fizikai hosszúság kell, de ha csak x8-ra vannak kötve a sávok akkor is működni fog a dolog az új modszerrel, kártyák közötti összekötés nélkül, vagy alaplapi sávok terén is kell az a x16?
Továbbá ha már elszalad a fantázia, régebben voltak dupla GPU-s VGA-k, amikből lehetett quad SLI-t kihozni...na most elvileg ha már nem a deszka az akadálya, akkor a jövőben lehet eljön az idő a tényleges, akár OCTO üzemmódnak?
Mert úgy már van értelme gen 4 x16-ra tervezni.Bár akkor majd az x299 lap+procimat cseréhetem majd le x499-re, ddr6-al.
Lelki szemeim előtt már látok egy teljesen valósághű VR harci szimulációt Battlestar Galactica-ban. Ahol már nem csak be rajzolva vannak a töltények és az algoritmus a kiinduló értékek alapján számolja ki a találatot, hanem ténylegesen ott van 2 millió lövedék fizikailag leszimulálva, 300 Raiderrel, meg 100 ezer mikro meteorittal úgy hogy ezredmásodpercre lebontva történnek a dinamikai kalkulációk az aktuális koordinátán szintén dinamikusan változó gravitációt is figyelembe véve...
Én meg csak forgolódok a 100%-ban megtervezett, filmes CGI szinten élethű cockpitben és ámuldozok...amíg ki nem lőnek. -
koko52
nagyúr
Pont terveztem két 3090-et venni. Na mindegy...
-
szép Írás !
-
PROTRON
addikt
Jól értem ezek szerint hogy mégse volt rossz választás az x299 platformra beruháznom kifejezetten a több GPU lehetősége miatt...(költői kérdés mert jelenleg nem használnom ki, de a hosszú távú tervek miatt kellhet)
Tehát a trend valójában az hogy ezentúl nem kell extra kiegészítőt használni a két kártya közötti összekötésre csak megfelelő generáció fog kelleni?
Csak mert az 1 dolog hogy kevés eszköz használja a több gpu lehetőséget, de mindenki károgott hogy ha eltűnik a csatlakozó akkor végleg reszeltek az ötletnek.Ezek szerint a fejlesztők csak okosabbak mint egy 5.-es, és ha el lehet adni egy géphez 3 VGA-t, akkor miért zúznák be a használhatóság lehetőségét.
Új hozzászólás Aktív témák
Hirdetés
ph Az AMD már egy ideje lelőtte a CrossFire-t, míg az NVIDIA most jelentette be az SLI végét.
- Milyen videókártyát?
- Debrecen és környéke adok-veszek-beszélgetek
- Megjelent a OnePlus 13T
- 3D nyomtatás
- A héten érkezik az Xbox alkalmazás az LG okostévékre
- Assassin’s Creed Shadows teszt
- Packeta
- 500 millió eurós bírságot kapott az Apple az App Store okán
- Iqos cigaretta
- WoW avagy World of Warcraft -=MMORPG=-
- További aktív témák...
- Csere-Beszámítás! Playstation 4 Slim 1TB + 2 Joystick! Olvass!
- Bomba ár! Lenovo ThinkPad X260 - i5-6G I 8GB I 256GB SSD I 12,5" HD I HDMI I CAM I W10 I Gari!
- Xiaomi Redmi Note 13 Pro 5G 256GB, Kártyafüggetlen, 1 Év Garanciával
- BESZÁMÍTÁS! Samsung Odyssey G5 34 VA 165Hz 1ms monitor garanciával hibátlan működéssel
- Honor Magic5 Lite 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopszaki Kft.
Város: Budapest