- Computex 2025: Már a vízhűtés sem idegen az osztrák hűtőspecialistától
- Computex 2025: Jól sikerült a be quiet! belépője a perifériák világába
- Computex 2025: Nézzük miket mutat idén a DeepCool!
- Comptex 2025: Házak, tápok és kézikonzolok az Antec standján
- Computex 2025: Profi SSD-k, hűtők és más kiegészítők az Adata standján
- Milyen RAM-ot vegyek?
- Asztrofotózás
- AMD vs. INTEL vs. NVIDIA
- Melyik tápegységet vegyem?
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- AMD GPU-k jövője - amit tudni vélünk
- Amlogic S905, S912 processzoros készülékek
- Projektor topic
- Jókora gond volt az ASRock bizonyos alaplapjaival
- Egy nap a TCL-nél: érkeznek az új tévék!
Új hozzászólás Aktív témák
-
Freddy89
csendes tag
Hello van 2 db hd 7850 oc kartyam az egyik 1 gigas a masik 2 gigas lehetséges crossfire futatni ??
-
Jack@l
veterán
válasz
hszilard666 #141 üzenetére
Két választási lehetőség is akad:
A: Eladod nekem féláron a másik kártyát
B: Nem nyelsz be gondolkozás nélkül ehhez hasonló kamu hulladék írásokat -
MPowerPH
félisten
válasz
hszilard666 #141 üzenetére
Mar ki lett targyalva, hogy sehol nincs egetvero problema...
-
hszilard666
veterán
Biztos hogy nem. Mi lesz azzal aki most vett több GPU-t? Még ki sem lehet vel törölni, túl kemény hozzá. Habár úgyis billeg az asztalom
-
Dilikutya
félisten
Hogy a fenébe lenne ugyanott? Az egyik 1280x1024, a másik 1920x1080. Ha ez neked ugyanolyan... a dpi egy dolog. Nekem nem volt bajom a 17 colos 4:3-as monitorral, sokáig gondolkodtam is, lecseréljem-e, mivel hibátlan, és legalább a játékok is jól mentek rajta. Most 24 colon 1080p van, szerencsére a hardver bírja, amikkel játszok, és k.vára nem ugyanaz a széles képernyő miatt. A film sem ugyanaz...
Lemértem, 65 centire ülök tőle. Ide nem kéne 42 col. Egyéni preferencia kérdése mindez, ahogyan 90 cm-re sem akarok ülni, nem ér el addig az egér és a billentyűzet sem, meg én se az asztalig.
-
Zso2
őstag
-
Ed3r_X_
nagyúr
Jajj, ez már annyira a szőrszálhasogatás
. 24"-on nekem bőven elég a Full HD, minden szép, és jó. 17", 1280x1024-ről jöttem.
-
TTomax
félisten
Az hogy látod-e recésnek a vonalat vagy sem attól függ,hogy mekkora a pixelek mérete azaz "Pixel pitch" minél kisebb annál jobb,ebből egyenesen következik a monitor méret/felbontás.
-
MPowerPH
félisten
-
MZperX75
addikt
-
tomas51
senior tag
Hidd el van, persze a yt nem adja vissza de azért szemmel jól látható hogy amit eddig élesnek láttál az nem az főleg ha most meg nézek egy FHD monitort azonnal észreveszek mindenféle dolgot amit eddig nem.
Persze 160k-ért én se vettem volna ilyen monitort de egy ismerősöm adott egy olyan árat a Dell-re hogy nem bírtam nemet mondani az ajánlatra 27"-be biztos nem vettem volna FHD-t az tuti.
Akkor aztán lett volna pixel számolás szabad szemmel. -
tomas51
senior tag
válasz
Dilikutya #114 üzenetére
A FullHD szerintem max 24colig.
Amikor váltottam 27-re meg sem fordult a fejembe venni 1080p-s monitort, mert már így is elég pixeles 24-en a FHD hát akkor 27-en milyen lehet....
És miután meg lett alá a hardver jöhetett az IPS 27" 2560x1440-be hát mit mondjak ég és föld, persze ebbe benne van az is hogy IPS de hát azért a felbontás is számít eléggé.
Ehhez nem árt az sli, próbáltam egy vga-val is de hamar elfogy nem mindegy, hogy 40-az fps átlagba vagy 80, így nyugodtan tudok vsync-el játszani mindennel.
Van is néhány sli teszt a csatornámon azon a felbontáson. -
jedis
senior tag
válasz
Dilikutya #114 üzenetére
Őszintén szólva nem tudom, hogy mekkora a minőségi különbség játékokban, ha 1920x1080-ba, vagy 2560x1440-be, vagy 3840x2160-ba játszol ,De gondolom nem olyan óriási, hogy az ember álla leesik , és ha van is valamennyi, annak "MI AZ ÁRA " ugyan azon minőségi beállítások mellett, és persze ugyan olyan ( mondjuk ) 60 frame/sec sebesség mellett ( nem tudom miylen konfig kell ahhoz, hogy UHD-ba menjen valamelyik új Game 60-nal !
) A professzionális felhasználás területén, még látom a létjogosultságát ezeknek a felbontásoknak, de játék terén őszintén szólva nem nagyon ( egyenlőre ) ! Én inkább képméretet válltottam 16:9-ről 21:9-re , ami a vizuális élvezeten nem kicsit dobott, de ezért nem nőtt meg olyan mértékben a hardverigénye a konfignak, hogy még egy komplet ép árát rá kellett volna költenem !
-
tomas51
senior tag
Én pl 1440p-be játszok, édes kevés oda is az egy vga ezért is van sli.
Akinek igénye a maximális részletesség és a 60fps + egy kis élsimítás akkor bizony kell az sli.
Az nvidia mindíg főleg a jobban hypolt játékokhoz vagy előtte vagy a megjelenés napján biztosítja az sli profilt.
Manapság egy gpu úgyse elég, akinek igen az meg vegyen konzolt, hogy 30fps-el játszon élsimítás nélkül. -
#65675776
törölt tag
Láttam már nem egy játéknál, hogy a CF/SLi élvezett prioritást mindennel szemben. Nem érdekelte a fejlesztőket, hogy a játék egyébként tele van olyan bugokkal, ami miatt kb játszhatatlan volt, de az SLi és CF hibákat azokat kb instantba javították. Akkor inkább hagyják a vérbe.
-
#06658560
törölt tag
válasz
milchiboy #107 üzenetére
A közös terület sem közös, mert más irányból látja az egyik és a másik szem, így a leképezése is el kell térjen kissé. Ha a te logikád alapján kellene dolgoznia egy GPU-nak, akkor két, fizikailag nem kapcsolatban lévő teret kellene számolnia, eltérő megvilágítással, stb. Valamint a neki jutó térrész nagyobb lenne jóval a másiknál.
-
7time
senior tag
válasz
milchiboy #107 üzenetére
a Riftnél, vagy hasonló eszköznél, ahol eleve két kép lesz, és egy jó részük közös, jobban lehet optimalizálni 2 GPU-ra? Például a közös területet az egyik számolná, a nem közöset meg a másik, vagy valami hasonló?
Nem hiszem hogy megoldható de szerintem mire a Rift végleges fázisba kerül és játékok is lesznek hozzá még egy VGA csere befigyelhet.
-
milchiboy
csendes tag
Lehet, akkor féllábal (mármint supersampling nélkül) is kibírom addig!
Az eyefinty valószínűleg amúgy is csak a Rift-ig kell nekem.
Amúgy meg nem tudom, sajnos nem vagyok ennyire technikailag otthon a dologban, de olyat nem lehet, hogy pl. a Riftnél, vagy hasonló eszköznél, ahol eleve két kép lesz, és egy jó részük közös, jobban lehet optimalizálni 2 GPU-ra? Például a közös területet az egyik számolná, a nem közöset meg a másik, vagy valami hasonló?
-
milchiboy
csendes tag
Ez nagyon szomorú, 2 okból is!
1, Mi lesz az igencsak közeli VR-rel? Ha az Oculus Rift annyiba fog kerülni, ammenyi a jóslatokban áll, akkor sokan akarnak majd venni, ahhoz pedig előreláthatóan jobb GPU kell (vagy egy inkább a régi mellé egy második?). Ez amúgy az OR-fejlesztők legnagyobb félelme, hogy hiába lesz olcsó az OR, a vas, ami elbírja, igencsak drága lesz. Remélem, akkor majd észbekapnak, vagy az OR-fejlesztőknek lesz annyi nyomásuk (ahogy a cikkekből emlékszem, ők elég rugalmasak és segítőkészek a fejlesztők irányában), hogy a több GPU-s megoldások is megfelelő támogatást kapjanak.
2, Az általános véleménnyel ellentétben, egyáltalán nem sok pénz multimonitoros rendszert összehozni, ami már igen csak 4K. Nem kell venni vadiúj, 100%-osan színhű 3-4 ms-os késleltetésű 75 Hz-es csúcsmonitorból 3-at. Tök fölösleges, úgyis a középsőt nézed igazából (legalábbis én a 2 éves Eyefinity-használatommal oda fókuszálok, a perifériás látásom pedig oldalról szippantja az infót).
Egy normális, full HD monitor mellé keresel két olyan olcsó TN-paneles monitort, aminek a pixelnagysága megegyezik a "fő" monitorral, van digitális/analóg bemenete (nem kell drága átlakítókat venned), és kész! Bár némi utánajárás, számolgatás, de megéri. Esetleg a fő monitor hasonló típusú korábbi generációs modelljei olcsón vannak használtan, és oldalsó monitornak maximálisan megfelelőnek tartom őket).
Saját példám: Egy HD 7870-el hajtok egy 16:9-es 23"-os Dell P2314H-t, és mellé vettem használtan 2 db 4:3-as 17"-os Dell 1708pf-et (
postával és kábelekkel együtt 24k volt a kettő
), és tökéletesen passzolnak, nem kell egy műhelyasztalnyi hely, és a széleken sem torzít annyira, mintha lenne még mellette két 23" 16:9-es (alig van halszemeffekt a kevésbé támogató játékoknál). IMÁDOM!
Már régebb óta játszom eyefinity-ben, és az, hogy két oldalt kisebbek a monitorok, régebbi TN-típusú a panel, semmi különbséget nem érzek, az átélést nem zavarja (úgyse arra fókuszálok, hanem középre). Mondjuk lehet, hogy mázlim volt, mert a színeket elég jól sikerült összepasszintani, nem érezni a törést. A szokásos kompromisszumokat meg kell mondjuk kötni: Vagy a középső monitor aljából nem használok ki durván 1 cm-t (nálam ez), vagy nem látok a szélén az aljából 1 cm-t, mert kimarad. Most 4700*1024 a felbontás kávakompenzációval, ami azért kiszívja rendesen a kártyát.
Viszont pont venném mellé a másik 7870-t, mert erre már kevéske, de nem tudom, hogy lenne-e értelme, ha erre halad a világ. Lehet, hogy inkább beruházok majd egy 290/290x-re, vagy kivárom azt az AMD 300-as szériát.
-
priti
addikt
Igazából csak az szenvedhet, aki nem szoftverhez vásárol VGA-t, hanem csak úgy.
Választ egyet azzal az általános várakozással, hogy ez majd biztos elég erős lesz. Nem tudja mihez, sőt az a szoftver még meg sem jelent a vásárlás pillanatában amivel később a hardvert használni akarja, de megveszi előre e pénisznek, aztán ha kiderül, hogy hibás a várakozása, akkor meg mindenkire haragszik. -
proci985
MODERÁTOR
-
priti
addikt
Így mentik meg a bolygót. Meglátták, hogy minden panelgyártó a magasabb felbontás felé mozdult és így aztán majd se a VGA-kat se a monitorokat nem lehet majd eladni és megmenekül a Föld.
Hajrá. -
micafighter
nagyúr
válasz
v_peter2012 #77 üzenetére
Az eredeti felhasználóddal nem merted ezt leirni?
-
edari
őstag
Nem lehetne a hír címe mellé kirakni hogy ki írta? Abu "cikkeit" kihagynám.
-
Tigerclaw
nagyúr
Úgy gondolom, hogy a vásárlóik nagyon kicsi szegmense az aki ilyen több GPU-s konfigot használ vagy tervez vásárolni. A multi gpu támogatás valószínűleg többe kerül, vagyis egyszerűen nem éri meg nekik. Nagyon kevés vásárlástól esnek el amiatt hogy nem támogatják az SLI-t CF-et. Egyszerű matematika. Az Nvidia-AMD páros az aki érdekelt ebben egyedül, vagyis nekik kellene pénzel és egyéb támogatással ösztönözni őket.
-
ÁdiBá
veterán
Ez a valahogy üzemeljen elég fájdalmas pont a felhasználókra nézve.
Én sokáig kitartottam az SLi és a CF mellett, míg azt nem mondtam, hogy most telt be a pohár.
Az ember súlyos összegeket beleöl ebbe a hobbiba, mit lát a HWINFO szerint?!
1GPU 99% terhelés.
2GPU 2-4%.
Eredmény? Néha lassabb volt a program nálam CF-ben Sli-ben mint egy kártyával felhúzva.
A két GTX780Ti SLi majd nem egyszerre vásároltam meg a két ref példányt közel 360 ezer forintért.
Kicsit többre számítottam volna.
Szerintem ez a többkártyás téma nem hiszem, hogy valaha is tökéletes lesz.Amire jó az a Benchmark.
De isten mentsen attól, hogy megint úgy kellene játszanom! -
Abu85
HÁZIGAZDA
A GTA 5-nél valószínűleg megoldható az AFR támogatása. Részben ezért tolták el a PC-s startot. Persze nem jelentenek be előre semmit, de tényleg vizsgálják ezt a lehetőséget. Az a gyártóknak is komoly presztízs, hogy ennél a játéknál a több GPU meg legyen oldva. Ha végül a startra nem is sikerül, később mindenképp módosítanak annyit a motoron, hogy valahogy menjen.
-
ÁdiBá
veterán
Napról napra jönnek az információk miszerint ez a motor (UNREAL4) nem kezeli rendesen az SLi, CF-t.
Majd jön megint ez a hír.
GTA5 is beint az SLi-nek... azt nem értem a mi rákért erőltetik...
Nem kell se SLi, se CF, és mindenki boldog.Agyvérzést kaptam mikor a GTX780Ti Sli konfigomban írta a program STEAM-n. Kapcsold ki az SLi-t hogy a játék stabilan üzemeljen...
Én meg csak pislogtam, hogy most miva?!Kalap szar mind a kettő. Én a gyártók helyében még le is vetetném a csatlakozókat a kártyákról!
Támogatásokat....
-
Abu85
HÁZIGAZDA
Ne általánosítsunk. Bár egy név van, de kétféle Crossfire. Az egyik a normál. Ahogy az SLI-nél, van egy híd, amit rákötsz a kártyára és megy. A másik az XDMA Crossfire, ami a multi-GPU következő lépcsőfoka a hidas megoldások limitációi nélkül. Ez a Crossfire bárminél jobb, főleg mikrolag jelenségében, ahogy a HOCP korábbi tesztje ezt megjegyezte: [link]
A híddal van probléma, és azzal, hogy csak ezen keresztül lehet közvetlenül az egyik VRAM-ból a másikba másolni. De ha ezt kiütöd, akkor rengeteg gondtól megszabadulsz.
Annál a játéknál még mindig jobb az 50-60%, mint a hidas CF ~10%-a, vagy az SLI profil nélkül. Utóbbit egyébként meg lehet érteni 10%-ért nem éri meg dolgozni. -
Abu85
HÁZIGAZDA
Még annyit, hogy az SLI és a CF a 4K-val jelentősen módosult. Maga a 4K-s frame buffer és az esetleges másolandó egyéb pufferek nagyok, így az SLI-nél 500 MB/s, míg a CF-nél a 900 MB/s adatátvitel kevés. A 4K-s implementációk azt csinálják, hogy bizonyos adatok másolására a hidat veszik igénybe, míg egyes adatokat előbb a rendszermemóriába másolnak, amelyeket a másik GPU átmásolhat magának. Ez okozza azt, hogy a 4K-nél a normál CF és az SLI skálázási nehézségekkel küzd, illetve nehéz kontrollálni a frame pacinget is.
Pont ezért került bevezetésre az XDMA, ami egy speciális multi-GPU-ra kifejlesztett DMA motor. Ez eldobja a hidat, mert az lassú, és a PCI Express csatornát használja adatmásolásra, közvetlenül, a rendszermemóriába másolás nélkül. -
MPowerPH
félisten
Hianyossag alatt nem csak a mukodeset ertem. Sajnos nekem CF-el eleg sok helyen akadt problemam. Nehol a HUD hibaja, nehol a lag miatt nem tudtam hasznalni. A mikrolag hatvanyozottan igaz, aminel nincs rosszabb. SLI-vel meg nem talalkoztam ilyennel.
Egyebkent az 50-60%-os skalazodas is elegge karcsu... -
Abu85
HÁZIGAZDA
Ahol SLI van ott megoldható a CF is, és ez fordítva is igaz. Egyetlen kivétel van, ahol a CF-nél is csak az XDMA-s konfigurációk skálázódnak, vagyis a Hawaii és a Tonga. Ott a normál CF és az SLI halott, mert a hidas megközelítés borzalmasan korlátozza az adatmásolás teljesítményét. Ilyen például a Total War: Rome 2. Ott SLI nincs is, de nem azért mert nem oldható meg, hanem azért, mert a hidas CF skálázódása is csak 10-20% körüli. Egyedül a Hawaii és Tonga, vagyis az XDMA CF skálázódik 50-60%-ra.
-
MPowerPH
félisten
"csak itt a fő gond az, hogy a legtöbb játék nem vagy csak lazán támogatja a több GPU-s megoldásokat. "
Kerlek sorold fel oket. Johet olyan is, ahol 70% alatt van a skalazodas. Most maradjunk az SLI-nel, mert a CF tenyleg sok helyen szenved a hianyos tamogatastol.
Dilikutya: Jatszanak. Mi mast? Ha nem erted a miertjet, akkor egyszer probalj ki egy rendes 4k monitort.
-
Abu85
HÁZIGAZDA
Kiegészítettem a hírt, hogy megérkezett az SLI profil.
(#52) Duck663: A kutatások pont azért fordultak el az SFR(Scissor)-tól, mert látták, hogy a fejlesztők merre fejlesztenek.
Low-level API-val sokkal bonyolultabb a multi-GPU kérdése. Ott nem lesz driveres trükközés, mert a grafikus driver nem látja a memória layoutot. Nem fogja tudni, hogy mi hol van a VRAM-ban. Ott vagy írnak a fejlesztők saját multi-GPU-s rendszert, vagy semmit sem tudnak tenni a gyártók, ha ez kimarad.
-
KAMELOT
titán
Az 1 nyákon lévő 2 GPU ugyan úgy működik mint a SLI/CF hídon keresztül csak ott a nyákon van megoldva a kapcsolat a 2 gpu között. Elméletileg nincs veszteség csak itt a fő gond az, hogy a legtöbb játék nem vagy csak lazán támogatja a több GPU-s megoldásokat. Maga a skálázódás a játékban gyenge!
Mert ha a 1 gpu tud 60fps és 2 gpu 100fps-t akkor már megéri a 2 gpu használata, de legtöbb helyen ez nem így van!
Meg kell fontolni az egyénnek, hogy meg e éri a 2 GPU vásárlása!? -
Mokó
aktív tag
Egyszerűen nem éri meg a 2 gpus rendszer,nincs olyan jó skálázás a teljesitményben mint amennyibe a rendszer kerül....V2-óta megvannak a problémák,orvosság hol van rá kisseb-nagyobb mértékben,hol nincs.
1 bika GPU kell azt kész'. -
v_peter2012
csendes tag
Szóval ha a hír kapcsán megint felmerül, hogy Abu félre informálja a népet, jön a trollkodás, meg a hsz törölgetés.
Megy az sli? megy
Megy a cf? nemMiért született a cikk? Mert az sli a játékok 90%-ban megy a cf meg jó ha 10%-ban.
Egyszerűbb arról írni vége a multi gpu-nak? igen
Ráadásul ki tudja mennyi időt vett igénybe hogy keressen egy olyan tesztet, ami szerint a 290x gyorsabb mint a gtx 980.
Ki fizeti ennek az embernek az idejét?
-
nubreed
veterán
A skálázódás a kulcsszó.
Reméljük Windows 10-ben már igényesen meg lesz csinálva és akkor nem kell FHD/4K felbontásban nagyítóval nézegetni a képernyőt még a gyengébben látóknak sem.
A hardware gyártók sokat köszönhetnek a trehány programozóknak, különben hogy adnák el évente - 2 évente a legújabb hardware -eket?
Amúgy meg ne mindig csak a játékokból induljunk ki, rengeteg terület van, ahol van nagyon is létjogosultsága a 4K felbontásnak. -
Mentolka
senior tag
Hú ezek a hozzászólások...
SZERINTEM:
- én még nem láttam UHD kijelzőt működés közben, de egyelőre nincs is igényem rá (FHD felbontást sem használok, és a windowsban még így is nagyított karakterek, és ikonok vannak a képen). Egyáltalán, van UHD felbontásban megfelelő tartalom?
- azért az IT egyéb területein is soxor szembesülök azzal, hogy a trehány/hozzánemértő/kevésséfizetett/stb. programozók olyan hardver követelményeket állítanak a szemetük futtatásához, hogy a világ pénze nem volna rá elég. Bakker, tanuljon meg kódolni rendesen a fejlesztő, és akkor elfutkározik kissebb igényű masinán is a cucc... -
MPowerPH
félisten
Egyebkent ennek a cikknek semmi ertelme, mivel az SLI lathatoan megy az adott game alatt, raadasul eleg jo a hatasfokkal. Talan zarhato is lenne, mert csak folosleges indulatokat szul. Pluszban nem latok olyan nagy cimet az elmult 1 evbol, ahol nem mukodik megfeleloen... Sokszor volt mar temetve a multi gpu, de azota sincs jelentosebb valtozas. Talan tobb ember hasznal ket kartyat, mint par eve.
-
Angel1981
veterán
Nincs ebben semmi meglepő, igazából már vagy 2 éve sejteni lehetett, hogy a több GPU-s rendszerek játékbeli támogatottsága lassan, de biztosan szorulni fog vissza.
-
nubreed
veterán
Sosem láttam értelmét a több gpu-s konfigoknak és, hogy olyan szörnyeket építsünk amiben kettő (vagy még több)nem kevés pénzbe kerülő kártya dorombol, azaz fogyaszt nem kevés áramot és termel nem kevés hőt. Jó, hogy a fejlesztők sem erőltetik ezt annyira.
-
#25954560
törölt tag
válasz
#06658560 #58 üzenetére
lehet h azert kicsi a piac, mert specialis megoldast igenyel. picit hasonlit a tobbcpu-s (tobb socket-es) rendszerekhez. amiota az operencias rencer lekezeli oket es van numa tamogatas, azota nem jelent problemat a multi-cpu rendszer. 'csak' kellett hozza egy megfelelo osszekottetes (korabban a chipset szintjen, kesobb mar kozvetlenul a cpuk kozott pl qpi-on v hypertransporton keresztul). ugylatszik erre egyelore nincs esely gpu-knal. szoval majd talan a pcie-t valto szabvanynal mar lesz ilyen.
-
MPowerPH
félisten
Azert pont itt 4k-ban jo az SLI. A 40+ FPS mar boven jatszhato a 22-vel szemben. Foleg ha tepsz is rajtuk egyet, az meg egy 8fps pluszt hoz biztosan.
Nekem CF utan az SLI nagyon kellemes csalodas... Se mikrolag, SLI mindenhol flottul megy. Csak kar, hogy az egesz rendszert megterheli.. -
Prof
addikt
Mivel NVidias-s jatek, megszep hogy nem.
Barmit le lehet lassitani ultra/very high quality post process eroforraszabalo lathatatlan szurokkal, effektekkel.
Aki valoban jatszani akar az 1 db nem csucs kartyaval siman 60 fps FullHD-ban jatszik vele, mert nem hulye hogy 2 opcioval lefelezze az fps-t.
-
TTomax
félisten
Az SLi megy a CF szokás szerint megint nem... nem az első eset,nem is az utolsó.A tesztoldal eredményei meg érdekesek... máshol meg ezt mérték... [link]
Meg így fogy el a 256bites maxwell...4k-ban meg tökmindegy,oda két 980 se elég...
-
VaniliásRönk
nagyúr
Nem értem ez miért tragédia. Akinek telik szuper-sportkocsira azokért sem hullajt senki könnyeket, hogy nem száguldozhatnak akárhol 300 feletti tempóval. A probléma nem az, ha az extrém igényeket nem elégítik ki, hanem inkább az, ha még az átlagfelhasználóra sem figyelnek oda (bughalmaz a játék megjelenéskor). Ez utóbbira tényleg nincs mentség és ez valóban súlyos gondokra utal.
-
Prof
addikt
válasz
#06658560 #58 üzenetére
Oszinten engem nem izgat a 4K. Anno a HD izgatott (projektornal) Az nagy elorelepes volt egy CRT analog TV-hez kepest, mar a FullHD is sokkal kisebb ugrasnak tunik hiaba 4x annyi keppont.
Amig nincsenek olcso 2m-es atmeroju kijelzok (marpedig mobilba notiba nincsenek) sok ertelmet nem latom. Ezek pedig azert jonnek, a 65-70colos kijelzoket egyre olcsobban lehet kapni. Tehat csak ido kerdese, hogy legyen a 4K-nak is ertelme.
-
-
MPowerPH
félisten
Ha a hutes mevan oldva, akkor az a ket feltegla huvosebb lesz, mint Neked az egy. Ez nem vaskalapossag... Ha mindenki igy gondolkozna, akkor meg 10 ev mulva sem mozdulnank el FHD-rol. Es akar tetszik, akar nem, pl a GTX980 topikbol a tobbseg mar 1440p-ben utazik, de van aki mar lepett 4k-ra. Iteletet pedig addig ne mondj, amig nem probaltad.
Egyebkent elkeseritelek, az ilyen vackokat leszamitva az SLI mindenhol mukodik... -
Prof
addikt
Hat igen ez van, kicsi a tobbGPU-s tabor.
Egy AMD A8-10-es mobil kaveri pedig elegszepen muzsikalna egy hozzaszabott GPU-val CF-ben.
Nem beszelve arrol, hogy az osszes csucsgamer laptop SLI vagy CF.
Megjeleneskor tul sok minden jatekost erinto kerdes van ahhoz, hogy a multiGPU tamogatasaval foglalkozzanak. Kulonosen ervenyes ez kisebb studiok, indie-k jatekainal.
-
Strezi
őstag
Nagyon helyesen teszik hogy nem foglalkoznak ezekkel a speckókkal
Ideje lenne kikényszeríteni, hogy a grafikuskártya gyártók jöjjenek ki egységes felülettel, vagy oldják meg hogy transzparensen menjenek ezek a megoldások a jelenlegi API-k alatt!
-
Duck663
őstag
De korábban lehetőség volt és, ha ebben az irányban lettek volna kutatások, akkor a fejlődés irányai is másképp alakultak volna, ezért nem kell elzárkózni semmi elől!
Lehet esetenként lessítana, ezért kell kutatásokat végezni, hogy hogyan lehet nagymértékben javítani a skálázódást.
Egyébként pedig lehetne ilyen a DX12-ben is szabványos formában, a Mantleben pedig más is használhatna ilyesmit.
-
babkukta
senior tag
sose gondolkodtam multi gpu-s rendszerben. Az 1 karis rendszereket jobban preferálom... azt legalább biztos, h támogatja minden
Egyébként csak a gép szellőzésével meg lehet oldani azt, h a felső vga nem főjön meg?? -
BlackSoft
addikt
Elég egyetlen GPU is. Csak legyen benne kérem szépen GDDR8 16GB vram, 15Ghz-es GPU, 8000 CUDA mag, stb stb stb....
1080p-re nem elég egy GTX 980 se emberek! Hogyan van tervezve ez a dolog? És 4K-nál járunk, 2 év, és 4K általános lesz, mint telefonkijelző, de kell 6db GTX2080 Titan Black Z Lightning, hogy legyen 50fps egy-egy játékban... Nemhogy több GPU-s támogatásra rá kellene gyúrni, ha már optimalizáció nincs, hanem továbbfejleszteni a multiGPU-s működést egy magasabb szinte.
Amúgy meg ez a haldokló SLI/CF téma már 10 éve megy, és még mindig van, és lesz is sokáig. Vagy mi más történne? Kiadnak egy játékot, és a hivatalos max rendszerkövetelményhez azt írják "no way to run at maximum settings"??? És csak 1080p-ről beszélünk, mert az nekem nem normális, hogy némely játékban 30-40fps a max, amit kisajtol egy 200k-s csúcskártya, főleg amit mondtam, hogy az 1080p lassan elkezd csökkeni azok közt, akik 200k-ért tudnak venni kártyát. Senki sem fog ezek közül FHD-val szórakozni pár év múlva, lesz 4K meg majd 8K, és a többi el lesz felejtve... 2006-2007 óta használok FHD-t, azóta elfelejtettem az 1024-et, hát még a 640x480-at... 2017-re emlékezni sem fogok már a 720p-re, csak az 1080p-re, hogy régen bizony olyan volt....
-
#16939776
törölt tag
Milyen szomorú hír, pedig a vízhűtéses Matx-es kuckómat eddig arra az esetre tartogattam, ha -valami csoda folytán- megint megérné 2 GPU-val "szenvedni". Pedig már olyan szépen alakultak a használt VGA árak
(#42) Imre921: pedig még 2008-ban FHD-monitor miatt döntöttem CF mellett, aztán jött egy másik pakk VGA, aztán jöttek a gondok..
-
Abu85
HÁZIGAZDA
válasz
djculture #41 üzenetére
A logó az reklám, ez a CryEngine új verzióinak sajátosságait nem változtatja meg.
Lehet rakni bele extra effekteket, de a CryEngine képességei túlmutatnak az NV effektjein. Egy SSDO-t csak a hülye cserél SSAO implementációra. Maximum berakják mellé a HBAO+-t, de ettől az SSDO jobb marad.
-
-
Imre921
tag
Nem 'hálistennek. Elég volt néhány youtube video is hogy jókat mulassak a sok észkombájnon. Na az ilyeneknek elhiszem hogy igénye van arra hogy 2-3 féltéglát pároljon a gépben, ahelyett hogy összerakna egy értelmes gépet ami önmagában legalább addig marad értékálló mint a minipaks.
De lehet csak én vagyok vaskalapos ezzel a felfogással, mert nekem az a f@ssz@r 1080p is megteszi egy értelmes konfigon, 1 darab monitoron, paks nélkül a játékélményhez
Kocsimra se szerelek 8kereket mert tél van. Arra találták ki a téligumit
De ez én vagyok. És azt is meg tudom érteni hogy a mai tökéletlen világunkban igenis van igény a többkártyás rendszerekre. Nem azért mert van értelme, hanem mert attól leszel János a vakmerő
'Hálistennek ahogy látom egyre inkább kezdenek elmozdulni a fejlesztők is most már meg mindenki a teljesítmény/fogyasztás, avagy az innováció azon területei felé ahol a technológia párosul a logikával és a józan ésszel. És ezt nem azért írom mert nekem ingyen se kéne semmilyen sli vagy cf rendszer.
-
Jack@l
veterán
Köszönjük a heti játék reklámozós cikket, akarom mondani "véleményt".
Nemrég még arról ment az észosztás, hogy majd amd-vel megy hatékonyabban 6-7 gpu is a gépedben és hasonlók, úgy látszik rövid az emlékezet... -
djculture
félisten
Az baj az Evolve is olyan hogy nem látom a nagy gépigényhez társitott húde szép grafikát, a szörny oké de a környezet néha hl2 szintű
-
Dilikutya
félisten
Ez nem kimondottan tömegigény. Gyakorlatilag olyan kicsi réteg lehet, hogy a fejlesztők nem is nekik teszik bele a támogatást, hanem inkább maguknak, meg hogy elmondhassák, hogy ezt is tudja. Ha beleteszik.
Én konkrétan el se tudnék helyezni 3 fHD monitort sem az asztalon még akkor se, ha a gépet leteszem. Bár játékra aligha vennék még két másik monitort, ha egyébként nincs rá szükségem, márpedig itthon nem igazán van. Munka és átlagosnak mondható igények mellett, mint magán- és társadalmi élet úgy sincs napi 1-2 óránál több időm játszani, vagy annyi se, kihasználatlan lenne ennyi monitort, és szerintem ezzel a többség így van. Nem éri meg a bele fektetett pénzt.
Gamelés helyett játszok, az olyan szép szó, és még jelentése is van.
-
Duck663
őstag
válasz
bitblueduck #26 üzenetére
Korábbi Radeonoknál még talán az x1xxx szériánál?! Ebben nem vagyok biztos, de választható opció volt melyiket szeretnéd használni. Ennyi, csak tovább kellett volna fejleszteni, költeni kicsit a kutatásra, nem eldobni, persze akkor még szó sem volt saját API-ról, de a lehetőségeket akkor is nyitva kell hagyni. Nem hiszem el, hogy ne gondolkodtak volna el azon, hogy mi lesz ha a játék jelenetek egyre komplexebbé válnak és megnő a másolandó adatok mennyisége. Az AMD folyamatosan hoz érthetetlen döntéseket. Most is.
A scissor vagy a sakktábla meg remekül működhetne elvileg akárhány GPU-val, is, mert a képet akárhány részre feloszthatod, persze előbb-utóbb biztos lenne valami limitje, de nincs az, hogy GPU-ról-GPU-ra kellene másolgatni adatokat, ha van mondjuk 16 GPU, akkor 16 GPU-t összekötni az adatmásolást kezelni, egyszerűen lehetetlen feladat, de ugyanezt 16 felé felosztott képen nem érzem annak. Vagy hogy nagyobb legyen a terheléselosztás és kisebb eséllyel kapjon 1 GPU gyorsan számolható területet, míg egy másik lassút, egy extrém felosztású sakktábla, ahol mondjuk 1-2000 kis négyzetre van felosztva, és véletlenszerűen kapják a GPU-k a számítandó négyzeteket, így a skálázódás is biztosan javulna valamelyest. Jó a geometriát az összesnek le kell képezni, de ki lehet erre gyúrni egy GPU-t. Kis kreativitás kellene, vagy csak hogy egyszerűen végiggondolják az egészet.
-
#90933760
törölt tag
A HD4000 még kicsit másabb volt mint a mai kártyák, ott a 4770 összement a 4850-nel. Ugyanaz a chip volt csak kisebb csíkszélen. Egy 7970 nem fog együtt menni egy 7870-nel. Kivétel persze van, a 7870XT, mert az egy módosított Tahiti chip.
Miért nem érte meg? Nem nagyon vannak messze egymástól a 4770 és 4850, ott valami más gond is volt ha nem skálázódott rendesen.
-
7time
senior tag
válasz
seederking #29 üzenetére
A 8x PCI-E elenyésző sebességcsökkenést okoz legfeljebb abba rakod a gyengébb VGA-t.
Akkor pl ha nekem most adott egy r9 280x akkor az r9 családból választhatnék cf-re? Ha jól értem.
R7-2xx családból is választhatnál de nem lenne érdemes, viszont R9-2XX nem rakhatsz össze R9-3XX kártyával, igen a memória az nem adódik össze és ez nem is fog változni.
Baltoafarkas
Én úgy tudom hogy bármilyen HD 77XX kártyát lehet párosítani csak nem érdemes, nekem volt HD4770 -HD 4950 CF próbából összerakva és működött csak nem érte meg.
-
#90933760
törölt tag
Túl gyenge kártyát nem tudsz mellétenni, mert csak szérián belül a mellette lévővel működik eleve. Itt meg nincs túl kicsi. 7870, 7850 pl.
7790 mellé nem fogsz tudni rakni 7730-at, ahol a túl kicsi eset előjöhetne.És nV kártyákra ez nem nagyon érvényes, a 680 nem fog együtt menni a 670-nel, azt érdemes tudni hogy náluk csak azonosak mennek. AMDnél is csak a szorosan együtt lévők.
Az R9 280X csak az R9 280-nal megy együtt. (7970+7950 lényegében) Bár hirtelen fejből nem tudom pontosan, az AMD átcímkézési metódusát.
A PCIe nem számít, minimálisan közbeszól de attól még működik. De legyen legalább 16x+8x a felállás. 16x+1x már azért kiüt.A memória nem adódik össze, majd esetleg a jövőben ha az AFR le lesz váltva valami más szétosztó feldolgozásra.
-
arn
félisten
en meg a 4800 korszakban probaltam ki a cfot es az x2ot, annyi eleg is volt... benchmarkolason kivul kb semmire nem valo. hangos, sokat eszik, sokkal nagyobb az esely vmi bugra. azota meg nem fordulna a fejemben meg egy tobbgpus rendszer.
-
farkas1
tag
"az a réteg, amely képes 4K-s kijelzőre költeni"
Szerintem már szinte mindenki tud 4K-ra vagyis UHD-re költeni, mert ma néztem az Ósan újságban, hogy a Samsung 40" UHD HDMI2.0 149 ezer pénz. Ez már bőven a megfizethető kategória.
Viszont vga-k még gyengék hozzá, azon kell fejleszteni nem keveset. A 3,5GB vram biztos kevés. -
seederking
őstag
Igen viszont a lapok "többsége" nem rendelkezik 2 ugyan olyan sebességű pci foglalattal sem. Ez is gondot jelent nemde? Akkor pl ha nekem most adott egy r9 280x akkor az r9 családból választhatnék cf-re? Ha jól értem. Nekem pl az a legbosszantóbb,hogy a vga memória nem adódik össze (ez elég jól jönne pedig).
-
7time
senior tag
válasz
seederking #27 üzenetére
Persze két különböző kártyát is be lehet rakni csak 1 családból legyenek, 6850 nem megy 7870 -el, valamint túl gyenge kártyát sem lehet vagy célszerű használni mert visszafogja a nagyobbat.
-
seederking
őstag
Sajnos ez mindíg is így volt és szerintem jó ideig így is lesz. Régebben elgondolkodtam én is egy 7870 Cf-en de beszélgettem egy tulajjal akinek ezzel a duóval volt felvértezve a gépe és a panaszon kívül sok jót nem tudott mondani sajnos. Pedig milyen jó lenn ha pl egy gyengébb kártyával meglehetne támasztani az erős vga-nkat ha épp nincs duplikálva az erre szánt összeg a pénztárcánkban. Nem tudom egyáltalán kivitelezhető-e hogy egy erősebb vga mellé egy gyengébbet rakjunk cf-be
Pl egy 7870-et meg egy 7850-et (éssatöbbi.) pariba lehet-e kötni egyáltalán...vagy csak azonos kártyákra van kitalálva a cf.?
-
bitblueduck
senior tag
pontosan ezt szerettem volna írni. bár nem értek hozzá annyira, hogy megmondjam a tutit de nem hiszem el, hogy csak 1GPU-s meg AFR algoritmusokat lehet írni és rendes terheléselosztó eljárások nem létezhetnének. egy kis R&D igazán mehetne a témára... akár az API tervezők részéről is.
-
cacasz02
aktív tag
Asszem nem csak a több kártya támogatásának hiánya miatt bénák a játékok. Pl bf4 bfh. Ugyan az a két játék, más textúrákkal. Na ennek mi értelme? Bf4 is csak a phantom easteregg-től lett érdekes. Remélem folytatják ezt az irányt.
-
IamMenyus
tag
Szokásos korán kiadott félkész-optimalizálatlan játék, ebből következtetést levonni a többkártyás rendszerre közönséges provokáció
Az sli köszöni jól van, 4k -nak értelmetlen nekifutni nélküle.
-
#52815360
törölt tag
Nekem 1 monitor is elég
-
MPowerPH
félisten
Ettol fuggetlenul en is jonnek vissza 1GPU-ra, remelhetoleg az uj AMD vagy NV vga tartogat majd egy nagyobb novekedest, es talan meg optimalizalni is tudjak majd a fejlesztok azokat a vackokat, amiket most kiadnak. Mert ugye arra is lustak, reszben onhibajukon kivul.
Baltoafarkas: Az osszes NV kartya veszit a lenduletebol magas felbontasokon.
-
Borisz76
nagyúr
Én értem a fanatikusokat mert én is egész nap játszom mióta munkanélküli vagyok
De aki ennyire ért hozzá és tudja hogy drága dolog a több monitor / 4K monitor és sokba kerül 2-3-4 db jó VGA is annak tudnia kell arról is ,hogy egyre kevesebb játék jön ki ami támogatja a többGPU-s rendszert.
Azaz hiába öl bele egy csomó pénzt és elmondhatja hogy : hú meg há ....Játékok alatt ( 1 pár kivétellel ) nem származik belőle előnye !
Jelenlegi felső-csúcs VGA-nak ideális a FHD felbontás...és azért nem olyan csúnya az
Majd 2-3-4 év múlva mire lesz olcsóbb árban 4K-s monitor/tv addigra lesz hozzá olyan VGA is ami képes 1 maggal is kényelmesen a 40-50-60 fps-re.....vagy akár többre is.
Egyébként meg kár ezen lovagolni akinek sok pénze van de sütnivalója kevesebb az úgy is beleöli a pénzt....aztán később meg jön a fórumra panaszkodni , hogy nem megy....
Ennyi.
Én biztosan nem fogok közzéjük tartozni -
MPowerPH
félisten
Nordon neha siman benezett 35 FPS kore a game, ami tobb mint nem idealis. Alapbol ha egyedul vagyok, akkor nincs gond, de ugye alt. a tobbseg multizik. Ez igaz minden masra is.
Borisz76: En a reszemrol meg nem talakoztam olyan game-val, ami alatt nem ment a tobb gpu. 4k-ban egyet ertek, tobb dolog miatt is gyerekcipoben jar meg, es erzetre ugyan az, mint ha FHD monitort neznel. Ellenben a 3 monitornak megvan a varazsa, amibe ha egyszer belekostolsz, mar eleg gagyin hat az, ha nincs kijelzo a teljes latokorodben.(foleg ha szimulatorozol...)
-
proci985
MODERÁTOR
assettoban minimalis kompromisszumokkal mondjuk megvan a 60fps egy GTX970el is (nekem megvolt), viszont ahogy nezem az Evolvenek kene a masodik kartya.
az egeszben az a gaz, hogy a cryengine a crysis3 alapjan az egyik legjobban skalazodo motor.
mondjuk ezek miatt a hirek miatt (meg a rift miatt) agyalok azon, hogy ha leokezzak a 970em garijat, akkor lehet egy 980 / 290x lesz FC blokkal tuninggal, aztan visszaterek egy kartyara.
-
MPowerPH
félisten
"A tobb GPU-s gepek mar evekkel ezelott elvesztettek a letjogosultsagukat"
Probaltal valaha gamelni 4k-ban, vagy akar 3 monitoron, 1 kartyaval? Megsugom, elegge nehezkes. A nagyobb cimek egyike sem jatszhato jelenleg a legerosebbnek szamito GTX980-al, de meg egy Assetto Corsa is doglodik 1GPU-val, ha 8-nal tobben vannak a palyan.
-
MZperX75
addikt
"Vélemény: elvesztik létjogosultságukat a több GPU-s PC-k?"
Talán egyszer,de egy fecske nem csinál nyarat.....
Az utolsó több GPU-s rendszerem egy 4870CF4850 majd egy 4870 CF volt
Majd elmúlt a varázs,ma egy szimpla APU is sok,mivel 2 hónap/1 órára csökkent a játszási időm.
-
Borisz76
nagyúr
Pont az ilyen "nem támogatás" miatt nem veszek én sem másik 7970-es karit.
Eldöcög ez FHD-n.
S ha majd 2-3 év múlva esetleg veszek egy 4K-s kijelzőt...szóval addigra biztos lesz erősebb VGA is.
-
Duck663
őstag
A gyártók ebben épp úgy hibásak, mert nem az AFR-t kellett volna erőltetni. Korábban volt olló, sakktáblás felosztás, azokat kellett volna fejleszteni, amikor tulajdonképpen a 2 vagy több GPU párhuzamosan dolgozik, és nincs nagy mennyiségű adatmásolás a 2 vagy több egység között. Lehet a skálázódása nem olyan jó, mint az AFR-é, de a 0-nál (mint ami most van) mégis több, jobb.
Ráadásul épp az AMD dobta el az scissort?! Amikor azt még különféle teljesítményű APU+GPU pároshoz is tudták volna használni! Egyszerűen csak nem középen osztották volna el a képet, hanem az APU és a GPU teljesítményének megfelelően arányosan. Vagy a sakktáblánál, fel van osztva a képernyő 64 kis négyzetre, az APU számol x számú négyzetet, míg a GPU 2x számút, amik összege lesz a 64.
-
Milka 78
nagyúr
Nem gonosz...inkább magas labda
Amúgy baromi szomorú dolog ez.4 különböző cf rendszerem volt,imádtam,rá sem néztem a szimpla kariks rendszerekre,de felettébb idegesítő,hogy a kedvenc játékod nem támogat multi gpu-t,miközben kellene a kraft.Ráadásul egyre rosszabb a helyzet.Amióta szimpla karit hajtok nyugodtabb életem,pedig istenemre mondom,már szúrnám is mellé a mostani párját,ha lenne normális támogatás. -
berVi
senior tag
A tobb GPU-s gepek mar evekkel ezelott elvesztettek a letjogosultsagukat, csak ezt a multi GPU fanok nem hajlandoak tudomasul venni, a GPU gyartok meg kapnak az alkalmon, mert legalabb hamarabb tudjak kisoporni a raktarakat. Win-win, a t. fogyaszto orulhet a rendkivul draga, bar teljesen ertelmetlen termeknek, a gyarto meg orulhet a pluszbevetelnek.
-
jedis
senior tag
Pedig a 4K őrület miatt nem kicsit van létjogosultsága a több GPU-s konfigoknak ! Ettől függetlenül valahol megértem a játékfejlesztőket is , mivel mostanában minden játék "tegnapra kell ", és a több GPU-s optimalizáció nem biztos hogy belefér a kiadás napjáig ! Mondjuk örülnék neki, ha minden kiadott játéknak mostanában, csak ez az egy baja lenne !!!
-
Departed
őstag
Mindig mosolyra fakaszt milyen szánalmasra butított kártyát adott ki az Nvidia 960 néven.
-
milan18
aktív tag
Milyen játék ez hogy 290x veri gtx 980-at?
-
'zanyjukat! Amúgy az egy nyákon lévő 2 GPU esetén is csak az egyik GPU-t használja, vagy az működik rendesen?
Új hozzászólás Aktív témák
- Székesfehérvár és környéke adok-veszek-beszélgetek
- Honor 400 Pro - gép a képben
- Formula-1
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Futás, futópályák
- Kerékpárosok, bringások ide!
- One otthoni szolgáltatások (TV, internet, telefon)
- CASIO órák kedvelők topicja!
- Kuponkunyeráló
- Okos Otthon / Smart Home
- További aktív témák...
- LG 40WP95XP-W - 40" NANO IPS - 5120x2160 5K - 72Hz 5ms - TB 4.0 - HDR - AMD FreeSync
- AKCIÓ! Gigabyte B450M R7 2700 16GB DDR4 512GB SSD RX 6600 8GB GDDR6 CM MasterBox 5 Lite 600W
- Crucial 240GB SSD eladó
- 125 - Lenovo Legion Pro 5 (16ARX8) - AMD Ryzen 9 7945HX, RTX 4070
- 122 - Lenovo Legion Pro 5 (16ARX8) - AMD Ryzen 7 7745HX, RTX 4070 (48 hónap garancia!)
Állásajánlatok
Cég: Liszt Ferenc Zeneművészeti Egyetem
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest