Hirdetés

Hozzászólok Aktív témák

  • Fiery

    veterán

    "Az egyik lehetséges magyarázat, hogy az AMD a Socket TR4 foglalatot modernizálja, így az X499-es vezérlő mellett specifikálja az összes memóriacsatorna bekötését. Ettől még a korábbi Ryzen Threadripper processzorok működőképesek maradhatnak, csak az alaplapi DIMM csatolók felébe kell helyezni hozzájuk a memóriákat. Ez a lépés azért lehet logikus, mert a következő generációs Ryzen erősen megnöveli a magszámot, és a hírek szerint akár 64-magos Ryzen Threadripper modellek is lehetségessé válnak, amihez már nem feltétlenül elég a négycsatornás memóriavezérlő, nyolc csatorna viszont megfelel."

    A platform frissitesre ez magyarazat lehet, de az IMC csatornak szama fuggetlen a chipsettol. Az X499 valodi ujdonsaga egyedul a PCIe 4.0 tamogatas lehet, mas ertelme nincs a chipsetet frissiteni.

    Iden egyebkent azert nem frissitette az AMD a chipsetet, mert az alaplapgyartok tobbsege nem szivesen fejleszt ilyen niche termekhez evente uj alaplapokat. Relative keves Threadripper talal gazdara negyedevente, egy-egy alaplap -- plane ilyen bonyolultsagu termek -- fejlesztese, validalasa majd termektamogatasa viszont jo sok penzt felemeszt.

  • S_x96x_S

    aktív tag

    > Az X499 valodi ujdonsaga egyedul a PCIe 4.0 tamogatas lehet,

    a legfontosabb ok biztos ez ( lásd [1]) ,
    de az is lényeges, hogy az Intelnek mik a tervezett lépései.
    ( ez kérem szépen presztizskérdés és marketing - kié a jobb platform. )
    És a szük keresztmetszeteket ( pl. memória csatorna) fejleszteni kell

    [1] AMD Vega 20 GPUs To Feature XGMI GPU-To-GPU PCIe 4.0 Interconnect , Will Compete Against NVIDIA’s 300 GB/s NVLINK 2.0
    https://wccftech.com/amd-radeon-vega-20-gpu-xgmi-pcie-4-interconnect-linux-patch/

    Habár az PCIe4.0 alaplapok elég drágák lesznek - akár + $100-$300 extra költség. ( de 1 év alatt sok minden változik és akár az árak is szelidülnek )

    És ki tudja, lehet, hogy már Thunderbolt 3 -as is lesz benne.

  • Dr. Akula

    nagyúr

    A 8 csatornás memória nem rossz, sávszél az mindig jöhet, de a PCIE 4.0 azért eddig se volt a Radeonok bottleneckje, előbb némi teljesítményre kéne gyúrni, mert ez akár 100.0-ás PCIE-vel se versenyképes.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • h_143570

    addikt

    A PCIe 4 nem a sebbeseg miat kell.
    Hanem mert megvalosithato rajta egy Cache/Memoria koherens adatkapcsolat. Pl a CCIX
    Azaz direkt memoria megosztas GPU es CPU kozott.
    Arrol nem is beszelve, hogy az Infinity Fabric is PCIe alapokon nyugszik.

  • Legyes

    tag

    Nekem úgy tűnik, hogy az AMD próbál azért reagálni a sírásokra (amit a fejlesztési idő megenged), mert a TR2-nél azért mindenki az Infinity Fabric és a memória elérés miatt sír.

    -=LeGyEs=-

  • Dr. Akula

    nagyúr

    Ez nagyon szép, de attól hogy szabványosan lesz lassú a Radeon a Geforcehoz képest, miért lesz nekünk jó?

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • h_143570

    addikt

    Gamereknek jo kerdes, elmeletileg drasztikusan csokken a kesleltes. PCIe meg mindig ritkan nagy adat menziseg mozgatasra jo.Meglepne ha ertelmes gyorsulat hozna a jelenlegi motorok atervezese nelkul.

    Nem gamer fronton valoszinuleg meszarlas lesz a tobbi alternativahoz kepest. Bar valoszinuleg csak a Vega 20 kapja meg abbol meg nem varhato gamer verzio.

    Ettol fuggetlenul ha tiszta szamitasi teljesitmenyt es memoria szavszeleseget nezunk akkor a 2080 TI lesz az elso Gefore ami erosebb a Vega 64-nel.
    Azt, hogy ez gaming eseten miert nem mutatkozik meg azt meghagynam az osszeeskuves elmelet gyartoknak.

    Oszinten egyenlore marad a Navi varas illetve az RTXes katyak fuggetlen telejesitmeny benchamrkjai lehetoleg nem NDA-t alairo szak portalokrol.

  • Dr. Akula

    nagyúr

    Még az x16-ot se használják ki, alig gyengébb x8-on egy videokártya. Ezért én még a jelenlegi 3.0-ban is látok tartalékot bőven, hiába növelik az áteresztőképességét, ha egyszerűen nem akar átmenni rajta semmi. :) Lehet hogy előbb fogja egy jó SSD igényelni, mint a videokártya (feltéve hogy maradnak az x4-nél, és nem akarnak több sávot összefogni).

    "Azt, hogy ez gaming eseten miert nem mutatkozik meg azt meghagynam az osszeeskuves elmelet gyartoknak."
    Valószínűleg a Vega olyasmit gyorsíthat csak, ami 1-2 tesztprogramban jó csak, a valós alkalmazásokban (főleg játékok) nem szerepelnek. Így van egy jó magas számértékük, amivel villoghatnak az Nvidia előtt, csak épp meztelen a király. :) Nem hiszek az összeesküvésekben, mindig a legegyszerűbb magyarázat a legjobb.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • S_x96x_S

    aktív tag

    >Még az x16-ot se használják ki, alig gyengébb x8-on egy videokártya.
    >Ezért én még a jelenlegi 3.0-ban is látok tartalékot bőven, hiába növelik
    >az áteresztőképességét, ha egyszerűen nem akar átmenni rajta semmi.

    Más a videókártya és más az AI/DL/ML kártya felhasználási területe.
    Ne a játékokból általánosíts - azoknak az átlagos hardveren is futniuk kell.

    bizonyos területeken mostmár a szük keresztmetszet a PCI lett.

    THE SYSTEM BOTTLENECK SHIFTS TO PCI-EXPRESS(2017)
    https://www.nextplatform.com/2017/07/14/system-bottleneck-shifts-pci-express/

    Nem véletlenül van létjogosultsága az https://en.wikipedia.org/wiki/NVLink -nek.

  • erer1000

    őstag

    LOGOUT blog

    játék közben alig mocorog 1-2%on a bus interface load , max textúra betöltéskor ugrik meg egyet, vagy ha nem fér el a VRAM-ban, és osztott memóriához nyúl.

    ezért is hulla mindegy a GPU nak játékkor hogy most smucig módon alig kap egy pci-e 3.0 x4-et, vagy megkapja a 16ot.

    A lényegi rész a VRAM-ba van onnan meg gyorsan tud dolgozni, leszarja az interfész áteresztő képességét :)

    ez játék alatt, amikor nincs pálya betöltés hanem már ingame

    ez pedig BOINC alatt van már, GPUGRID projekt, ahol is rák, aids, és egyéb betegségek kutatásához felajánlhatod a GPU-d kapacitását.
    Ez már 1 fokkal azért messzebb van a gamingtől, és 1 lépéssel közelebb bármi máshoz

    10-12 óra míg végez a mostani feladat.

    és közben a bus interface load az 1% ról konstans 47-55% ra ugrott fel ( PCI-e x16 , és egy 1050Ti)

    Úgyhogy ahol rendes GPU-k mellett nem gaming van, ott simán el lehet hinni hogy szűk keresztmetszet a PCI-e 3.0 x16 is

    [ Szerkesztve ]

    Sony Ericsson W200i->Tmobile Vairy Touch->Alcatel OT 806->Huawei ascend Y200->Nokia Asha 302->HTC ChaCha->Blackberry Q10->Blackberry Priv

  • Dr. Akula

    nagyúr

    És hány embert érint ez a probléma? Van egyáltalán értelme rámozdulni ennyi ember miatt?

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • erer1000

    őstag

    LOGOUT blog

    hétköznapi embereket egyáltalán nem érint :)

    mondjuk aki 32mag 64 szálas TR-t vesz, az nem feltétlenül átlag.

    és az a valaki több csúcs GPU-t /akár Radeon PRO vagy Quadro/ belegyömöszöl és valami HPC feladatot ráereszt, akkor neki lehet hoz majd előnyt.

    igazából a 3.0 se hozott kb semmi jelentős előrelépést 2.0hoz képest :)

    iparban meg mint tudjuk eddig bottleneck volt a pci-e 3.0 is

    Sony Ericsson W200i->Tmobile Vairy Touch->Alcatel OT 806->Huawei ascend Y200->Nokia Asha 302->HTC ChaCha->Blackberry Q10->Blackberry Priv

  • Dr. Akula

    nagyúr

    "igazából a 3.0 se hozott kb semmi jelentős előrelépést 2.0hoz képest"

    Hogyne hozott volna. Azóta elég az x8 is egy videokártyának, azelőtt meg x16 kellett.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • erer1000

    őstag

    LOGOUT blog

    ? :D :D

    tessék?
    :DD

    szóval a kép alapján 4% különbség van hogy x16 3.0 , vagy x8 2.0 (ami x4 3.0 sebesség :) )

    az a 4% az az hogy 60 FPS helyett 58FPS

    https://www.pugetsystems.com/labs/articles/Impact-of-PCI-E-Speed-on-Gaming-Performance-518/

    ezt nézd.

    3.0 x16 a maga 16GB/s jével, és a 2.0 x8 a maga 4GB/s jével
    1 FPS en belül van :)

    [ Szerkesztve ]

    Sony Ericsson W200i->Tmobile Vairy Touch->Alcatel OT 806->Huawei ascend Y200->Nokia Asha 302->HTC ChaCha->Blackberry Q10->Blackberry Priv

  • h_143570

    addikt

    A Vega profeszionalis felhasznalsi teruletre keszult, ezert menyko eros computeban, nem veletlenul duplazodott az aruk a banyasz oruletben.
    Az hogy a kartya nyers ereje miert csak gaming teruleten nem mutatkozott meg arra van/volt sok magyarazat mindenki dontse el, hogy melyiknek hisz.

    Szemely szerint varom a DX11 korlataitol mentes grafikus motorokat..Bar azok meg jopar ev tavolsagban vannak.Talan a DXR add nekik egy loketet.

    Ami erdekes az, hogy ugytunik, hogy az NV is bele utkozott ugyan abba a falba amit az AMD par eve nem tud attorni. Miszerint erdemi sebbeseg novekedest gaming-ben nem tudnak kitermeli (csak a compute teljesitmeny novelesevel), helyete behoztak "jovobe mutato megoldasokat" pl Ray Tracing es AI. Radasul csak a felso kategoriaba.
    Nem veletlenul hozza vissza legujabb Metro a Physis-et es a Hairworks-ot a Ray Tracing melle.
    Ezt majd a nem NDA-s tesztek igazoljak vagy cafoljak.

    En Occam pengje helyett maradok Hanlon pengejenel ha emberi viselkedesre keresem a valaszt.

  • Dr. Akula

    nagyúr

    Most a DX11 korlátaira fogják, holnap másra, tegnap megint másra. :) Kifogás az mindig van, csak teljesítmény nem. A júzert meg csak az érdekli hány fps-t tud GTA-ban. Én is akkor untam meg a baszakodást Radeonnal, amikor GTA4 alatt 3 generációt elfogyasztva egyre kevesebb fps-t hoztak az egyre újabb csúcskártyák, a végén már -noretrictions nélkül el se indult 800x600 fölött. Crossfireben. Szerintem most is csak ezt a hagyományt látjuk, nincs itt semmi összeesküvés.

    A PhysX nem is baj ha visszajön, van a fizikán (is) mit javítani a mai játékokban. De raytrace helyett lehetne a nagyobb poligonszámra gyúrni, hogy ne kockákra húzott textúrákon csillanjon meg az a raytracelt árnyék, mert az nagyon kiábrándító. Ha meg választani kell, inkább a ratracet dobjuk, csak részletesebb modellek legyenek végre. Majd ráérünk azt megraytracelni ha lesz is hozzá kraft.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • Dr. Akula

    nagyúr

    hmm...

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • erer1000

    őstag

    LOGOUT blog

    :B :B

    Sony Ericsson W200i->Tmobile Vairy Touch->Alcatel OT 806->Huawei ascend Y200->Nokia Asha 302->HTC ChaCha->Blackberry Q10->Blackberry Priv

  • Kansas

    senior tag

    " végén már -noretrictions nélkül el se indult 800x600 fölött. Crossfireben. "

    Nem lehet, hogy épp a CF miatt? Nekem RX480-on semmi hasonló gondom nem volt a GTA IV-gyel, csak az, hogy nem igazán fogott meg a sztori.

    [ Szerkesztve ]

    I used to be a decent sysadmin, then I took an arrow in the knee... (BOFH)

  • Duracellm...

    veterán

    Nem annyira triviális a probléma, hiába alacsony a terhelés "gaming" szempontjából.
    Két leglátványosabb javulást a PCI-ex. kapcsolat energiagazdálkodásának L0s-re kényszerítése és az "above 4G decoding" bekapcsolása hozza Ryzen platformon.
    Mindkét módosítás mellékhatásaként a 3.0-s kapcsolat működésével járó, hozzáadott késleltetést csökkenti.
    Az első, a kapcsolat kis terhelése miatt folyamatosan low power módban lévő buszt veszi rá, a gyorsabb ébredésre, a második miatt, meg nem kell processzornak a memória címeket eltolni, újraszámolni minden egyes adatmozgatásnál ami a memória-vga között történik.

    Ha legalább ennyi hatása lenne a 4.0-nak, amivel drasztikusan csökkennének a megjelenítési problémák, akadások játékok alatt, nem kellene meggyőzni arról senkit, hogy a PCI-ex 3.0 elavult technológia...

    [ Szerkesztve ]

  • Dr. Akula

    nagyúr

    2 generációval azelőtt tudta, CF-el is. Csak addig "fejlesztettek" rajta, amíg sikerült nem tudnia. ez még a 4970-es időkben volt, azóta Nvidiám van, mert azóta mindig épp ez a jobb. Ha tudnának jobbat az AMD-sek, akár váltanék is, feltéve hogy ezúttal valóban jót csinálnak, nem kell mégegyszer -norestrictionozni vagy hasonlók.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • Dr. Akula

    nagyúr

    Nem mondom hogy tilos fejleszteni, mert ingyen bármi jöhet, csak azt hogy nem ezen múlik a Radeonok gyengébb teljesítménye, inkább arra gyúrjanak hogy a Threadripper mellé versenyképes videokártyát is fel tudjanak mutatni. Majd ha az már feszegeti a határokat, akkor lesz égető szükség PCIE4-re. Addig csak egy szép bónusz feature, ami jó ha van, de az se baj ha nincs.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • Kansas

    senior tag

    Tényleg, már tíz éves az a játék...
    Igazából per pillanat egál van a két gyártó kártyái közt teljesítményben, a 1080Ti-t kivéve mindnek van AMD megfelelője, csak a fogyasztásban gyengébbek(meg árban - köszi bányászok), de valóban nem bánnám, ha az AMD hasonló versenyhelyzetet csinálna VGA-téren is, mint amit CPU-téren összehozott.

    Kíváncsi leszek a NV RTX szériájára, tud-e valamit villantani játékban is az RT mellett, és ha nem, őket is fikázzák-e annyira, mint az AMD-t, hogy miért merészelnek technológiát újítani gamer-erő helyett...

    (#23) Dr. Akula
    1. ki mondta, hogy ingyen fog jönni és miért is kéne mindennek ingyen jönni?
    2. nem csak a VGA-knak tesz jót a gyorsabb PCIe, hanem pl. kevesebb sáv kell az NVMe SSD-knek is

    [ Szerkesztve ]

    I used to be a decent sysadmin, then I took an arrow in the knee... (BOFH)

  • Dr. Akula

    nagyúr

    Hát nemtom, már az 1080-nak se volt, közben gurítottak valamit ellene?

    "Kíváncsi leszek a NV RTX szériájára, tud-e valamit villantani játékban is az RT mellett, és ha nem, őket is fikázzák-e annyira, mint az AMD-t, hogy miért merészelnek technológiát újítani gamer-erő helyett"

    Én már megtettem. :D De remélem nem lesz igazam, és valamit teljesítményben is tudni fog, nem csak olyan inteles 5-10%-os kötelező kört.

    Úgy ingyen hogy nem lesz felára.

    "nem csak a VGA-knak tesz jót a gyorsabb PCIe, hanem pl. kevesebb sáv kell az NVMe SSD-knek is"

    Na ezt írtam valahol lejjebb, hogy elpbb fog az SSD-nek kelleni mint a vga-nak. Bár ugye arról volt szó hogy nem a teljesítmény a lényeg a 4.0-ban, de nekem leginkább az. :)

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • Kansas

    senior tag

    A Vega64 átlagosan épp annyit tud mint a sima 1080, csak többet fogyaszt.
    PH teszt.
    Anandtech teszt
    Techpowerup teszt

    I used to be a decent sysadmin, then I took an arrow in the knee... (BOFH)

  • Dr. Akula

    nagyúr

    A Threadripper / Ryzen is ugyanez, eléri az Intel szintet, csak többet fogyaszt. Asszem talán mégis előbb a fogyasztásra kéne rámenniük, az Nvidia még MaxQ nélkül is kevésbé fűti szét a lakást. 100W különbség a 180W-os alapnál (1080) azért nem elhanyagolható. Mintha az SLI-be betettem volna még egy 3. 1080-at, ami nem csinál semmit, csak hőt termel.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • Kansas

    senior tag

    A VGA-k esetében igazad van, de a CPU-k nem fogyasztanak lényegileg többet, csak úgy 10-15%-kal, már amelyik.
    Az AMD nagy baja, hogy mániákusan többcélú hardvert gyárt(at) és bár CPU-nál ez nem akkora gond, a VGA-fronton szvsz azért(is) szívnak, mert nem hajlandók kivágni a játékhoz felesleges részegységeket. Pedig akkor talán a Pro vonal is jobban fogyna.

    I used to be a decent sysadmin, then I took an arrow in the knee... (BOFH)

  • h_143570

    addikt

    A DX11 koraltokra mar evek ota ra van fogva.
    Az NV DX11 irt egy tobbszallasitott drivert ami az AMD nem tett meg arra szamitva, hogy a DX12re gyorsan at fognak allni.
    Ennek a varakozasnak az eredmenye kozismert.

    A Crossfile mindig is lutri volt mint ahogy az SLI is. A GTA4-nel meg nem lep meg a lassulas CF-ben.

    A PhysiX abban a formaban csak megint egy mestereseges piac szegmentacio ami csak latvany effektekre jo. A Havok a Red Faction sorozatban processoron kepes volt rombolhato vilagot krealni. Erre a PhysiX nem lesz kepes (nem technikai okokbol).
    Foleg azert mert nem epitheted be az alapjatek menetedbe ha a piac 70%-an (IGP-ket is beszamitva) nem mukodo kepes, a gyarto mesterseges korlatozasai miat.

    A Ray Trace tovabbi piac szegmentacio. Mar az NV sem tud tovabb teljesitmenyt novelni igy maradnak exclusive effektek es eye candy.

    Ami megjobban szetfogja verni a piacot. Ezen a remelhetoleg hasznalhato Intel GPU fog tudni segiteni evek mulva. Az AMD ignoralhato de az Intel nem.

    [ Szerkesztve ]

  • Dr. Akula

    nagyúr

    "A GTA4-nel meg nem lep meg a lassulas CF-ben."

    Engem azért meglepett, mert minél régebbi Radeonnal használtam, annál jobban ment, CF-ben is! Ha már egyszer tudták azt jól is, miért kellett "elfelejteni"?

    "Mar az NV sem tud tovabb teljesitmenyt novelni igy maradnak exclusive effektek es eye candy."

    Azért rá tudnának feküdni az SLI-re, vagy eleve többmagos kártyákat kiadni, ha a prociknál meg tudták oldani, itt is meg lehet, csak akarni kéne. A DX12-es iránytól se várok sokat, az egy dolog hogy a fejlesztők leprogramozhatják a CF/SLI-t (vagy akárhogy hívják épp az aktuális multiGPU-t), de valszeg ahogy eddig is, ezután is lusták lesznek, és amit nem old meg helyettük a driver, azt ők is elsumákolják. Főleg hogy a csúcstechnika nem a legnagyobb piac, a fejlesztők meg csak az átlagra mennek, annál több csak akkor jön ki a grafikából, ha azt valami automatizmus biztosítja. A driveres módszer (DX11 és előtte) legalább működött, mégha szarul is, de a semminél azért jobb volt.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • Dr. Akula

    nagyúr

    Most én is Threadripperben gondolkozok, az AMD leárazásai és az Intel felárazásai (gyártási nehézségek) miatt. De azt olvastam hogy az AMD kényes a memóriákra, ezt eddig nem csekkoltam, mert nem érintett, de itt mire kell figyelni? Ilyen ram árak mellett azért nem akar az ember lukra futni, hogy majd legfeljebb veszünk másikat, jó nagy bukót lehet kihozni belőle. A 2000-es Threadripperekben állítólag javítottak valamit e téren, de mit?

    [ Szerkesztve ]

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • h_143570

    addikt

    A tobb magos kartyara sem fognak fejleszteni ha alacsony az aranyuk a piacon. Nem eri meg, ezert purcant ki az SLI es CF.
    A 2 technologia mindig is felteteles volt vagy mukodik vagy nem. Mindig az lett mondva ha van lehetoseged akkor egy erosebb kartyat vegyel 2 gyengebb helyett.

    Es el is erkeztunk oda, hogy ha a piac egyik szereploje, radasul a nagyobb piaci hanyadal biro, nekiallt piacot szegmentalni, radasul mar sajat termek paletajan belul (lasd RTX).
    Akkor az uj effektek csak jelentos penzekert kerulnek be es nem lesznek a jatek alap reszei. Mivel csak a piac toredeken futna amit senki sem fog bevallani (lasd az AMD elore mutato GPU fejlesztesei).
    Ez tovabb hajtja a felhasznalokat a piac szegementalo fele aminek hala megal a verseny es a fejlodes is.

    Ennek hala a felhasznalok inkabb veszik a zart technologiakat es piacot szegmantalo ceg termekeit es ertetlenkednek, hogy nincs verseny, nincs fejlodes illetve magasak az arak.

    Ennek a kovetkezmenyei a processzor fronton ismertek (desktopon majdnem 10 evig csak 2/4 mag).
    A GPU fronton meg varhatjuk az Intelt mint megmentot, hatha ok hajlandobbak lesznek nyilt szabvanyokat tamogatni.
    Illetve a jatek fejlesztok elgondolkoznak az egy ceges zart technologiak hanyagolasan, egy 3 szereplos piacon.

    A DX12 es Vulkan illetve a 8+ magos processzorok talan elhozzak a varva vart attorest, na meg az Intel belepese a GPU versenybe. De az meg valoszinuleg evek kerdese, mire a jatek motorok es a fejlesztok atallnak. Addig marad a magas ar es a piac szegementacio.

    "Azért rá tudnának feküdni az SLI-re, vagy eleve többmagos kártyákat kiadni, ha a prociknál meg tudták oldani, itt is meg lehet, csak akarni kéne"

    Nem tudnak nagyon rafekudni, mert nem a szamolasi kapacitas a keves, ha az lenne a Vega 56/64 legazolta volna a 1080 TI-t, az NV meg nem szorakozna RTX-el.
    Jatek motor korlatok amit a DX11 tul hosszu ideig tarto tulelese es a sokaig csak 2/4 magos (gyors 1 szalas) prociknak koszonhetunk. A PCIe busz magas keslelteteserol nem is beszelve.
    Az NV erre meg rasegitett a Gameworks-el es egyebb zsenialis uzleti huzasokkal.
    De majd egyszer...

  • Kansas

    senior tag

    Őszintén szólva, én nem találkoztam problémával ebben a fene nagy memória-mizériában, pedig ami nekem van, rajta sincs a kompatibilitási listán - viszont ott virít a nagy Ryzen-embléma a csomagolásán és a gyártói oldalon is.
    Ráadásul a tesztek szerint igazából 2666MHz felett olyan óriási különbségek már nincsenek, és az új szériák gyárilag is ennél nagyobb frekiket támogatnak.
    A Threadripper gyakorlati felhasználásáról nem tudok sokat, az már kívül esik a büdzsémen és a "use case"-emen(tanulási célú virtualizáció, single-player játék) is, annak kapcsán attól tartok mást kell megkérdezned.

    I used to be a decent sysadmin, then I took an arrow in the knee... (BOFH)

  • Dr. Akula

    nagyúr

    Hát ezt mondom én is, hogy ha a fejlesztőre bízzák a lehetőséget, hogy ingyen dolgozhat, akkor nem fog élni vele. Míg ha automatikusan skálázódik, akkor látunk belőle viszont valami nyereséget.

    "Mindig az lett mondva ha van lehetoseged akkor egy erosebb kartyat vegyel 2 gyengebb helyett."

    De ha már a legerősebbnél tartasz, és még az is kevés (4K), akkor csak ez marad.

    A PCIE buszt meg se próbálják kihasználni, x16 helyett az x8 is bőven elég, de mint nemrég lett linkelve, x4-en se gáz a helyzet. Ez biztos nem korlátoz semmit, mert akkor az x16 is 100%-on pörögne.

    "Nem tudnak nagyon rafekudni, mert nem a szamolasi kapacitas a keves"

    Akkor nem adna folyamatos képet 4K-ban egy SLI 1080, míg a szóló 1080 szaggat. :)

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • h_143570

    addikt

    "Hát ezt mondom én is, hogy ha a fejlesztőre bízzák a lehetőséget, hogy ingyen dolgozhat, akkor nem fog élni vele. Míg ha automatikusan skálázódik, akkor látunk belőle viszont valami nyereséget."

    Es akkor kapunk egy rakat GameWorks-ot tartalmazo jatekot.

    Az automatikus skalazas pedig olyan szepen hangzik, csak egy 10 eve bekonzervalodott piacon nem nagyon volt ra lehetoseg. Utanna meg evek mire lesz barmi valtozas.

    "De ha már a legerősebbnél tartasz, és még az is kevés (4K), akkor csak ez marad."

    Maradni maradna de tovabbra is lutri, hogy a jatek motor kepese megoldani a problemat illetve, hogy milyen skalazodassal.

    "A PCIE buszt meg se próbálják kihasználni, x16 helyett az x8 is bőven elég, de mint nemrég lett linkelve, x4-en se gáz a helyzet. Ez biztos nem korlátoz semmit, mert akkor az x16 is 100%-on pörögne."

    A PCIe vel nem az a gond, hogy lassu hanem az hogy lombha. Emiat kerulik a hasznalatat. Kamion vs gyors sport auto hosszu egyenes szakaszon egy gyorsulasi versenyen.

    Az NV ezert hasznal SLI hidat a PCIe helyett.

    "Akkor nem adna folyamatos képet 4K-ban egy SLI 1080, míg a szóló 1080 szaggat. :)"

    Jol optimlaizalt jatekmotor GameWorks-el megtamogatva.
    Fentebb mar leirtam, hogy mi a gond ezen a fronton.

  • Dr. Akula

    nagyúr

    "Es akkor kapunk egy rakat GameWorks-ot tartalmazo jatekot."

    Felőlem Pénztáros Lőrincet is tartalmazhat ha attól gyorsabb lesz.

    "Az automatikus skalazas pedig olyan szepen hangzik, csak egy 10 eve bekonzervalodott piacon nem nagyon volt ra lehetoseg."

    A DX12 nincs 10 éves, amikor specifikálták, akkor kellett volna jól. Ez olyan optimista hozzáállás mint a magyar törvények, amik szintén arra építenek hogy majd mindenki jól betartja és milyen jó lesz, mintha nem ismerné senki az évezredes magyar mentalitást, hogy mindenki azonnal azt számolgatja hogy lehet megúszni, kibújni alóla. És a következő törvény is ilyen lesz, aztán mindig meglepődnek hogy jé, hát erre nem gondoltunk hogy aki csak teheti kibújik alóla (főleg adózás, ugye) Na most itt is ilyesmit látok, rábízták a programozókra hogy lekódolják az SLI-t, az meg röhög a markába hogy dehogy fog ő ezzel szenvedni, mikor alig pár embert érint. Míg automatikus skálázódásnál ugye megcsinálná a gép, nem kellene senkinek plussz munkát belefektetni.

    "Maradni maradna de tovabbra is lutri, hogy a jatek motor kepese megoldani a problemat illetve, hogy milyen skalazodassal."

    Ha egy Titan V kevés hozzá, akkor milyen alternatíva van még a több fps-re SLI-n kívül? Leszámítva hogy várunk 20 évet amikor egy IGP is tudni fogja. :)

    "A PCIe vel nem az a gond, hogy lassu hanem az hogy lombha. Emiat kerulik a hasznalatat. Kamion vs gyors sport auto hosszu egyenes szakaszon egy gyorsulasi versenyen."

    Jó, de még lassan se próbálják meg kihasználni. Ha ennyire ki lehet hagyni a buliból, akkor gyorsítani se fontos. Ha azt látnám hogy próbálkozik, 100%-on pörög és még így is kevés, akkor azt mondanám hogy oké, de egy üres földutat felesleges felfejleszteni autópályának. :) Jó, persze ingyen jöhet, de csak azért hogy ezután 3x annyi és aszfaltozott sáv álljon üresen, nem nagy biznisz. Mármint játék szempontjából, most az ipari alkalmazások nyilván más tészta.

    "Az NV ezert hasznal SLI hidat a PCIe helyett."

    Azt igazából nemtom minek használja még, valszeg Voodoo örökség, és egyszerűbb volt megtartani mint fejleszteni helyette valami más megoldást. Ha jól tudom a Radeonok már nem is használnak CF hidat, PCIE buszon kommunikálnak. Nyilván az Nvidia is tudna ilyet ha akarna.

    "Jol optimlaizalt jatekmotor GameWorks-el megtamogatva.
    Fentebb mar leirtam, hogy mi a gond ezen a fronton.
    "

    És ugyanez GameWorks nélkül, de mindenféle SLI támogatás nélkül jobb lenne?

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • Chaser

    titán

    "Elvileg arról a fejlesztésről van szó, ami a Computex_re érkezett volna, de aztán maradtak az X399-es alaplapok."
    eddig olvastam, nagy karrier volt ( :

    _tejesen'® joálapotpan'™_

  • h_143570

    addikt

    "Felőlem Pénztáros Lőrincet is tartalmazhat ha attól gyorsabb lesz."

    Ha szereted azt, hogy csak egy ceg termekei futnak jol programok, akik meg is kerik az arat...

    "A DX12 nincs 10 éves, amikor specifikálták, akkor kellett volna jól"

    Nem a DX12-vel illetve a Vulkan-al van a gond, hanem a DX11 es korabbi verziok egyideju tamogatasaval a jatek motorokban. Illetve, hogy 10 evig szivtunk 2-4 magos processzorokkal.

    A proci gond megoldodni latszik, a DICE meg mar irja a tisztan DX12 motorjat. Valoszinuleg a tobb nagyobb kiado is hasonloan jar el.

    "Míg automatikus skálázódásnál ugye megcsinálná a gép, nem kellene senkinek plussz munkát belefektetni."

    Ha a jatek motorok minnel nagyobb egyszalu teljesitmenyre vannak kihegyezve, mert nem volt mas.
    Addig az auto skalazas is felejtos (az azt igenyelne, hogy fel lehesen bontani tobb kisebb parhuzamosan futathato resz feladatra a problemat).

    Majd vegre kihal a DX12/Vulkan ellotti tamogatas a jatek motorokbol akkor talan.
    Az NV 9xx es 10xx sorozata notoriusan nem szereti a DX12-ot, remelhetoleg a 20xx eseten valtozik a helyzet kulonben meg 2025-ben is ezzel fogunk szivni.

    "Ha egy Titan V kevés hozzá, akkor milyen alternatíva van még a több fps-re SLI-n kívül?"

    Az profeszionalis felhasznalasi terulet cel hardver es szoftverrel, ott mar meg fogjak fizetni a programozot.
    Foleg ugy, hogy azon a teruleten jol parhuzamosithato munka folyamatok vannak.

    "Jó, de még lassan se próbálják meg kihasználni."

    Mert mire felporog addigra jopar ms eltelik, ha meg ebbe a CPU es GPU is 2 iranyu kommunikaciot folytat akkor isten hozott <60 FPS. 100 FPS eseten 10 ms van mindenre, mig 144-nel 7 se nagyon. Ebbol a PCIe egyszeruen tul sokat vinne el foloslegesen.

    Jeleneleg az elejen betoltik a texturakat meg a modeleket. Majd kep kockankent elkuldik, hogy mi valtozott es kb enyire futja a jelenlegi kesletetesekkel.

    "Ha ennyire ki lehet hagyni a buliból, akkor gyorsítani se fontos."

    A sebbeseg duplazas az csak a marketing rizsa amit az atlag halando felfog.
    A 4es verzio hozni fog kesletetes csokentest es memoria koherens 2 iranyu kommunikaciot CPU es GPU kozott. (Meg szerencse, hogy PCIe 4, tobb eves keslekedese miat mar 3 konkurens szabvany is van erre a problemara)

    Termeszetesen ez is evekig fog tartani mire atkerul gyakorlatba. Meg kell varni mig a gamer gepek attalnak (azaz ra kell venni az Intel-t, hogy tomogassa valamelyiket a 3-bol, foleg, hogy nekik ott van a Thunderbolt).
    Senki sem fogja bevallalni, hogy most minden <60 fps-el vanszorog, de majd 3 ev mulva minden sokkal gyorsabb lehet. Az AMD megprobalta ezt mar paszor.

    "Azt igazából nemtom minek használja még, valszeg Voodoo örökség, és egyszerűbb volt megtartani mint fejleszteni helyette valami más megoldást. Ha jól tudom a Radeonok már nem is használnak CF hidat, PCIE buszon kommunikálnak. Nyilván az Nvidia is tudna ilyet ha akarna."

    Mert jelentosen nagyobb a savszelesege es kisebb a kesletetese, mint PCIe 2-nek es 3-nak.
    Visszont gaming eseten nem hoz annyit, hogy szamitson, ezert hasznal a CF PCIe-t mert mind1..

    Profeszionalis teruleten az NV emiat elonyben van. Egeszen a Zen 2 magos proceszorok es Vega 20 megjeleneseig, utanna talan az AMD lemaradasa megszunik.

    "És ugyanez GameWorks nélkül, de mindenféle SLI támogatás nélkül jobb lenne?"

    A GW nem add SLI tamogatas, cserbe egy rakat kesz effektet zart csomagban, ami egy bizonyos szereplo eppen aktualis generaciojat szolgalja.
    Az idoben es penzben szorongatott cegek managerei meg orulnek neki, mert idot es penz sporolnak, radasul a masik ceg megoldasan is mukodik lassaban ugyan, de meg elfogadhato szinten.

    Pl a WarFrame keszito kenytelenek voltak kidobni a GW es PhysiX alapu reszecske effekteket mert a GW es a PhysiX tamogatas megszunt. Vegul irtak egy sajatot.

  • Dr. Akula

    nagyúr

    "Ha szereted azt, hogy csak egy ceg termekei futnak jol programok, akik meg is kerik az arat..."

    Jobban szeretem annál mintha egyik cég termékei SE futnának jól. Mert itt az alternatíva a semmi. Az a semmi amit a programozónak kéne leprogramozni, de nem fogja, tehát GARANTÁLTAN nem lesz SLI/CF.

    "Nem a DX12-vel illetve a Vulkan-al van a gond, hanem a DX11 es korabbi verziok egyideju tamogatasaval a jatek motorokban. Illetve, hogy 10 evig szivtunk 2-4 magos processzorokkal."

    De, nekem pont azzal van gondom, ugyanis a 12-ben bízzák a programozó jókedvére az SLI leprogramozását, amit nyilván nem fog megtenni. Ha neked felkínálják a melóban hogy ingyen túlórázhatsz, fogod vállalni?

    "Az NV 9xx es 10xx sorozata notoriusan nem szereti a DX12-ot"

    Az miből derül ki hogy nem szeretné? Abban is veri a Radeont.

    "Az profeszionalis felhasznalasi terulet cel hardver es szoftverrel, ott mar meg fogjak fizetni a programozot."

    Ettől nekem több fps-em lesz a GTA-ban?

    "Mert mire felporog addigra jopar ms eltelik, ha meg ebbe a CPU es GPU is 2 iranyu kommunikaciot folytat akkor isten hozott <60 FPS. 100 FPS eseten 10 ms van mindenre, mig 144-nel 7 se nagyon. Ebbol a PCIe egyszeruen tul sokat vinne el foloslegesen."

    Elhiszem, de mivel meg se próbálják, és mint látjuk meg tudják oldani a PCIE busz terhelése nélkül, akkor megint ott tartunk hogy minek gyorsítani, ha úgyse használják. Jön a PCIE 4.0, tök gyors lesz meg minden, aztán továbbra se küld át a programozó semmi adatot a buszon, tehát volt értelme... :) Nem emiatt gyorsabb az Nvidia, nem ezzel fogja utolérni az AMD.

    "Visszont gaming eseten nem hoz annyit, hogy szamitson, ezert hasznal a CF PCIe-t mert mind1.."

    De gondolom az Nvidiának is pont ugyanannyit számít, tehát ők is használhatnák a PCIE-t, de mégis SLI hidaznak. Valszeg az "ami nem romlott el azt nem kell megjavítani" elvet követve nem nyúlnak ahhoz amihez nem muszáj.

    "A GW nem add SLI tamogatas"

    Akkor miért hoztad fel az SLI-re? Ezek szerint nem előfeltétele a működésének.

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

  • h_143570

    addikt

    "Jobban szeretem annál mintha egyik cég termékei SE futnának jól. Mert itt az alternatíva a semmi. Az a semmi amit a programozónak kéne leprogramozni, de nem fogja, tehát GARANTÁLTAN nem lesz SLI/CF."

    A jelenlegi grafikus motorok mukodese miat a jatekok Amdahl torvenye ala tartoznak. Emiat senki/semmi nem fogja tudni rendesen multi gpu kepese tenni a jatekokat, nem azert mert nem akarjak hanem mert nem megoldhato.

    Native DX12 es nativ Vulkan talan meg fogja teremtetni ra az elmeleti lehetoseget mar ha lesz hardver.

    Ha a motorokat attervezik (fugetlen parhuzamos work loadokra) es lesz rendes gyors es alacsony kesletetesu cache/memoria koherens kapcsolat a CPU es GPU-k kozott akkor talan.

    "De, nekem pont azzal van gondom, ugyanis a 12-ben bízzák a programozó jókedvére az SLI leprogramozását, amit nyilván nem fog megtenni. Ha neked felkínálják a melóban hogy ingyen túlórázhatsz, fogod vállalni?"

    A jatek fejlesztok kertek mind a Vulkan-t mind DX12-ot. A DX11 es elodei korlatai miat.

    "Az miből derül ki hogy nem szeretné? Abban is veri a Radeont."

    Abbol, hogy a 9xx es 10xx sorozat a DX12 bekapcsolasa eseten drasztikusan belassul a DX11-hez kepest. Van par kivetel pl az uj Tomb Raider.

    "Ettől nekem több fps-em lesz a GTA-ban?"

    Roviden sehogy. A fentebb emlitettektol igen, de az meg jopar ev.

    "Elhiszem, de mivel meg se próbálják, és mint látjuk meg tudják oldani a PCIE busz terhelése nélkül, akkor megint ott tartunk hogy minek gyorsítani, ha úgyse használják. "

    Nem hasznaljak mert nincs ertelme. A tul nagy kesleltetes miat tobbet vesztenek vele mint nyernek FPS-ben. Voltak probalkozasok pl Texture Streaming a Rage-ben es meg apr jatekban.

    "Jön a PCIE 4.0, tök gyors lesz meg minden, aztán továbbra se küld át a programozó semmi adatot a buszon, tehát volt értelme... :)"

    A PCIe 4 eseten nem csak sebbeseg novkedes van hanem kesletetes csokenes es cache coherens kapcsolatok lehetosege. Ha szeretnel rendes fizikat es ray tracinget meg SLI/CF-et akkor remeled, hogy minnel elobb mainstream legyen.

    " Nem emiatt gyorsabb az Nvidia, nem ezzel fogja utolérni az AMD."

    Ez a resz az NV SLI Brdige vs CF PCIe alapu osszekotesere vonatkozott profeszionalis felhasznalasi teruleten.

    "De gondolom az Nvidiának is pont ugyanannyit számít, tehát ők is használhatnák a PCIE-t, de mégis SLI hidaznak. Valszeg az "ami nem romlott el azt nem kell megjavítani" elvet követve nem nyúlnak ahhoz amihez nem muszáj."

    Consumer gaming eseten az SLI Bridge elonye elhanyagolhato, profeszionalis teruleten pedig elege komoly elony

    "Akkor miért hoztad fel az SLI-re? Ezek szerint nem előfeltétele a működésének."

    Nem az SLI-re hozam fel, hanem a DX11es jatekokban levo piac szemgentacios stragegiara. Ami a CPU-k es grafikus API-k stagnalasa mellet elege lejtose tete a piacot. Amit most nem teljesitmenyel aranyos ar novekedesevel halal meg a gyarto.

  • Dr. Akula

    nagyúr

    Motort bármikor lehet újat írni, viszont DirectX-et, Vulcant, akármilyen API-t nem írhat csak úgy egy kft. Illetve igen, csak épp sose lesz belőle szabvány. Most a DX11 >> DX12-nél valami olyan van, mintha a C++ kód helyett ASM-et kéne írni. Elméletileg gyorsabb _lehet_, ha nagyon penge májerek írják, de többnyire nem azok fogják. Valamint több macera, és mivel a játékokat (is) profitorientált cégek készítik, nem fognak azzal foglalkozni hogy szép legyen a kód, mert nem a dicsőségre hajtanak, nem scene demót készítenek, hanem a pénzre. Amit minél kevesebb munkával a legjobb megkeresni. Ha rájuk bízzák az SLI támogatást, akkor kb. el is lehet azt felejteni. Egy új Windowsnál se írnak mindent újra, sokminden ctrl+c, ctrl+v, mert úgy egyszerűbb, gyorsabb, meg nem mondta senki hogy azt is újra kéne írni, tehát marad. Csak amit nagyon muszáj. ezért van az hogy felfedeznek valami súlyos sérülékenységet, aztán kiderül hogy már az XP-ben is megvolt. Ja, hát ctrl+c, ctrl+v-vel jött át a többibe is.

    "Native DX12 es nativ Vulkan talan meg fogja teremtetni ra az elmeleti lehetoseget mar ha lesz hardver."
    Hát ez az hogy csak az elméletit. Egy elméleti +100% sokkal kevesebbet ér mint egy gyakorlati +10%.

    "A jatek fejlesztok kertek mind a Vulkan-t mind DX12-ot. A DX11 es elodei korlatai miat."
    Ezt tudom, de nem biztos hogy a legjobb megoldást kapták. Lehet hogy a szabványkészítőknek egyszerűbb volt azt mondani hogy itt van nesztek, szopjatok mostantól ti vele, de a programozók is azt fogják mondani hogy mi ugyan nem fogunk, akkor nem lesz és kész, úgyse érint mindenkit, cserébe hamarabb kész a kód, hamarabb beugrik a lóvé a zsebbe.

    "Abbol, hogy a 9xx es 10xx sorozat a DX12 bekapcsolasa eseten drasztikusan belassul a DX11-hez kepest. Van par kivetel pl az uj Tomb Raider."
    Lehet, de nem mindegy melyik honnan indult. Többnyire az Nvidia drasztikusan belassulva is több fps-t produkál mint az AMD alig belassulva. A vásárlókat meg csak a végeredmény, az fps érdekli, nem az hogy ezt milyen elegáns úton érik el.

    "Ha szeretnel rendes fizikat es ray tracinget meg SLI/CF-et akkor remeled, hogy minnel elobb mainstream legyen."
    Erre mondtam azt hogy ingyen jöhet. :) Ingyen bármi jöhet. Viszont a raytracing sztem kicsit korai, most a 4K korában vissza kell venni fullHD-ra hogy ne diavetítés legyen, és még így is azt mondják hogy csökkenteni kéne a poligonszámot, holott pont hogy részletesebb modellek kellenének. Hiszen nem mindegy hogy az a raytrace tükröződés min fog megjelenni, egy minecraft kockafejen, vagy valami emberihez hasonlón. Minecraftba felesleges a raytrace. Ha meg választani kell hogy raytrace vagy több poligon, akkor inkább az utóbbi.

    "Consumer gaming eseten az SLI Bridge elonye elhanyagolhato, profeszionalis teruleten pedig elege komoly elony"
    Akkor az AMD minek hagyott fel a CF-el? Nekik is biztos ugyanolyan jó lenne.

    [ Szerkesztve ]

    Xbox One X - PS4 - Dell 5491 - i9-9900K, G.Skill Trident Z 32GB 3200/CL14, MSI 2080Ti Lightning Z, ASUS Maximus XI Extreme, Samsung 970Pro 1TB, Corsair K95 RGB Platinum, Logitech GPro, Benq PD3200U, Phanteks Enthoo Elite

Hozzászólok Aktív témák