- Az NVIDIA szerint a partnereik prémium AI PC-ket kínálnak
- Két Zen 5-ös dizájnjának mintáit is szállítja már az AMD
- A Colorful "fagyosan kompakt" alkatrészekkel megy elébe a nyárnak
- A Keychron ismét egy űr betöltését vállalta magára az egerek szegmensében
- Az átlagnál vaskosabb ventilátorok kandikáltak ki a Corsair vitorlája mögül
- OLED TV topic
- Androidos fejegységek
- Bambu Lab X1/X1C, P1P-P1S és A1 mini tulajok
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Egyre gyorsabban ügyködik saját HBM memóriáján Kína
- Modern monitorokra köthető 3dfx Voodoo kártya a fészerből
- AMD Navi Radeon™ RX 6xxx sorozat
- Milyen billentyűzetet vegyek?
- ThinkPad (NEM IdeaPad)
Hirdetés
-
Két Zen 5-ös dizájnjának mintáit is szállítja már az AMD
ph A szerverpiacra szánt Turin platform, illetve a mobil szintre nevező Strix Point érhető el a főbb partnerek számára.
-
Egyre közelebb a Poco F6 startja
ma Újabb ár/érték csatát nyerhet a Xiaomi almárka.
-
VR játék lesz az Batman: Arkham Shadow (Meta Quest 3)
gp Egyelőre csak egy teaser trailert kaptunk a teljes leleplezésre a Summer Game Festen kerül sor.
Új hozzászólás Aktív témák
-
titán
Apu, kezdődik!
evDirect villanyautós töltőhálózat
-
h-yle
addikt
Viszont ha jól értem akkor egy erős dGPU mellé jó társ lehet egy gyengébb változat, mint "gyorsító" kártya?
Talent is over rated, get back to practice. - Jeremy Piven
-
#06658560
törölt tag
Elképzeltem a jövőt: egy NV, egy AMD kari, plusz egy intel iGPU-s CPU. Mondjuk Titan X+Fury X, plusz valami i7. Programozzák már le a kezelését!
-
GeryFlash
veterán
Szerintem ez nem olyan nagy gond, komolyan hány ember használ SLI-t Crossfire-t? Állati kevés, a játékosok megtanultak, hogy ha spórolnak is pár ezrest azzal, hogy két (felső) közép kategóriás vga-t rakjanak össze, annyi játék van ami nem használja ki, hogy jobban megéri egy erősebb vga.
Nincs nagyon olyan játék, amihez egy 980-as ne lenne elég, max 4k-ban esetleg, de VRAM megosztásra szerintem az UE4 is képes lesz.Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Oliverda
félisten
Epic fail
"Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."
-
BiP
nagyúr
Itt gondolom a legjobban a 2-3 Titan-t birtoklókat zavarja a dolog, akik 3x4K-ban akarnak játszani, oda nem elég az 1 GPU. Tény, hogy ilyen ember is kevés van.
Az az elmélet, hogy 2 középkategóriás kártya helyett érdemesebb egy 1db erősebbet venni, régóta igaz.
(Az SLI-Crossfire hajnalán pont azért, mert még nem volt elterjedve, nem használták ki a játékok. Amikorra meg már elterjedt volna, olyan renderelési technikák jöttek, amik ellehetetlenítik a rendes használatot. ) -
Vincent_
aktív tag
Nem értek egyet. Anno 7950-es crossfire-t építettem le, mert jött a cikk, hogy jujuj, nem fogják a játékok támogatni a jövőben a két kártyás megoldást. Aztán hogy-hogy nem csak minden fejlesztő leprogramozta a kétkártyás módot, csak én már downgrade-eltem közben persze lapot is.
El nem tudom képzelni, hogy ma egy 7950-es crossfire-t milyen játék tud épeszű felbontáson megakasztani. Ami ugye megvan használtáron ~80k-ból...
Első hirdetésem: https://hardverapro.hu/apro/vadiuj_magyar_kiosztasu_dell_noti-billentyuzet_d62/hsz_1-200.html
-
GeryFlash
veterán
Használt ár mindig csalóka. Anno két 7950 nem volt olcsó mulatság.
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
nagyúr
-
GeryFlash
veterán
Ettől függetlenül nem lehet összehasonlítani az új árát egy használtéval. Amellett meg gyenge 400 watt kell neki (jó persze max terhelés alatt)
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
veterán
Még jó hogy van jó pár másik motor is a piacon.
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
eight
senior tag
A Quick Sync nekem teljesen jó felvenni vagy streamelni, hagyják csak békében a játékok. Esetleg a VR-oknál jól jön majd ez a lehetősége dx12-nek, hogy az IGP-n csinálják a ATW-t, akkor úgysem streamel az ember, (vagy ha igen akkor már biztos feltünési viszketegségről van szó és egy másik dedikált PC-vel csinálja), szóval nekem a jákékokhoz elég a GPU-m, el a kezekkel a IGP-mtől.
[ Szerkesztve ]
-
jozsef8
aktív tag
válasz GeryFlash #13 üzenetére
Nekem is volt 7950 CF-em, le is cseréltem inkább egy GTX 970-re. Hogy miért? Mert rengeteg játék nem támogatta, és nagyon sok helyen random FPS dropokat dobált, ami engem nagyon idegesített. Meg is fogadtam, többet nem építek két kártyás rendszert, amíg rendesen nem csinálják meg a drivereket, és nem támogatják teljes mértékben a játékfejlesztők.
-
-Alvin-
tag
Már csak az a kérdés mégis milyen apu kell 2-4 fpshez, mert gondolom ha túl lassú akkor nem hoz semmit a konyhára...
Teszem azt carizzo kell vagy elég egy haswell vagy kell a sky, netalán iris proval mérték ki ezt a "csodás" eredményt
-
@rglaaf
veterán
válasz Menthirist #17 üzenetére
Ugyanakkor meg kell érteni, hogy az Unreal Engine 4 fejlesztését már nagyrészt a mobil játékpiac határozza meg
Ebben a mondatban benne is van a lényeg, a nagy studioknak meg nem kell a licencelt engine mert fejlesztenek sajátot
PSN:BiZzare_0 ️
-
veterán
-
kurta9999
tag
Ne tereljük a szót, mondjuk ki egyszerűen és röviden: b*sznak rá megcsinálni rendesen. Nagyon remélem a többi grafikus motorban nem +3-4FPS lesz DX12-es átálláskor.
-
Manbal
senior tag
mit kell ezen akadni? az u4 engine nem támogatja az SLI-t meg a Crossfire-t... én lexarom, hatalmas baromságnak tartom mind2 "megoldást", tipikus ki a "faszagyerek" villogóknak való, +200-300W fogyasztás mi az???!!!.... az IGP-s dolog viszont nagyon szimpatikus, főleg hogy egyre erősebb lesz az is, és egy kis extra +, sosem árt, ugyan azon fogyasztás mellett!
-
veterán
azért gyakoroljuk már az "élni és élni hagyni"-t most is. Nem azonosak az igényeink. Jó, neked nem kell az SLI meg a CFX, viszont szimpi az igp-s. Másnak meg sli/cfx kell, és nem érdekli az igp-s. Villogó vagy sem, ő szeretne olyan felbontásban és sebességben játszani, amihez két kártyája kell, te meg nem akarsz. Vagy az illetőnek van egy régebbi középkategóriás kártyája, és egy sli-s alaplapja, és az volt az olcsóbb megoldás hogy vesz használtan egy másik ilyen kártyát, máris ugrik a tempó, töredék áron ahhoz képest, mintha venne egy olyan erősségű kártyát.
Szerintem meg legyen benne mindkettő, aki tri-sli-ben akar 4k-ban 100+ fps-sel játszani az tehesse meg, akinek igp-je van a prociban és ki akarja használni az meg azt tehesse meg. Akinek meg 1 kártyája van, igp nélkül, az meg használhassa azt az egy kártyát.[ Szerkesztve ]
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
-Alvin-
tag
válasz Menthirist #27 üzenetére
Ez nagyon idilli amit írsz, de ez piacgazdaság ahol megnézik mi\ki a felhasználó bázis.
Aki cft meg slit használ töredéke az apu+dedikált gpu párosnak, ergo nem arra fogják fordítani a pénzt, ez nem azon múlik h te mit szeretnél vagy hogy gondolod..Jó amúgy amit írsz de ha nincs elterjedve annyira minek pumpálnának pénzt a fejlesztésre...
-
SylverR
senior tag
válasz Menthirist #27 üzenetére
Én viszont azt várom mikor pusztul ki ez az egész váltott soros hülyeség.
Egy dolgot várok az új multiadaptertől. Hogy legyen a jövőben olyan, hogy AI és fizika fusson az IGP-n. Grafika NE! Csak akkor, hogy ha nincs dVGA a gépben. Mondom ezt úgy, hogy IGP-ről játszom néha-néha.Nem!
-
veterán
ezzel csak az a baj hogy ezek nem egymást kizáró tényezők. Tehát nem vagy sli/cfx vagy igp kihasználás. Az hogy ők olyan megoldást nyomatnak, ami a dgpu cfx-et kizárja (de az igp-t még be tudják húzni), az az ő saruk. Emellett pedig szerintem joggal lehetnének amúgy felháborodva azok akiknek 2-3 vga-juk van (nem annyira pici piac mint lefested), hogy beáldozzák őket azért, hogy 3-4%-ot nyerjenek a többiek. Mert ha már felhoztad a piacgazdaságot, ezek az emberek 2-3-4 vga-kat vesznek, tehát 2-3-4x annyit költenek mint azok, akik csak egy kártyás rendszert építenek, pláne hogy aki több kártyásat vesz, az általában drágább alaplapot, procit és tápot is vesz, gyakran több monitort, stb stb stb. Tehát bőven kifizet 2-3-4 ember gépének megfelelő összeget, ami emiatt számban ugyan lehet hogy nem hatalmas halmaz, de bevételben korán sem elhanyagolható. Ráadásul pont ezek az emberek azok, akik játékok terén is nagyobb fizetőképességgel rendelkeznek, szerintem bőven nagyobb eséllyel veszi meg és nem warezolja le a játékot az az ember nyugaton aki 3-4-5 ezer dolláros pc-t rakott össze, mint az aki párszázat tudott összekuporgatni.
SylverR: 1: ha nem játszol, akkor ne határozd már meg kérlek hogy milyen legyen a játékok technikai jövője, olyanoknak akik viszont játszanak
2: megint csak, nem kizáró ok, simán futhatna igp-n az AI, miközben egy-két-három vga pumpálja ki az erőt vr-hoz (ahova abu is azt mondta hogy 2 gpu jobb mint 1), 4k-hoz vagy eyefinity-hez.Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
SylverR
senior tag
válasz Menthirist #30 üzenetére
1. Honnan veszed, hogy nem játszok?
2. Szerintem hülyeség abba programozási időt ölni, hogy két kártyán fusson. Inkább fusson jól egy kártyán.
(Igen, VR-hoz értelemszerűen 2 kártya való, ez logikus. A VR címek biztos támogatják is majd.)Nem!
-
veterán
1: Azt a mondatodat hogy igp-ről játszol, azt is néha néha, így értelmeztem.
Amennyiben félreértettem, elnézést2: szerinted (!) hülyeség. Szerintem pl nem. Az alap (kellene hogy legyen) hogy jól kell fusson egy kártyán is, de amik nem futnak jól egy kártyán, azok nem a cfx/sli miatt nem futnak rajta jól. Ráadásul nem 10x-es overhead-ról beszélünk, pláne amennyiben a motorban már normálisan meg lett egyszer írva. Illetve ahogy írtad is, vr-hoz pont két gpu a jobb, illetve én a több gpu-s rendszereket is idesorolnám, hisz 5760x1080-ban vagy 7680x1440-ben megfelelő sebességgel játszani sem lehet egyetlen, bármilyen kártyával. Vagy akkor már vessük el a multi monitor támogatást is?
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
Hiftu
senior tag
Annyi változás van, hogy SLI és CF tulajoknak nézni kell a licenselt motor típusát. Aztán eldöntik, hogy játszanak-e a játékkal. Lehet morogni, hogy de szemét az engine fejlesztő csak nem vezet sehova.
Ez gazdaságossági kérdés. Nem akartak milliókat beletolni egy kis réteg igényeinek kielégítésére.Tessék mondani, lehet itt hazudni? - Kaszt: Decker, Faj: Troll, Működési Terület: Prohardver
-
RyanGiggs
őstag
válasz Menthirist #27 üzenetére
"az illetőnek van egy régebbi középkategóriás kártyája, és egy sli-s alaplapja, és az volt az olcsóbb megoldás hogy vesz használtan egy másik ilyen kártyát, máris ugrik a tempó, töredék áron ahhoz képest, mintha venne egy olyan erősségű kártyát."
Szerintem ez a mondat nem állja meg a helyét teljesen.
Én pont a múlt hónapban váltottam le a középkategóriás kártyámat (HD7870) egy R9 290-re! Nem volt nehéz a döntés, hisz 35k+35k=70k (2xHD7870) vagy R9 290=70k!
Mondjuk az már az én döntésem volt, hogy újat vettem 86k-ért.
(Az a még +16k nem vágott a földhöz!)Cikkhez is hozzászóljak :
Átlag 4-5fps-t fog rádobni az IGP egy dVGA teljesítményére?!
Gondolom ez lesz a jellemző a többi játékmotorra is.
Akkor ki fog ezért pl. Skylake-re váltani?
Én biztos nem cserélem le akkor az i5-3570K-mat egy jó darabig, pedig már lassan 3 éves lesz![ Szerkesztve ]
-
Gusztáv
addikt
válasz Menthirist #30 üzenetére
Persze mindezt meg lehetne csinálni, amit te leírtál, csak idő/ember és pénz kérdése az egész. A játék motor fejlesztő meg továbbra sem jótékonysági intézmény, minden ilyen döntést komoly pénzügyi tervezést előz meg. A sli/cfx fejlesztés vagy nem hozná vissza a beleölt pénzt, vagy egész egyszerűen egységnyi befektetett pénzből ez a megoldás több hasznot termel. Te is abba a bankba rakod a pénzed, ami több kamatot ad.
Anno jópár éve én is cfx-es alaplapot vettem, hogy majd a HD5770 mellé idővel kerül egy második is. Aztán amikor már kevésnek éreztem, akkor inkább vettem egy HD6870-et, mert minden formában (valós teljesítmény, fogyasztás) az érte meg jobban.
[ Szerkesztve ]
Laci
-
sb
veterán
Nem most kezdődik. Eddig se támogatta.
@WZP
A Windows ablakok képesek akadni HD4600-al...
Milyen ablakok ha szabad kérdeznem?
Nem mondom, hogy nincs hiba Intel IGP-kkel, de főleg driveressel találkoztam csak. Azért erőben egy HD4600 nem ablakrajzolásra elég csak.[ Szerkesztve ]
-
Cathulhu
addikt
Abu cikkeivel ebből a szempontból nagyon vigyázni kell, a szakmai információk mellett rengeteg egyéni jövendölést és véleményt tartalmaznak, elég cikk olvasása után a szóhasználatból már el lehet különíteni ezeket a releváns részektől.
Hogy on is legyek, nem vagyok benne biztos, hogy az a 3-4 fps megéri azt a plusz latencyt, amikor a dgpu átpumpálja a félkész jelenetet pciexpresszen a post processinghez, aztán a kész képkocka még egy kis késleltetéssel visszamászik, hogy kikerüljön a kábelre. Arról nem is beszélek, hogy az igp magát a feladatot is lassabban végzi el, nesze neked frame time meg input lag.
[ Szerkesztve ]
Ashy Slashy, hatchet and saw, Takes your head and skins you raw, Ashy Slashy, heaven and hell, Cuts out your tongue so you can't yell
-
sb
veterán
Értettem.
De nem kéne egyből általánosítani.Volt vmi másik cikk is.... ja igen, a "naív" DX12 portok...
Szerintem aki azt várta, hogy a DX12-vel együtt megjelenik azonnal, fejlesztés nélkül a Crysis6 ill. további motorok is lefejlesztik magukat DX12-re humán munka nélkül azok valahol csodaországban éltek.Továbbra is a piac diktál. Ha nem éri meg SLI-re fejleszteni pénzügyileg mert 10000x annyi IGP-s rendszer van akkor arra fejlesztenek. Sőt, ha mobilra éri meg akkor mobilra és nem PC-re. Ennyi.
Akinek meg megéri jó DX12 engine-t írni ami 3x jobb lesz mint a DX11-es tákoltaké/akik nem fejlesztenek akkor ő meg bele fog tenni mindent. Aztán lehet, hogy majd a többieknek is megéri éhenhalás helyett akik addig sz*rtak bele...Vagy ha senkinek nem éri meg a végén akkor megszűnik a PC gaming és elmennek péknek, postásnak vagy mobil engribördsz+vedörforkaszt fejlesztőnek. (Ha létezik egy X összegű piac aminek a fenntartása 1.5X-be kerül akkor meg fog szűnni. De én ebben nem hiszek, hogy nagyobb a költség és nem lehet belőle megélni csak ha szart gyártanak.)
Ez ilyen világ, úgy hívják piacgazdaság.
-
nagyúr
Ha nem éri meg SLI-re fejleszteni pénzügyileg mert drága és mert 10000x annyi IGP-s rendszer van akkor arra fejlesztenek.
Szerintem ez a mondat csak a bold kiegészítéssel együtt állja meg a helyét, ugyanis ha nem drága multi-GPU-ra fejleszteni, akkor már csak azért is megéri, mert a tesztekben több rivaldafényt kapnak. Szóval valószínűleg drága. Felmerül a kérdés, hogy miért drága, amikor elvileg az új csodaAPI-k teljes hozzáférést biztosítanak a hardverhez, és sok egyéb megoldás mellett pl. a deferred renderinghez hasonlóan layerekre lehet osztani a képet, vagy ott a tiling, stb. Ha akkora lenne a szabadság, amekkoráról a fanfárok szólnak, akkor ez nem jelenthetne gondot. De mégis. Hmmm....
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
leviske
veterán
válasz Menthirist #27 üzenetére
Nem tudom mennyire mondok ezzel újdonságot, de aktuálisan az Unreal 4-nek nagyon kicsi esélye van olyan játékba bekerülni, ami 4K-ban ne futna el R9 380-on 60fps fölött (nem hinném, hogy az új Fable gépzabáló lesz).
Egyszerűen kikerültek az AAA fejlesztések látómezejéből. A CFX/SLI felhasználók szempontjából fontosabb, hogy a nagy kiadók saját motorjai (EA - Frostbite/ Ubisoft - AnvilNext, Dunia / Activision - IW / Bethesda - Creation, Tech6 / CDProjekt - REDengine / stb) kapjanak támogatást, hiszen úgyis ezek a cégek szolgáltatják többnyire azokat a játékokat, amik miatt egy felhasználó hajlandó 2x annyit költeni videokártyára.
(#43) gbors: Aktuálisan milyen játékon keresztül kerülhetnének tesztekben a rivaldafénybe? Annyi pénztartaléka meg valószínűleg az Epic-nek sincs, hogy totálisan felesleges képességeket építsen be a motorba, akár drága akár nem. Vagy rosszul látom?
[ Szerkesztve ]
-
Xes750
tag
Akinek nem inge ne vegye magara....
Szerinted ez a gondolkodas hova vezet?
"Nekem nincs SLI-m, szoval nem is erdekel"
"Ugy is alig van par embernek"
"Nem kell az, hova kene olyan ero.."
"Haha a sok hulye aki kiadja ra a sok penzt"
stb...Nehogy azt hidd hogy Magyarorszag a vilag kozepe es hogy mindenki 30-40FPS re vagyik FullHD ba medium beallitasok mellett.
Vannak emberek akik igenylik az ujat...4k, 2k,100+ FPS (120hz monitoron) a Virtual Realityrol nem is beszelve... igen Ok azok a "hulyek" akik megveszik ezeket a "mereg draga" "baromsagokat" es kesobb az O jovoltukbol veheted meg Te is, par evmulva olcson a fent emlitett technologiakat.
Persze te sokkal okosabb/frumanyosabb mivel te csak a legjobb ar ertek aranyu kozepkategorias cuccokat veszited meg. (Ami nem is baj, foleg ha nincs mibol meg ha nem edekel)
A baj az az hogy nem erdekel, sot nem is latod hova vezet/het ez a hozzaallas a felso kategoriahoz.FullHD nem volt "felesleges, uristen de draga hulyeseg" par eve?
De az volt megis a sok hulye megvette es most mar tomegcikke valt pont emiatt.
Ledes monitor is aranyaraon volt, es most? A legolcsobb.. Miert mert voltatk emberek akik voltak olyan hulyek hogy kiadtak erte annyi penzt, behozta a fejlesztes arat es megerte tomegbe gyartani.Ezek most a 4k 2k 120hz, VR stb.. Komolyan azt hiszitek h ezeket egy kartyaval el lehet erni?
NEM.. eselyed nincs..(persze Te nem is akarod mert hat draga.. es ha valamiert fizetni kell az mar hajjajj)
De elarulom a "hulye" emberek akik erre koltenek (mert felretesznek ra, vagy mert van mibol) azok se fognak penzt aldozni foleg ha tobbi fejlesto is koveti ezt az iranyt hogy nem tamogatjak a tobb kartyas rendeszereket."Jajj es akkor mi lesz?" SEMMI.. szo szerint semmi.. befoglassulni a fejlodes de legalabb is lelassulni, hacsak a VGA gyartok nem hoznak ki dupla helyett negyszeres eroblei fejlodeset legalabb egyszer hogy behozzak a fentebb emlitett technologiakat.
Szolval ha kicsit megprobalsz elszakadni a kis vilagodtol akkor rajosz hogy ez a semmiseg igenis nagy problema hosszutavon. (Igy neked se lesz olcso 4k elerheto aron 5 ev mulva se)
Ugyan ez a "majd en jol letorrentezem a mozifilmeket mert annyira okos vagyok hozzaallas. Aztan meg jon miert szuntette be a Sony a magyar szinrkon gyartast meglepodes?! Valakinek fizetnie kell a munkat/fejlodest.
-
veterán
ezért mondtam hogy van más motor... ha az unreal mobil piacon akar játszani, akkor játsszon ott. Viszont erősen mennének ők a VR irányba is, amihez meg már nem jönne rosszul. Szóval felőlem tegyék be mobil /indie játékok alá, de akkor főként csak oda tegyék.
Illetve fel lett hozva a költség, amibe szerintem bőven beszáll az AMD és az Nvidia is a saját, odaküldött dedikált fejlesztőivel, illetve némi anyagi támogatással is akár.
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
titán
Nem a játékokon keresztül kellene a rivaldafénybe kerülni, egy motor nem a végfelhasználóknak készül. A rivaldafényt a tech cikkek, újságok hoznák, és azért lenne jó, mert több fejlesztő számolna a motorjukkal.
(#46) ChipKng
Mondjuk[ Szerkesztve ]
evDirect villanyautós töltőhálózat
-
SylverR
senior tag
Éppenséggel maga az SLI, majd később a CrossFire volt az ami lelassította a monolitikus chipek fejlődését. Az ATi SweetSpot terminológiája ugye.
Nem is akarok 8k-t. Már 4k felbontáshoz is szükséges a 40" kijelzőméret. Ez pedig nem hiszem, hogy olcsó lenne valaha is. Az Eyefinity még lehet segítség ezen téren, de előbb-utóbb úgyis lesz olyan hardware, akár APU-ként is, ami simán elviszi az Eyefinity 4k-t. Persze nem a legújabb programokban.
Maga az SLI eltörlése nem lassítana a fejlődésen, hanem ellenkezőleg. Az AMD-nek és nVidiának meg kellene oldania hogy egy nagy, és brutális chipet alkosson. Amit persze drágábban árulnának mint két kisebbet, vagy egy x2-est. Magasabb ár, több bevétel, több kutatás-fejlesztés.
Persze sajnos nem fognak leállni ezzel az ellustult multichipezéssel.Nem!
-
TTomax
nagyúr
Ennél nagyobb ökörséget ritkán olvastam...kezdve a "40"-ra szükséges csak 4K-tól" a monolitikus chipig...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
sb
veterán
Okként ugyanarról beszélünk, csak máshogy fogalmaztam.
Pénz.Ha 10000x annyi usert érint nyilván több a bevétel.
Aztán lehet más jellegű bevételnövelés is... marketing alapú, stb... csak azokat nehezebb számszerűsíteni, hogy mennyit hoznak azzal szemben amit visznek.És még van az az eset is amikor vmi hoz a konyhára de mégsem tesznek bele pénzt. Mert épp nincs... vagy más szempontból döntenek, stb...
Szóval a lényeg, hogy a többi következtetésed szerintem téves. Attól, hogy valamit nem csinálnak még nem biztos, hogy drága/nehéz/stb... akárhogy nevezzük a költség oldalt.
szerk: Eleve a DX12 fejlesztést most meg tudod mondani előre, hogy „drága”-e vagy megéri majd?
Nem. Tudjuk, hogy több minden kézzel kell megírni, optimalizálni 30hw-ra, stb… tehát a költség nagyobb.
A megtérülés? Lehet, hogy 3x gyorsabb/szebb/jobb lesz a game és annyian megveszik, hogy megéri. De az is lehet, hogy nem lesz 3x szebb….
vagy az lesz, de nem veszik meg többen…És az egymásra hatások is játszanak amit fentebb írtam le. Első körben nem éri meg, de második körben már muszáj beletolni a munkát mert különben éhenhalsz, mint fejlesztő. Stb…
De ez nem új dolog. Minden piacon normális, ciklikus működési modell.
[ Szerkesztve ]
-
SylverR
senior tag
Akkor javaslom, hogy olvasgass IT cikkeket a 2000-res évek elejéből és közepéből, ha nem érted a monolitikus chip értelmét.
A 40"-os 4k, meg bőven 12ezer ppi. Ettől sűrűbb képernyő hülyeség kategória. De ez egyéni referencia.
@(#53) schawo:
Ez a komment nem is neked szólt. Valamint sajnálom ha nem érted. Nem az én hibám.[ Szerkesztve ]
Nem!
-
TTomax
nagyúr
Szerintem neked kellene kicsit többet olvasni,2015 van 28nm-es gyártástechnolgiával a legnagyobb gpu ami elöállitható az a 980Ti-n ás a FuryX-en van....
12ezer ppi?Jó lesz az 112nek is...
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Jack@l
veterán
Pedig készülnek elég erős demók is vele, játékok is a háttérben.
Nem hiszem, hogy pl ilyen grafika konzolon vagy mobilon jól érezné magát:
https://www.youtube.com/watch?v=DRqMbHgBIyYArról nem is beszélve, hogy még csak most került bele a dx12. Lesz ott játék bőven ami megakasztja kártyákat.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Dr. Akula
nagyúr
Reméljük a videokártya gyártók is pont ilyen megértéssel lesznek hogy ezentúl 2 helyett csak 1 videokártyát vesz az is aki amúgy megtehetné. Meg alaplapból se kell 2x16 PCIE-s, elég a mezei, olcsóért.
(#6) FishAir:
Minek? Minden prociban kapsz egy IGP-t (legalábbis a mezei gémer procikban).[ Szerkesztve ]
-
veterán
"Már 4k felbontáshoz is szükséges a 40" kijelzőméret"
Már ha megint csak egyetlen monitorra szűkíted a gondolkodásodat, talán. Ezt a pixelmennyiséget ugyanis egy 1080p-s 3 képernyős eyefinity-vel meg lehet közelíteni, 1440p-sel pedig jócskán túl is lehet szárnyalni. VR esetén meg pláne kellene majd a nagyobb felbontás, mert még messze van az optimális felbontás (az emberi szem perifériával kb 32k x 16k-ig látna szemenként ilyen távolságból).
A mostani 2160x1200-as felbontás a riftnél és a vive-nál arra jó, hogy legyen már most is elfogadható áron olyan gép amivel ki lehet próbálni (eladás szempontjából nem mindegy), ugyanakkor nem annyira gáz a minőség hogy emiatt ne vegye meg a kutya sem. Viszont már most is nézik a nagyobbakat, pl 1440p szemenként, mindezt ugye 90-120 fps-sel kellene hajtani.És nem is hoznám ezt a vr témát fel amúgy, ha ne az UE4 lenne az egyik motor, amivel az oculus mutogatja a technológiát pl a car flip demo alatt, tehát az UE4-től nem tartják távol az Epic-ék a vr-t.
"de előbb-utóbb úgyis lesz olyan hardware, akár APU-ként is, ami simán elviszi az Eyefinity 4k-t"
Inkább utóbb, nagyon utóbb. Addig meg gondolom akkor mindenki fulladjon meg. Az APU-k még NAGYON nem járnak ott, ahol a dvga-k. Pláne ahol több dvga."Az AMD-nek és nVidiának meg kellene oldania hogy egy nagy, és brutális chipet alkosson"
Hurrá, még több fejlesztési költség, amit az amd már végképp nem tudna bevállalni. Persze a nagyon brutális chip nagyon brutális árral is járna, mert felteszem nem várod hogy egy 980 Ti SLI-vel egyenértékű gpu-t majd odaadjanak neked 1-2 éven belül 400 dolcsiért.Az az "ellustult multichipezés" pedig a skálázás egyik magától érthetődő módszere. Mert ugye nem mindegy hogy a 980 Ti 8 milliárd tranzisztorát teszed rá egy chipre, kábelezteted be, gyártatod le, vagy épp 16 milliárdot, nagyobb chip, nagyobb selejtarány, nagyobb költségek, erősebb hűtés igénye, stb stb stb. 2 gpu esetén viszont 2x akkora a hűtőfelület, fele akkora a chip komplexitása...
[ Szerkesztve ]
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
nyunyu
félisten
válasz Menthirist #47 üzenetére
ha az unreal mobil piacon akar játszani, akkor játsszon ott. Viszont erősen mennének ők a VR irányba is, amihez meg már nem jönne rosszul. Szóval felőlem tegyék be mobil /indie játékok alá, de akkor főként csak oda tegyék.
Ahhoz kepest, hogy 10-15 eve mekkora nev volt az Unreal Engine, siman egy szinten volt a korabeli idTechekkel. CryEngine akkor meg nem is volt.
Aztan utobbi ~5 evben hagytak szep lassan lezulleni, fejlesztes hianya miatt a tobbiek elhuztak mellettuk.
Most sem arrol van szo, hogy toljunk bele lovet, aztan legyunk versenykepesek, hanem mobilokra igy is jo lesz...Hello IT! Have you tried turning it off and on again?
-
#16939776
törölt tag
Szóval lesz egy motor, ami támogatja a heterogénmultiadaaptert, de nem fog skálázódni több dGPU-val, csak IGP-vel(de még nem tudjuk melyikkel) lehet hogy használható lesz.
Ha így haladunk, egyre több dx12-es feature mögül szépen lassan kihátrál a piac és maradnak a dx11.3-as megoldások. Lehet most derült ki, hogy nem olyan egyszerű nekik dx12-re játékot írni
[ Szerkesztve ]
-
nyunyu
félisten
válasz #16939776 #63 üzenetére
Lehet most derült ki hogy nem olyan egyszerű nekik dx12-re játékot írni
Nyilvan senki sem varta, hogy varazsutesre minden szep es jo lesz.
Microsoftnak is ki kene addigra hoznia a vegleges Win 8.2-ot a mostani public beta helyett.
Hello IT! Have you tried turning it off and on again?
-
Jack@l
veterán
válasz #16939776 #65 üzenetére
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
wjbhbdux
veterán
Totalbiscuit és hasonló kritikusok rá fognak szarni azoknak a fejlesztőknek a fejére akik nem támogatnak SLI-t, borzasztó rossz PR lesz unreal enginet használni.
amúgy meg halott engine, minimális épkézláb unreal game jött ki mostanában, unityt nyomatja mindenki./s
-
veterán
azért egy hangyányit más a helyzete most az UE4-nek, mint akkor az UE3-nak. Illetve más a hozzáállása is a fejlesztőknek a licenszelhető motorokhoz. A mostani környezetben egy ilyet meglépni bőven károsabb lehet, mint akkor.
[ Szerkesztve ]
Star Citizen FAQ http://starcitizen.hu/star-citizen-faq-az-ujaknak/ (Mielőtt kérdeznél)
-
#16939776
törölt tag
Ez fut 35,9 FPS-el egy diszkrét kártyán?? El lesznek vele karácsonyig a fejlesztők
(#71) Jack@l: csoda várás eddig sem volt, csak ahhoz képest hogy néz ki, és milyen a fizika, ahhoz képest "nem sok" a frame. Lesz ennél potensebb motor is, legalább is nagyon remélem
[ Szerkesztve ]
-
Jack@l
veterán
válasz #16939776 #70 üzenetére
120 fps 980ti-n, 12%-os procihasználattal. Csodát nem kell várni gpu téren, párszor már mondtam.
Az UE 4.9 amivel csinálták még alfás stádiumnban van, talán kicsit javítanak rajta még, de nem hiszem hogy sokkal gyorsabb lesz ez már.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
sb
veterán
válasz #16939776 #63 üzenetére
Akkor jön ugyanaz hetvenharmadszor? Ki veszi meg?Miből él majd a PC játékfejlesztő?
Behinthetik sóval akkora PC gaminget.Ez még mindig ugyanaz a kérdéskör ami tök egyszerű szerintem:
1. Ugyanazt (DX9-11) nem tudod eladni 5-10 éven át. Ebből megélni nem lehet.
2. Új dolgot pedig csak munkával lehet teremteni. Magától ritkán születik új kód.
3. Újat meg csak extra munkával lehet csinálni mert jellemzően ki kell dobni a régi cucc egy részét.A fentit egyébként bármire be lehet helyettesíteni, nem csak az sw gyártásra.
-
shiftac
aktív tag
Ideje lenne már kihasználni az IGP-t, én már 10fps plusznak is örülnék, ha dolhozhatna a HD4600.
Xiaomi Mi 9 SE (LineageOS 21 - Android 14), Jabra Elite 3
-
leviske
veterán
válasz Menthirist #47 üzenetére
VR alá sem feltétlen kell, ha maga a játék nem számottevően gépigényes. Márpedig az UE4 PC-n előreláthatólag ilyen játékok alapját fogja adni, nem pedig blockbusterekét.
(#48) schawo: Ott az Unigine, emlékeim szerint mindent tudott, ami DX11-hez kell, aztán megragadt techdemo szintjén. Az UE4 gondolom minden képességgel rendelkezik, amire a vásárlóinak (stúdiók) szüksége van.
(#59) Jack@l: Itt meg egy játék UE4 alapon. Mindkét irányba lehet végletekbe menni, a lényeg viszont az, hogy nem látni, melyik stúdió lenne az, ami AAA játékban használná, hiszen a legtöbb híres UE3 franchise folytatása stúdiókon belüli motorokra van bejelentve. Ez alól egyedül a Microsoft kivétel, de náluk meg valószínűleg XO-exkluzív címek készülnek majd rá elsősorban.
-
-
veterán
-
#16939776
törölt tag
Lásd Sb hozzászólását.
4K, VR, meg ultra alcsony késleltetésű dolgok vannak beígérve, ha egy ilyen "csóró" stúdió nem tudja implementálni hozzá a több kártyás támogatást, akkor hogyan várjuk el ezeket?(#77) Menthirist: majd abu hoz egy chart-ot, hogy mennyi pénzt hoz a pc/konzol/mobil a hardver és a játékgyártóknak... Amúgy MS, intel is erre utaló lépéseket tesz, és ha jól tudom, nekik vannak a legtöbb részvényesük, akik az osztalékért verik az asztalt.
[ Szerkesztve ]
-
Jack@l
veterán
válasz #16939776 #78 üzenetére
vr-hez le tudják kódolni a két kártyát.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
nagyúr
Ez most szubjektív: szerintem über hülyeség nem megcsinálni a normális multigpu supportot, ha nincs valami komoly akadálya. Reklámérték, potenciális pénz nVidiától, etc.
A DX12 költségeit én nem ismerem, az Epic viszont biztosan. Ezért írtam azt, amit.@leviske: bármelyik jövőbeli HWzabáló játékkal 4k-ban.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
sb
veterán
Így nézve egyetértünk.
Szerintem is az - ahogy egyébként szvsz minden olyan hülyeség amit nem használnak ki az új apikban és látványosan jobb lehet tőle egy engine/játék.Csak az érvet írtam le ami alapján gondolkodhatnak.
Racionális, de ettől még butaság, avagy rossz döntés.Az a gond, hogy mindenki saját koordinátarendszerben gondolkodik és általában egy adott időpillanatra... vagy legalábbis kisebb időszeletekre.
1. Pl. van egy DX11 engine-ed. Megy, veszik. DX12-höz ki kéne dobni a felét, nagy extraköltséggel újraírni. Jobb is lenne, valószínűleg meg is érné... de bizonytalan mennyivel. Kihagyod.
2. Egy új szereplő máshogy nézi: nulláról indul, mondjuk azonos költség kifejleszteni DX12-re mindent mintha DX11-re menne. Vagy legyen mondjuk 1.2X vs X. X-el spórolnál, de igazából mindegy, mert aztán újra kéne írni 0.7X-ből az egészet előbb-utóbb. Megírod full supporttal.
3. Harmadik lépésben viszont már a régi motoros is elgondolkodhat rajta, hiszen megjelent egy új játékos. mindent támogat, jobban viszik az engine-t. Hiába volt kisebb költséged az elején most esik a bevétel így jobban jártál volna talán nagyobb költséggel de növekvő bevétellel. -
sb
veterán
Lazán kapcsolódik szerintem:
A MediaTek ténylegesen rágyúr az OpenCL-reItt is szarakodnak a Google-nél a gpgpu-val, de előbb-utóbbi valaki lép. Akár egy kisebb szereplő. Ha ezzel versenyelőnybe lehet kerülni mert hoz annyit akkor mindenképp lesz olyan szereplő új/régi, kicsi/nagy, bevállalós, stb... akinek megéri... és akkor már mindjárt más a helyzet amihez a nem támogató szereplőnek is alkalmazkodnia kell.
-
leviske
veterán
válasz #16939776 #78 üzenetére
Adott egy játékmotor, amire -az eddig bejelentettek alapján- a Fable multis mókája lesz a legütősebb PC cím a közeljövőben. Van értelme programozói időt és energiát pazarolni a multiGPU-s képfeldolgozás hagyományos megoldására, ha azonos idő alatt esetleg lehet javítani a Metal API-n való futás sebességén, vagy lehet dolgozni a saját garázsprojekteken?
Az Intel és MS idehozása meg nem teljesen korrekt, hiszen PC-t vásárolni illetve PC-re vásárolni nem ugyanannyit szokott egy átlag ember. Mobilból szám szerint több fogy, mint PC-ből, így egyértelmű, hogy ott akarnak Ők is lenni a piacon. Emellett a Microsoftnak a konzolos játékok eladásaiból is folyik be pénz, így az is érthető, hogy igyekszik azt vonzóbbá tenni, de ez így van már 15 éve.
(Erre hivatkozva is érveltem amellett korábban, hogy alternatíva nélkül a DX12 lazán évekkel később érkezett volna meg.)(#80) gbors: Nem hiszem, hogy UE4-re nagyon fognak hardverigényes játékok záporozni. Ha jönnének, biztos az Epic is látná értelmét beépíteni. Vagyis nekem azért a heterogén feladatmegosztás jóval bonyolultabb feladatnak tűnik, mint a hagyományos SLI/CFX.
Arra meg egyébként nem vennék mérget, hogy az nVidia-tól repkedne a pénz egy SLI támogatás végett. Aktuálisan a cégnek szerintem jobban megéri, ha senki sem foglalkozik az SLI-vel és a maximális teljesítményért vesz TitanX-et. A korábban bejelentett "CrosSLI" lehetősége miatt engem az sem lepne meg, ha a gyártók inkább igyekeznének lassítani a fejlesztéseket.
De mint írtam, én ebben a bejelentésben nem tudom meglátni a PC piac apokalipszisét. Aktuálisan nekem úgy tűnik, hogy az EA képviseli a technológiai élvonalat PC-n, így ha majd Ők élnek ilyen kijelentésekkel, akkor kezdek majd el aggódni, függetlenül attól, hogy nincs multiGPU-s rendszerem.
(#83) sb: Szerintem az Android esetében az OpenCL-nek annyi értelme lesz, mint Windows-on a Mantle-nek. A Google majd rálép a gázra a fejlesztések tekintetében. Más lehetőségük nagyon nincs is, mert egy alternatív áruház gyakorlatilag elrabolná a bevételeket.
[ Szerkesztve ]
-
SylverR
senior tag
Bevallom, béna vagyok matekból, tény. De picit visszavehetnél ha megkérhetlek rá szépen.
Igen, elnézést, elfelejtettem, hogy más az a PPI ami számot én írtam, meg más amit általában szoktak írni, mondani. Most vettem új monitort, és a ph-s fórumon ajánlott TV calculator weboldalon nézegettem, hogy mekkora lesz az új monitor, meg hogy viszonyul pixelpontosságra a régi monitorommal. Onnan vettem a 12000-ret. Elnézést, hogy nem állok neki utána számolgatni még külön.@(#58) TTomax:
Rendben, a Fury meg a Titan elkerülte a figyelmem. Azok tényleg monolitikus chipek. Ahogy mondjuk az x800, és az x1800 is volt a maga idejében.@(#61) Menthirist:
Köszönöm, valaki vitaképes ember is van itt legalább.
Mint írtam is, igen, Eyefinity-vel megoldható a 4k úgy, hogy a pixeldenzitás ne essen túlzásba, és a kijelző(k) ára is megmaradjon elfogadható kategóriában. Az Eyefinity egyébként tetszetős, jó dolog. Főleg desktop kiterjesztésre. A többképernyős játék azonban nem tetszene nekem. Általában a két oldalsó kijelzőn csak mosott, torzult elemek vannak, emiatt csak a 6 kijelzős megoldást tudnám értékelni. De az meg már akkora, hogy amilyen távolból kellene nézni, már pont nem lenne jó a képpontsűrűség. Ha meg olyan FOV-ban játszol, akkor megint semmi értelme. A sok szélső blurolt, mosott képelemnek nem látom értelmét. VR-ben kell. De monitoron minek?
Persze ez ismét egyéni referencia kérdése.
Maradjunk annyiban, hogy majd meglátjuk mi történik. A CryTek, meg a többi nagy cég biztos, hogy támogatni fogja a multi adaptert. Nekik szinte kötelező.
UE4, meg UE3-ból kiindulva, nem hiszem, hogy gépigényes lesz.[ Szerkesztve ]
Nem!
-
WZP
aktív tag
ha klikkelek a tálcán egy ablakra, és ennek hatására minimalizálódik/maximalizálódik, akkor amíg nincs vége a szép ablakanimációnak nem tudom mozgatni az egeret. +Aero témában háttérváltás közben(automata X percenkénti váltás) beszaggat az egész windows, akármilyen ablak A-ból B-be mozgatása akad az alatt a pár másodperc alatt amíg a háttér áttűnés megy. i5-4200M +SSD +730M optimusban
Inter Arma Enim Silent Leges
-
Feruendios
aktív tag
Okos döntés volt ez az Epic részéről, Meg azt se felejtsük el, hogy a Dx 12 alapból hozott egy olyan 2-300%-os gyorsulást.
Az SLI meg a Crossfire pedig igazából soha nem volt egy gazdaságos megoldás inkább olyan Techdemó szinten tudnám jellemezni.Sajnos mar nincs magyar billentyuzetem :(
-
nagyúr
válasz Feruendios #89 üzenetére
Te melyik alternatív jövőből jöttél?
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
Új hozzászólás Aktív témák
- DIGI Mobil
- Háztartási gépek
- Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
- OLED TV topic
- Android alkalmazások - szoftver kibeszélő topik
- Mibe tegyem a megtakarításaimat?
- Androidos fejegységek
- Bambu Lab X1/X1C, P1P-P1S és A1 mini tulajok
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- További aktív témák...
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- XFX RX 6600 XT SPEEDSTER SWFT 210