- Soundbar, soundplate, hangprojektor
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- HiFi műszaki szemmel - sztereó hangrendszerek
- RAM topik
- ThinkPad (NEM IdeaPad)
- Házimozi belépő szinten
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Megvált az Altera többségi tulajdonától az Intel
- TCL LCD és LED TV-k
- Fujifilm X
Új hozzászólás Aktív témák
-
válasz
-=RelakS=- #96 üzenetére
fele se igaz, ha csak nem V 100 gaming változatáról van szó, vagy valami hasonló aberrált különlegességről. WCC napi szinten osztja a fals infókat és ebből elég sok tényként száll a neten, ez is tőlük jött.
-
Bicsibocsi
tag
válasz
-=RelakS=- #96 üzenetére
Szerintem telibetrafáltál. 🙂
-
-=RelakS=-
veterán
1500 dollár?
Ezek azt hiszik, hogy én vagyok a Pali baba, ők meg a 40 rabló? -
-=RelakS=-
veterán
válasz
Csabroncka #94 üzenetére
16:9 .... pfff .... akkoriban még a 16:10 volt a menő
1600*1200 után jó is volt, hogy csak szélesebb lett a kép, nem alacsonyabb is
Egy kissé fájt, mikor láttam 1-2 évre rá, hogy a 16:10 kezd eltűnni, és szinte csak 16:9-es monitorokat árulnak. Át is tértem tévékre kb 7 éven át -
Csabroncka
addikt
válasz
-=RelakS=- #93 üzenetére
Azt nem tudom, hogy a BF2-őt lehetett-e emlékeim szerint talán a 2142-ő volt amit már a 16:9-esemen natívan tudtam futtatni....
Mindenesetre akkor volt időm, de combos cuccra nem volt lóvé - most lenne lóvé combos cuccra csak időm nincs
-
-=RelakS=-
veterán
válasz
Csabroncka #92 üzenetére
10 éve már megvolt a 24"-os monitorom, szóval amit lehetett, 1920*1200-ban futtattam. Igaz, akkoriban már belegabalyodtam az animékbe, szóval annyit nem játszottam, pláne nem friss játékokkal
Akkor még egy talán GT8600-as (vagy GTX? Nem tudom, melyik volt a kisebb) videókártyám volt, 256MB rammal.
DooM 2016-ot viccből elindítottam rajta. Az körülnézett, "Miezaszar?", és dobott egy halált a konzolra, hogy nem talál megfelelő hardvert -
Csabroncka
addikt
válasz
Bicsibocsi #58 üzenetére
Az optimalizáció és a memória kérdése teljesen más dolog (csak abba gondolj bele, hogy mekkora felbontású textúramennyiséget akarnak belepasszírozni)!
VRAM kérdésen sokan nyafognak, én igaz abbahagytam a játékot, de 10 évvel ezelőtt is kellett 256 -512 MB, ramból meg minimum a duplája.
Mekkora volt a legnagyobb felbontás? Majd valaki megmondja, talán 1280x1024 px
-
Tomassy00
senior tag
Ez kb olyan mint tényként kijelenteni hogy nincsenek földön kívüliek, úgy téve mint ha bejárták volna az egész univerzumot
"A bozon az univerzum egyik legnagyobb tömegű elemi részecskéje.
1983-ban fedezték fel a CERN szuper proton-antiproton részecskegyorsítójában folytatott kísérletsorozatokban. A felfedezés olyan tudományos áttörés volt, amelyet egy év múlva, 1984-ben már fizikai Nobel-díjjal jutalmaztak." -
Dare2Live
félisten
válasz
Interceptor #85 üzenetére
Felbontás.... eszi a sávszélt szóval most is.
-
Interceptor
addikt
-
Bicsibocsi
tag
válasz
Felhőtakaró #82 üzenetére
Inkább Pénztáros "The gasman" Lőrinc gazda. 😁
-
#74018560
törölt tag
válasz
Felhőtakaró #82 üzenetére
Muhaha
-
válasz
Felhőtakaró #80 üzenetére
-
Felhőtakaró
tag
válasz
-=RelakS=- #69 üzenetére
-=RelakS=- testvér; szerintem mi biztos nem tudhatjuk mit hoz a jövő.
Könnyen megeshet hogy már egy ideje dolgoznak a problémán és a méretek nanométerek tovább fognak csökkenni szépen lassan mint az elmúlt évtizedekben.
Csak már lehet nem 55, 40, 28, meg 7 nanométerekröl fogunk beszélni hanem mondjuk
256 femtométer, 64 femtométer satöbbi."A bozon az univerzum egyik legnagyobb tömegű elemi részecskéje.
1983-ban fedezték fel a CERN szuper proton-antiproton részecskegyorsítójában folytatott kísérletsorozatokban. A felfedezés olyan tudományos áttörés volt, amelyet egy év múlva, 1984-ben már fizikai Nobel-díjjal jutalmaztak."-Szóval megeshet hogy a bozonok fogják borzolni az idegeinket, és lesznek az elektronok közvetítőrészecskéi.
-
válasz
Interceptor #77 üzenetére
Mégis hogy kerülhetnének hátrányba? A GDDR6 azért jó, mert feleannyi lapkával hozható ugyanaz a sávszél és kapacitás. Vagy ugyanannyi lapkával több sávszél és kapacitás. Ennyi.
-
Interceptor
addikt
Lehet hülye kérdés, de a gddr5/gddr5x-es kártyák hátrányba kerülhetnek majd valamilyen módon az elkövetkező 1-2 évben megjelenő játékokban a hamarosan elinduló gddr6-ra épülő kártyákhoz képest?
(#76) -=RelakS=-: Ellenben egy kingdom come-ban lehet sok esetben megfekszik 4k alatt
-
-=RelakS=-
veterán
válasz
Interceptor #75 üzenetére
Attól is függ, melyik játékot.
Quake Champions/Doom 55-60fps-t simán kiizaszt a GTX1070-ből max grafikán. -
-=RelakS=-
veterán
válasz
Bicsibocsi #73 üzenetére
Az egyetem mást ír a saját fejlesztéséről, biztos rosszul mérték.
Now, the Michigan team has gone even smaller, with a device that measures just 0.3 mm to a side—dwarfed by a grain of rice.
The paper is titled “A 0.04mm3 16nW Wireless and Batteryless Sensor System with Integrated Cortex-M0+ Processor and Optical Communication for Cellular Temperature Measurement.”Egyesével nem látom leírva a méreteket.
A processzor meg lehetne még kisebb is, ha nem 40nm-es technológiával gyártanákDe az biztos, hogy a méretcsökkenés el fog érni egy határt, ami után nem lesz kisebb processzor. A sebesség pl étvizedekkel ezelőtt elérte a maximumát 4-5GHz között, azóta nem nagyon emelték a gyári órajeleket. Hol van már a jó kis Pentium 133-mam
-
Bicsibocsi
tag
válasz
-=RelakS=- #72 üzenetére
0,11mm² a nagyobbik és 0,03mm² a kisebbik számítógép.
Maga a processzor mérete 0,007mm².
Csak a pontosítás végett. -
-=RelakS=-
veterán
válasz
Bicsibocsi #71 üzenetére
Én viszont úgy gondolom, hogy amíg anyagi építőelemekből áll egy processzor, addig az atom mérete az eléggé meghatározza a miniatürizálás mértékét.
Amúgy meg csak gondold át, hogy mennyire felfoghatatlanok a viszonyok.
0.3mm az általad linkelt mikroszámítógép, ekkora hosszon durván 2,7 millió atom van, illetve ha jól értem, 7nm-en olyan 380ezer felé tudják osztani (tehát a fele, kb 190 ezer vezető sáv fér el rajta). Gondolj bele, hogy ha 0,1mm-re növeled a vezetősávot, akkor az a porszem hirtelen 38m oldalhosszúságú lesz.Felfoghatatlan számok, de amíg áram kell bele, addig anyag is, és addig határ is lesz.
-
Bicsibocsi
tag
válasz
-=RelakS=- #69 üzenetére
Szerintem kb nincs határ... Illetve van. A semmi a határ.
Azért ez is elég érdekes. A világ legkisebb számítógépe.
Egy ARM Cortex M0 processzor hajtja.
Ha ebből indulok ki akkor nincs végső határ szinte a kicsinyítésben. Illetve van amit már feljebb írtam, de az már a semmi kategória. -
shiftythefox
csendes tag
válasz
-=RelakS=- #69 üzenetére
Elérik előbb utóbb a végét, amit a mai méretekbe bele lehet szorítani, de ki tudja mikor találnak valamit, amivel megint ugrani lehet egyet. lsd. még: [ezt a cikket pl.]
Ha meg nem, akkor az ésszerűség határáig kitolják a cuccok méretét. Kicsivel nagyobb alkatrészek, de ott is lesz egy határ. Nameg a fogyasztás sem lesz mindegy, ezen a szörnyetegen is van 3 db 8 pin-es csati?!
-
-=RelakS=-
veterán
válasz
shiftythefox #68 üzenetére
Viszont amikor egy szilícium atom átmérője 0,11nm, és épp a 7nm-es csíkszélesség kezd "divatba" jönni, akkor azért már elég közel van a fizikai határ, nem?
-
shiftythefox
csendes tag
Ilyenkor elgondolkodok, hogy minek ekkora, meg, hogy meg fog állni a rakétaszerű tech-fejlődés egy ponton aztán eszembe jut a régi MX440-em, meg az 512 meg ramom a Pentium procimmal egy ma már undorítóra sárgult házban.
-
Abu85
HÁZIGAZDA
Az ár az inkább licenckérdés. Egy NVLink licenc 350 dollár. Tehát ha egy gyártó csinál egy konnektort, akkor ezt a pénzt muszáj kicsengetnie az NV-nek eladásonként. G-Sync szindróma. Azzal kerülhető el, hogy más licencet ír az NV a VGA-khoz. Mondjuk az nagy kérdés, hogy az alaplapgyártónak ezért kellene-e fizetni.
Ray-tracingre tök felesleges egybekötni két GPU-t. Az API felismeri a két erőforrást, innentől kezdve pedig célozhatod akármelyiket akármilyen feladattal. NVLinkre ilyenkor semmi szükség, egyrészt az API nem definiálja ezt a kapcsolatot, másrészt alig másolsz adatot, memóriakoherencia pedig pláne nem feltétel.
A GPU-s PhysX-et megölte a Microsoft az UWP-vel. Csak akkor térhet vissza, ha az NV átrakja DirectCompute-ra, de az sok pénzbe kerül, és marhára nincs jelentkező sem, akit érdekel. Ilyen formában ez egy döglött ló, amibe hiába raknának pénzt.
Az effekteket nem lehet azért ennyire szétválasztani. Ha valamit át akarsz rakni egy másik GPU-ra, akkor mindenképpen olyan dolgot kell keresni, ami jól leválasztható a rendering pipeline-ról. A legtöbb effekt nem ilyen, maximum a post-process lehet opció. -
Dare2Live
félisten
válasz
Bicsibocsi #62 üzenetére
1180TInek két értelme lenne. 4K monitort kihajtani ~100fps környékén és a VR. 4K is eszi a ramot, de VR meg zabálja.
-
válasz
Bicsibocsi #60 üzenetére
Ha jól tudom a játék tömörítve tárolja a textúrákat.
-
Dyingsoul
veterán
válasz
Bicsibocsi #62 üzenetére
Persze de azért azt is figyelembe kell venni, hogy ezek a kártyák ha megérkeznek a következő években ki kell, hogy szolgálják a játékokat. Tehát az is egy szempont, hogy mi van most, de aki a csúcskártyákat veszi nyilván nem azért teszi, hogy 6-7 éves játékokat függjön rajtuk hanem a bejelentett de még meg nem jelent címek miatt.
-
Bicsibocsi
tag
Tudod, hogy, hogy értettem. Sarkítottam természetesen.
Persze egy komolyabb játék negyede messze nem férne fel, csak nah. Mindegy.
Értelek titeket, értem a cikket, értem, hogy muszáj a sok memória.
Csak annyit kifogásolok, hogy működhetne ez a dolog takarékosabb memória használattal is, de nem ez az érdek... Ennyi. -
válasz
Bicsibocsi #60 üzenetére
Negyed játék? Az érkező World of Warcraft kiegészítő 70GB-ot kér, a Witcher 3 majdnem 80GB, az ArmA 3 könyvtáram több, mint 100GB, a Final Fantasy XV pedig 160GB...
-
Bicsibocsi
tag
válasz
Dyingsoul #59 üzenetére
Szerintem nagyban hozzájárul a nem optimalizálás is.
Gondolj bele. 16-32GB vram. Lassan a vga-ra telepítjük fel a játékokat? Mert jelenleg egy negyed játék felférne egy 8GB-os vga-ra.
Érted mi a "gondom". Számol az a vga, csak számol, de mit számol, ha már szinte ott van a memóriájában kb az egész játek?
Tudom nem csak játék van a világon. Csak felhoztam egy példát. -
Dyingsoul
veterán
válasz
Bicsibocsi #58 üzenetére
Ezt rosszul látod, ez nem csak optimalizáció kérdése. Ahogy megjelentek a mindenféle csodakamerás telefonok és közösségi média, úgy a háttértárak növelésének igénye is nőtt. Játékoknál a felbontás növekedésével azért egyre szebb textúrákat kell produkálni, itt a 4K, de már a 8K is kezdi bontogatni a szárnyát ezen felül pedig a realisztikusságra is törekedik a játékok egy része (pláne ami sok helyet foglal és a VRAM igénye is nagy) erre pedig szintén egyre több memória kell optimalizálás ide vagy oda.
Egyszerűen ebben az irányban IS kell fejleszteni. -
Bicsibocsi
tag
válasz
Dyingsoul #55 üzenetére
Félreértés ne essék. Tisztában vagyok a játékok memóriaigényével. Rx460-ból is 4GB-os kártyát vettem. Már akkor is bezabált a CoD WWII 3,7GB-ot. Aztán cseréltem GTX1050Ti-re. A következő kártyám mindenképp 8GB-os lesz.
Csak azt nem értem miért nem optimalizálnak jobban. Simán elég lenne egy 2-4GB-os kártya a fullosabb játékokhoz, csak ugye nem érdek, mert a programozókat költségesebb megfizetni mint rátenni a kártyákra még 4-8GB-nyi ramot. -
TTomax
félisten
A Volta 815mm2ben ha jól tudom benne van a HBM is,itt pedig erről szó sincs.Igen ez egy 5-600mm2es gpunak látszik,és hát a dupla oldalas VRM meg az a csomó jumper a vgan nem nagyon geforcera utal.Lehet Titan lesz a gamer vonalra,az beleillene az nV marketingbe mert kb igy szokták a GX104el mindig jön egy Titan is.Amugy Teslakra szokás ilyen kétoldalas VRMet rakni,de mivel az már kinn van lehet Quadro is.
-
Dyingsoul
veterán
válasz
Bicsibocsi #7 üzenetére
Idézném az egyik hozzászólást a sok közül amikor is le akartak beszélni 2Gb-os VGA vásárlásról, még 2009-ből. akkor is sokan mondták, hogy nincs értelme nagy memóriával szerelt vga-t venni, most is sokan ezt mondják.
-
Ez nem egyértelmű, mert a GV100( mostani volta) pontosan 33 % kal nagyobb, mint a GP 100 . konkurens oldalon pont azt boncolgatták, hogy akkor arányaiban a GP 102 Volta méreteinek felelne meg ez az üres GPU hely, azaz a GV102 nek. ( 1180 TI) Persze lehetséges , hogy nem geforce, de esély van rá.
-
válasz
Bicsibocsi #48 üzenetére
-
De ez nem egy teljes értékű Nv link hanem egy felezett , átalakított a képen. Lehet, hogy ez miatt az ára se lenne annyi , de a sebessége fölötte lenne a mostani hidakénak.
Igazából én arra gondoltam, hogy ha 2 GPU lenne egybe kötve az egyik lehetne felelős a raytracing -physx számításokért, Dx 12 alatt vagy esetleg egyéb FP16-32 számítás igényes effektek lefuttatásáért.
Megpróbálom megkeresni azt a TPU-s cikket. -
FlashLed
senior tag
De kivancsi lennek miez. De lehet tenyleg csak a mezes madzsag elhuzasa es egy tobb eves protoipus ...
-
Abu85
HÁZIGAZDA
Technikailag vagy pénzügyileg?
Technikailag meg lehet egyébként csinálni vele azt, hogy a program felé mondjuk két GPU egynek látszik. A driver tudja kezelni az NVLinket, és lejelentheti az erőforrást egyként. Az nagy kérdés persze, hogy a mostani alkalmazásokkal ez hogyan működne, azért hiába memóriakoherens a link, fizikailag nagyon nagy a távolság, és az az ideális, hogy még ha az erőforrás szempontjából a két GPU egyként is látszik, azért az egyik GPU ne nagyon olvasson a másik memóriájából, mert akkor az ~600 GB/s helyett ~60 GB/s. Szóval vannak itt technikai buktatók az elmélet működőképessége mellett.
Pénzügyileg meg a konnektor ára a probléma. Ez nem egy 50 dolláros fillérekért gyártható összeköttetés, hanem jelenleg bő 500 dollár az ára.
Nem számít a host processzor architektúrája. Eleve PCI Expressen kapcsolódik a hostra, ami már nem memóriakoherens interfész. A PC-s környezetben a rendszermemóriát a Volta semmiképpen sem tudná memóriakoherens elérni. A multiprocesszorokba épített címfordító a Power9 ISA-t támogatja. Ez ki is lesz kapcsolva PC-n, mert minek. Egyrészt eleve a PCI Express kiüti ezt a képességet, másrészt nem nagyon fog Power9-es hosttal találkozni. Ha HBCC-szerű fícsőrre gondolsz, akkor ahhoz pedig nem kell NVLink, de megfelelő címfordító azért nem árt hozzá. És azért számold hozzá, hogy ez a Vega 10-en is úgy működik jelenleg, hogy a HBCC nem éri el a host memóriát, hanem csak a sharedet. Igazából az NVLink és a GMI annyiban lenne több a PCIe-nél, hogy a host is elérhető lenne. Amúgy driver szinten nagyon bonyolult a menedzsment, talán megér egy cikket, hogy ez jobban érthető legyen.
-
1080 ti GDDR6-tal?
-
" nem lepne meg ha ez a kártya pl a 1080Ti prototípusa lenne"
nem tudom lehetséges hogy hülye vagyok,de 1080Ti már évek óta van.Vagy nem értem mit akarsz írni. Én nem írtam hogy ez 1080 Ti nyák, csak nem értem amit írsz
Turing lesz elméletileg a köv GPU, nem Volta, annak a méretéről még nem igen tudni semmit, lehet éppen az is a mérete miatt.
cain69 : Elméletileg képes elérni Volta a CPU laptábláit Nvlink interfészen keresztül, nem tartom kizártnak így a másik GPU-t sem. Persze X86 licensz nincs, szóval...
-
TTomax
félisten
-
válasz
Bicsibocsi #7 üzenetére
Sok szerepe van ebben a Dx 12 nek is, mivel sokkal kevesebb korlát van már ilyen téren, van illetve reméljük lesz mire és hova felhasználni a ramot. elég nehézkes a memóriamenedzsment megoldása jelenleg eza nagy szabadság hátulütője. Mindegyik cég máshogy próbálja megoldania feladatot.
Abu: Nvlink opció lehet ezek szerint otthoni környezetben? esetleg SLI kiváltására működhet egy GPU ként működtetve 2 darab Volta/ Turing alapú kártya?mert valami ilyesmit boncolgattak múltkor TPU-n , hogy ha Nv link bejöhet és akár a sebessége révén el lehetne hagyni a több GPR ra való szinkronizálást, mert állítólag képes lesz/ lenne összeadni a 2 GPU számítási teljesítményét a CPU és egyként használni . Vagy ez csak IBM, ha egyáltalán működhet?X86 lehet opció?
TTomax : 1180 TI-re gondoltál szerintem
-
paprobert
őstag
Nem lehet sokat várni az nvidiától. Egyszerűen nem tehetik meg hogy még jobban lelépjék a konkurenciát...
Egy picit jobb tech, picit több tranyó, közel stagnáló perf./watt, picit jobban csillogó bőrkabát.
-
carl18
addikt
A sok videó ram nem is full hd miatt kell hanem inkább a 4K miatt, na meg hát mindig nő a játékok videóram ígénye. De valóban durva lassan több a vram mint a sima ram.
Azért a GTA 6 gépigényére kíváncsi leszek, 4 giga biztos kell majd neki lowra.
Szerintem is érdekes a mostani szituáció, mivel rengeteg kártya van még pascal raktáron. -
Apollyon
Korrektor
Ezekszerint még nem tudtátok, hogy az új geforce-ok nem jönnek asztali verzióban, kizárólag bányászkártyák lesznek, videokimenet nélkül.
-
Dandris
tag
"A Hynix a beszállító. Velük van szerződése az NV-nek. A HBM2-t is tőlük veszik. A Hynix leplezte le amúgy az új sorozatot, még amikor bejelentették a GDDR6-ot. "
-
TTomax
félisten
Ezzel a nyákkal biztos nem geforce ...
-
keIdor
titán
válasz
hombre[EU] #24 üzenetére
Vagy Quadro.
-
L4mie
veterán
válasz
hombre[EU] #24 üzenetére
lehet a 1150 Ti
-
hombre[EU]
veterán
Ez az 1180ti?
Egy prototípus pcb-t nem szokás ott felejteni az ebédlōasztalonmást pedig minek mutogatna az nvidia?!
-
Ugyan már, ez csak az új Galaxy Note 9, ott van az alján az usb csati.
Amúgy, ahogy azt már más topikban leírták, a táp itt nem mérvadó, rátoltak 3-szor akkorát, hogy ne azzal kelljen bíbelődni, hogy kevés.
-
Redneck
nagyúr
A három tápcsati és a négy kis ventilátor alacsony fogyasztást sejtet...
-
keIdor
titán
válasz
Petykemano #11 üzenetére
A legfrissebb infók szerint 2018 vége, 2019 eleje, de ez is csak pletyka, mint a 2 hónap szóval ki tudja.
De én a 2 hónapot kizárnám, mivel tele van a padlás Pascallal eleve. -
L4mie
veterán
vajon mennyit hessel? O.o
-
M.T.
senior tag
Ha bekapcsolod a HBCC-t akkor is?
Amúgy nem csak a magas felbontás és a nagy textúrák miatt kell sok Vram hanem a hanyag memóriakezelés miatt is kb fele annyi is eleg lenne ha normálisan kitakarítanák a ramot rendszeresen de az + munka és meg a clear miatt lassulna is a feldolgozás bar sztem alig észrevehető módon.
-
válasz
Bicsibocsi #7 üzenetére
Lassan több RAM kell egy vga-ra mint rendszermemória?
Várd ki a végét.
Alaphangon a textúráknak a háttértár -> RAM -> VRAM utat kell bejárniuk, ha jól tudom, tehát az összes elhasznált VRAM-ból a frame buffer-t nem számítva végig kell járniuk az utat.
Gondolom a memóriagyártók hatására mesterségesen fognak majd a játékok vram igénye az egekbe szökni, hogy legyen visszaigazolás, hogy márpedig kell a márióhoz a 24GB vram.
Inkább egy összetett képlet. Már egy ideje itt vannak a 4K-s kijelzők, de ahhoz, hogy értelme legyen, erős VGA kell. Hogy a látható képminőség jelentősen jobb legyen, nagyobb felbontású textúrák is kellenek. És akkor a különféle effektekről, élsimitásról még nem is beszéltünk. Ezek mind-mind memóriafüggőek, a 8GB-os kártyákat már jó ideje kihasználják a játékok, ha 4K-ban játszol velük. A tavalyi Middle-Earth Shadow of War játékhoz kihozott Ultra Texture Pack akár 10GB ramot is kihasznált.
Szóval nem, egyáltalán nem extrém a dolog. Ha a jövő játékai még nagyobb felbontású textúrákat akarnak és mindezt 4K-s felbontásban megmozgatni, ahhoz sok ram kell. Nyilván a középkategóriában megmarad a 6-8GB mennyiség, de a csúcskategória simán mehet 12-24GB szintre...
-
Tomassy00
senior tag
Kémfotó ? Na persze
-
#74018560
törölt tag
válasz
Petykemano #11 üzenetére
Hát hogyne, igaz, hogy még félig sincs kész
-
erer1000
őstag
válasz
Bicsibocsi #7 üzenetére
Több játékot is láttam ami fhd-ba is simán 1-2GB közt ette a ramot csak, de a vram-bol 3at stabilan.
Jobb , nagyobb textúrák miatt, + a 4k miatt simán lehet hogy a vram több lesz mint a sima
-
Petykemano
veterán
Most már csak 2 hónap és jönnek az új GPU-k, igaz?
-
Duddi
aktív tag
3 darab 8 pines tápcsati széép
Akkor ez most vega 64 fogyasztási kategóriában fog indulni? de akkor gondolom ezt is mindenki szidni fogja a wattok miatt.A HBM tudtommal drágább mint a sima memória csak kevesebb kell belőle illetve mivel egy interposeren kell lennie a gpu chippel így nem lehet akármennyit odarakni.
Bár ki tudja lehet megoldják egy nap hogy a logikai magok egy infinity fabrikkal vagy MCM-GPU megoldással érjék el a HBM memóriákat bárhol a lapon. -
MSI.Navi
tag
válasz
Bicsibocsi #7 üzenetére
4k hamar elfogy a VGA memória.
-
Bicsibocsi
tag
Hova ennyi memória egy vga-ra? Hagyjuk má'...
Lassan több RAM kell egy vga-ra mint rendszermemória?
Hova fog ez vezetni? 32-64GB-os vga-k mellett 16GB rendszermemóriával lesznek a gépek?
Gondolom a memóriagyártók hatására mesterségesen fognak majd a játékok vram igénye az egekbe szökni, hogy legyen visszaigazolás, hogy márpedig kell a márióhoz a 24GB vram.
Akkorát fog pukkanni az IT ipar, hogy öröm lesz nézni. -
Petykemano
veterán
NA most és akkor mi van a visszaküldött 300000 kártyával?
Szétosztják a harmadik világban? -
GodGamer5
addikt
A HBM ram csak nem akar terjedni? Pedig arról volt szó, hogy a gddr6 aranyáron megy.
-
MSI.Navi
tag
Hirtelen azt hittem valami áramfejlesztő
.
-
Fred23
nagyúr
Ránézésre 75W TDP fölött van, nem kell!
-
egyedülülő
őstag
Gyanítom előbb fogom a 1080-at 1080ti-re cserélni, mintsem váltani az új generációra. Persze ha hirtelen jön az új trend, hogy max grafikához kell a 12-24 giga ram, majd pisloghatok. Már semmin sem lepődnék meg.
Új hozzászólás Aktív témák
ph A lényeg pont lemaradt róla, de a prototípusról így is sok dolog leolvasható.
- Black & Decker töltőt keresek
- Telefon felvásárlás!! Apple iPhone 16, Apple iPhone 16e, Apple iPhone 16 Plus, Apple iPhone 16 Pro
- BESZÁMÍTÁS! Asus TUF B365M i7 9700F 16GB DDR4 512GB SSD RTX 3060Ti 8GB Rampage SHIVA Zalman 600W
- Új! HP 230 Vezetéknélküli USB-s Billentyűzet
- ÁRGARANCIA! Épített KomPhone i5 14600KF 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopszaki Kft.
Város: Budapest