Hirdetés
- Dedikált NPU-t tervezne az AMD?
- És akkor egy fejlesztőstúdió rájött, hogy vissza is élhetne a felskálázással
- 4 billió dollárt ér a Microsoft, 500 milliárd dollárral lőttek ki az AI-cégek
- Jól áll az ARM-os Windows helyzete, de a játékoknál nem jön az áttörés
- Kínai kézbe kerül a MediaMarkt áruházak tulajdonosa
Hirdetés
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
-
janos666
nagyúr
válasz
hugo chávez #1098 üzenetére
Na igen, ha OpenCL mellett a grafikáért továbbra is az OpenGL felel, az lehet visszatartó tényező.
Már nem mintha szar lenne, de már a Windows-os CAD programok is átálltak DirectX-re, és erős kiritikákkal illették mostanság a 3.x-eket, szóval az OpenGL erős negatív múlttal indulna újbóli hódító útjára.
És akkor ez még mindig nem ugyan az, mint mikor teljesen egyedi enginet (saját software rendererrel) írnak GPGPU-ra.Erre szerintem a múltból kiindulva az OpenCL kevés lesz, a CUDA mögött lett volna elég nyomóerő, ha még vagy az AMD vagy inkább az Intel beáll az nv mellé.
Szép, meg jó a nyílt szabvány dolog, de tessék, OpenGL és DirectX esete, vagy akár Linux és Windows. Kell mögé egy cég, aki lenyomja azok torkán is, akik nem kérnének belőle. Ez így magában teljesen illogikusnak tűnik, de az élet még is ezt igazolja.Joggal mondják azt is, hogy ha elterjedne a CUDA, akkor utánna az nv mindenkit úgy szopatna vele, ahogy épp nem szégyenli, de szerintem ez nagyon erős túlzás. Ha keresztbetenne például az Intelnek, az keresztbe le tudná nyelni az egész nvidiát, bőven lenne mivel zsarolni őket, hogy semmi turpisság ne legyen a CUDA verziók kiadásában, és a hardwares támogatottság terén.
AMD barátság esetén pedig az lenne a zsarolási alap, hogy otthagyják a CUDA-t, és akkor megint csak keresztbe nyeli le az nv-t az Intel és az AMD együtt.És a CUDA már kész, működik, szép és jó, aki használja, az szereti. Az OpenCL még csak szép ígéret, amiről alaptalan is túl szép jövőt feltételezni az OpenGL múltját ismerve.
-
hugo chávez
aktív tag
-
janos666
nagyúr
válasz
hugo chávez #1096 üzenetére
Tudom, de épp arról beszélek, hogy milyen lehetőségeket rejt magában, ha ez átszivárogna az otthoni szórakoztatóelektronikába is, mint például a játékok, és persze a tendenciának megfelelően kibővülne a tervezőprogramok köre is.
-
janos666
nagyúr
Ha a Larabee jó lesz az akkori játékpiacra is, akkor egy ilyen, ma csak ködös jóslatokban létező, tegra-szerű magokból összerakott, sokmagos GPGPU is jó lesz, sőt, akkor az AMD lesz bajban az R600 alapokkal.
Persze, itt az nv lesz bajban, ha CUDA kéne ahhoz, hogy meghajtsa a chipet, de az Intel sem áll a CUDA mögé, és nem is ad az nv-nek licenset olyan utasításkészletekhez, vagy olyan kompatibilis programozási keretrendszerhez, amit a Larabee-nél a játékipar használna.Pedig nagyon érdekes lenne, ha eltűnne a DirectX, és akár CUDA (vagy más hasonló) alól mindenki írhatna GPGPU-s software-t, beleértve komplett játékmotort, vagy 2D/3D tervező, szerkesztő programokat.
Ehhez kidobhatnának a GPU-ból egy adag felesleges cuccot, és még jobban felfuthatna a nyers számítási teljesítmény. A játékok pedig gyorsítókártyát bevonva renderelnének, azzal számítanák a fizikát, az AI-t, stb. Még a renderelés is javulhatna (nem lennének ilyen hülyeségek, mint hogy nincs AA), ha megszűnnének a DirectX, mint szabványos zárt rendszer korlátai, és főleg a fizika és AI terén nagyságrendi javulások szemtanúi lehetnénk pár generáció alatt.De még több fantáziát látnék a CAD programokban. Már realtime is egész élethű minőségben renderelhetné a szoftver a tervezés alatt álló, félkész művet, mert például a szilárdástni és dinamikai számítások is nagyságrendileg gyorsabban futnának le a GPGPU-n, ami ebből rögtön renderel is képet. (persze nem a végleges terv nagy pontosságú hálójával számolva, de a véges elem modelleknél is jól skálázható a felbontás az előnézethez, csak kéne az erős processzor).
Vagy ott vannak az áramlástani modellek, azok is bezabálnák a világ CPU-it, ha tényleg a szinte-valóságot akarnád lemodellezni, mondjuk egy Duna méretű folyóra, ilyen helyeken is odatehtnék magukat a GPGPU-k, azzal az extrával, hogy ugye rögtön animálhatják is az eredményeket, ha kell, tehát érzékletesebb a visszajelzés a tervező felé. (Persze, hogy ő számokból is ért, de a politikus, vagy pénzember nem, és neki is meg kell mutogatni, hogy adjanak rá pénzt is, meg úgy egyébként sem árt, ha minél emberközelibb a felhasználó felület)De ami itt még érdekes, hogy ha kilőjük a képből a DirectX-et, hirtelen megnyílik az út a Linux felé is, ha addigra tényleg lesz windows kompatibilis kernel, már csak egy driver kéne, még akkor is jól futhatnának ezek a 3D-s programok, ha nem is portolnák őket linuxra, vagy csak minimálisan igazítanának rajtuk.
-
cszn
őstag
Hát kíváncsi leszek pár év múlva hogy fog kinézni a videokártya piac. Nvidia teljesen kivonul vajon? Ati ellenfele csak az Intel lesz? Megfelelő lesz erre a larrabee? Tart a fejlődés ha nem lesz konkurens? Az árak hogy alakulnak?
(#1093) Abu85 Persze nem tudhatjuk teljesen, hogy mit akarnak, de azért kötve hiszem, hogy minden húzásuk bejönne a további piacokon amit megcéloztak. Nagy a tülekedés.
-
Abu85
HÁZIGAZDA
Amíg tudnak bevételhez jutni a GPU piacon addig persze, hogy maradnak. Persze a fejlesztések abszolút GPGPU vonalra történnek, így a GPU piacon a PhysX és a marketing lesz a termék. Ezzel nyilván kisebb kiadások érhetőek el, így elég lesz a kisebb bevétel is, ahhoz, hogy pozitív legyen a mérleg a szegmensben. A PhysX is csak NV-n lesz, így az árverseny sem fontos, hiszen aki PhysX-et akar csak GeForce-ban gondolkodhat, még a Radeon mellé helyezhető társkártyás lehetőséget is megvágták. Gyakorlatilag az NV nem tekinti az AMD-t követlen ellenfélnek, felkínálnak egy plusz szolgáltatást, amit csak az NV-n érhetsz el.
-
cszn
őstag
-
cszn
őstag
"Rayfield a Hexus munkatársainak adott nyilatkozatában egyenesen úgy fogalmazott, hogy a Tegra az Nvidia jövőjét jelenti."
Ilyen kijelentések mellett azért elgondolkodok, hogy érdemes e várni az Nvidia új kártyáját. Mennyire akarnak lassan kivonulni a vga piacról, ha tényleg kiakarnak?
A legfontosabb kérdés tényleg az, hogy most GPGPUt vagy egy normális hatékony videokártyát akarnak csinálni? Van erről már biztos infó? Mert sztem az első verzióval felgyorsítják a saját kivonulásukat és nekik sok pénz lenne azért... Nem tudom megengedhetik e maguknak. -
hugo chávez
aktív tag
Lemaradtam volna valamiről? Eddig úgy tudtam, hogy az Nv dx11-es (gt300?) (gp)gpu-ja 40nm-en jön ki, nem pedig 28nm-en és remélhetőleg nem 2010 Q2-ben, hanem 2009 Q4-ben.
-
TomLion
tag
Akkor az ütemterv jó, 2009Q4-re egy kis Dx10.1, mondjuk a G92-vel, pl 340 és 350 néven, majd tavasszal 2010Q2-ben jön az új célhardver Dx11-re, brutális méretű chip miniatürizálva 28nm-en
, és sok mindenesz, csak elkésve nem az addig megjelent Dx11 es játékok számát tekintve, viszont addig fenntartható a hype a Phisx és a Stereo3D révén..
B tervnek azért nem olyan rossz... -
Gonosz15
aktív tag
válasz
biggamer #1083 üzenetére
Read only vagy csak a pH -t nem olvasod?
http://prohardver.hu/hir/28_nanometernel_tart_a_tsmc.htmlMost látom #1075 is linkelte már.
-
biggamer
veterán
TSMC: jön a 28 nm-es gyártástechnológia : [link]
-
-
TomLion
tag
nV 40nm-en beéri a DX10.1 szériával, lesz képe kiadni őssze, majd fél évre rá kinyomja 28nm-en az új, DX11-es generációt
-
Bici
félisten
válasz
biggamer #1077 üzenetére
Miért ne? Az nV-nek az az érdeke, hogy minél olcsóbban gyártson. Valszeg lecsap az első szabad sorokra, ha teheti. Ha ő 28nm-en gyárt, aminek állítólag jó a kihozatala, és az AMD meg a fene tudja addigra miylen kihozatalú, de 40nm-es sorral nyomja csak, akkor erősen javíthat a versenyképességén.
-
Bici
félisten
-
TomLion
tag
válasz
biggamer #1074 üzenetére
És most már van hozzá gyártás is..
Ha igaz, nem semmi mozaik kezd kirajzolódni 2010 Q1 re... -
biggamer
veterán
Nvidia works on 28nm GPUs : [link]
-
hugo chávez
aktív tag
Ha már az Atinál, akkor az Nvidiánál miért ne? [link]
-
lenox
veterán
Szoval az sdk a kod futtatasahoz kell? Tenyleg en vagyok a kezdo
.
Hulyeseget meg ne beszelj, partnereknek mar tok regota van win7-es cuda sdk, de most a te kedvedert direkt megneztem, a publikus oldalon is ott van.
Buglistat nyilvan nem masolok ide, akit erdekel ezt a konkret bugot a megfelelo forumban is megtalalja...
-
hugo chávez
aktív tag
Ja, tudom, de szeretek reménykedni, még ha nem is valós, egyébként meg a Larrabee-ről is azt mondogatták kb. 1 évvel ezelőtt, hogy az majd elhozza a raytracinget, azután meg kiderült, hogy az első verzió csak egy tech demó lesz, de nagyon remélem, hogy az új nv karival (nevezzük bárminek) nem ez lesz a helyzet.
-
janos666
nagyúr
válasz
TESCO-Zsömle #1065 üzenetére
Azt azért ne felejts el, hogy ez az Adrien még csak G80 techdemo, nem is GT-200, de főleg nem GT-300. Ahhoz képest nem olyan rossz az.
-
zuchy
őstag
válasz
hugo chávez #1062 üzenetére
Á, olyan hardver nem mostanában lesz. GT300 is édeskevés lenne hozzá.
-
TESCO-Zsömle
titán
válasz
hugo chávez #1062 üzenetére
Hát, ha az a kép fotórealisztikus, akkor elég szar fényképezőjük lehet...
-
lenox
veterán
Persze, te nyilvan jobban tudod
.
Sajat szoftvert hasznalok, masnak se megy, meg rajta is van a buglistan, ugyhogy szerintem inkabb bug lesz.
Amugy nem semmi onbizalmad van, sose probaltad, de azert te megmondod, hogy a szoftverrel van a problema, nem a driverrel... Gratula
.
-
hugo chávez
aktív tag
Höö, fasza dolog ez a raytracing [link] , jó lenne már egy olyan hardware a közeljövőben, ami megfizethető és menne rajta mondjuk a crysis real time raytracinges verziója. Talán gt300...
-
zuchy
őstag
válasz
hugo chávez #1058 üzenetére
Charlie alkot.
-
Bici
félisten
válasz
hugo chávez #1058 üzenetére
Szal, mégiscsak heggesztenek kisebb csipeket is?
Nem lenne hülyeség. -
hugo chávez
aktív tag
Na, ezek is jó sokat tudnak [link]
-
#65755648
törölt tag
A G80 bár képes lefuttatni a DX10.0 összes eljárását, ezek között van néhány, ami teljesen kifekteti a GPU-t. Az NV ezért nagyon szépen "megkérte" a játékfejlesztőket, hogy legyenek oly szívesek NEM beépíteni a grafikus motorjaikba ezen eljárásokat és helyettük DX9-es eljárásokat használni a motorok Dx10-es verzióiban is. Lásd pl. Crysis.
-
janos666
nagyúr
Az, hogy menjen a propaganda, hogy a GT200 is csak egy átcimkézett G80, ami pedig az NV30 (FX 5800) reinkarnációja, így bár ráhazudják a DX 10.0-át, még a 9.0 teljeskörű támogatására sem vehetünk mérget (még akkor se, ha a Gef 6800 megelőzte a Radeon x800-at SM3.0-ával), miközben a Radeonoknál már 9800Pro óta minden egyes chip egy-egy új evolúció, ahogy már az R600 is úgy készült, hogy csak egy lépésre volt a DX 13.6-tól, és az új GPU-knál játszi könnyedséggel megoldható az új API-k támogatása, így még előremutatóbb, jövőbe vezetőbb technikákat tesztelhetnek rajtuk élesben (mint ahogy a tesszelátor is ott csücsül a magban R600 óta).
Annak idelyén sokkal előbb készült el a G80, így az volt a DX 10.0 certification standard. Bármi is akart lenni a DX 10.0, bármi is lett végül, a lényeg, hogy amit a G80 is tud, az a DX 10.0, a GT-200 ettől még többre képes, mert egyes pontjaiban DX 10.1 képes lenne (CUDA-n át tud deferrend rendering alatt élsimítást, mint a 10.1-es radeonok, a Stormrise is használja), csak szándékosan nem támogatták az API-t. (Az már más kérdés, hogy maradéktalanul eleget tudtak-e volna neki, ha akarnak, ha nem.) -
Bici
félisten
válasz
janos666 #1047 üzenetére
Őő, én arra gondoltam, hogy a leendő dx11-es nV kari tudni fogja-e a dx10-et, és dx10.1-et is?
Persze, elvileg tudnia kell, de azért merült fel bennem mégis a kérdés, mert a mostani nV karikra mondják, vagy mondták régebben, hogy még a dx10 sincs teljesen beleépítve a driverbe. (vagy a kártya se tudja teljesen?)
(#1046) r1E3S3E7T: én máshog yemlékszem, de meg is keresem ahol ezt olvastam.
-
janos666
nagyúr
Ma is megy még a DirectX 6 is Windows 7 alól is, ezen a visszafelé kompatibilitáson azt értik, hogy nem kell külön renderpatch-et írni, a 11.0 lefut 10.1-es kártyán is. Már persze az a része, ami le tud, de nem kell előre elkészíteni a 10.1-et, mint a 10.0-át, vagy 9.0-át, ha azt akarják, hogy 11.0-ástól kissebb tudású kártyán is elinduljon a program.
9.5-nek a WDDM 1.0 alól futó 9.0c-t becézték, még a Vista megjelenése előtt, mert azt ígértek, ez is gyorsul majd XP-hez képest. Aztán persze a driver gondok ezt lényelték.
-
Bici
félisten
Biztos hülye kérdés, de a dx11 visszamenőleg teljesen kompatibilis a dx10.1-el is, ugye?
Tehát, ha az újabb nV kari kompatibilis lesz a dx11-el, akkor egyúttal tökéletesen kompatibilis lesz az előzőekkel is? Azért kérdezem, mert a gt200 idején még valami dx9.5-ről beszéltek többen, vagyis nem teljes dx10 támogatásról. Ez hogy jön össze a közelgő dx11-el?Más: Van valami jó leírás, ami megmagyarázza, hogy a többféle AA hogy műxik, és mivel megy, mivel nem, melyik kértya szereti, melyik nem, stb.?
Guglizok én is, de hátha az okosabbak jobbat tudnak.Köszi!
-
FireGL
aktív tag
-
tlac
nagyúr
Multi-GPU rendszer bármilyen PCIe-es VGA-val
érdekesnek és nem túl hihetőnek tűnik...
lsc:
hoppá, pedig direkt néztem is, hogy megjelent-e itt, de nem vettem észre
-
hugo chávez
aktív tag
válasz
hugo chávez #1034 üzenetére
Vagy Larrabee, de ne legyen igazam.
-
hugo chávez
aktív tag
Szerintem is inkább a 25-30 dollár körüli belépő szintű és integrált vga-knak lesz ellenfele, pláne hogy a legtöbb helyen 2011-es megjelenést írnak, bár valamelyik fórumban olvastam egy fejtegetést miszerint, ha már most tape out-ban van, akkor 10-15 hónapon belül piacra dobják, de nem sok olyan terméket láttam, amit hamarabb kiadtak, általában az eredeti megjelenési idejükhöz képest is csúszni szoktak, pl. clarksfield.
-
lenox
veterán
válasz
hugo chávez #1030 üzenetére
Igen, ezt en is neztem meg annak idejen, mondjuk 0-512-t irnak. Mai allapotban 64 GB/sec 512 MB ram eleg egy 100 dollaros vga-hoz, magyaran ha ez minden lapon rajta lenne es ha a hozza valok procikban is meglenne a megfelelo gpu, es ha ennel nem lenne olcsobb platform, es ha mire kijon nem lennenek a 100 dollaros vga-k ketszer ilyen gyorsak, akkor valoban legyakna a piacot, csak nekem ez tul sok ha ahhoz, hogy ne ketelkedjek...
-
Fagyi
aktív tag
De csak az kicsit régebben volt frissítve !
Köszi ott is megkérdezzük hátha.
Ati val is jártem így régebben.1/2 év utén nvidia váltás megszűntette a gondomat, de addig szívtam vele rendesen.
Most is váltás volt 6600-7600 kényszerből és nem megy a dolog.
Pedig elvileg a driver tudja, csak nem hajlandó működni ! Lehet Uri Gellert elhívomm hozzá és fog mukodni. -
Fagyi
aktív tag
Kis segítséget kérnék!
Hogy tudom aktiválni a composit jelet agy asus 7600 gt kariban
Ha felteszem az asus driverét akkor nuku kompozit jel csak svideo vagy komponens 182....
Ha a legujjabb 193.80. van fenn akkor tud svideo kompozit jelet csak nem engedi átállítani az apply után uaúgy marad s-videón!
Hogy tudnék kicsikarni belőlle kompozit jelet ? -
janos666
nagyúr
Erre a kérdésre nekem az ugrott be, hogy használhatja a CPU-nak szánt rendszermemóriát is (olcsó procik esetére), esetleg hagynak külön foglalatokat a GPU memória számára, vagy inkább a PCI-E slotba lehet majd RAM chipekkel tele aggatott kártyát tenni (igény szerint, ha nem elégszel meg az osztott memóriával) , ha már úgy is a CPU-ba kerül a PCI-E vezérlő is. Bár ez elég nyakatekert dolog, mert miért ne lehetne szerencsétlen GPU is a bővítő kártyán, ahelyett, hogy a CPU magok mellé zsúfolják, aztán hűtsed léggel. Számomra is hihetetlen, hogy ez ne nyírná ki a grafika fejlődését. Highend-hez úgy is bővítő kártya kell, az Nv pedig mostanában csak azt csinált (9600GT óta). Software render-hez meg már eleve nem kell a GPU mag se, csak 2-3 sok magos CPU az alaplapra, de akkor a Larabee is öngól lenne. Vagy külön alaplapi foglalatba pakolgatjuk azokat is, nem a PCI-E-be, mint egy VGA-t? Larabee szerűséget is tud csinálni az nv is, ha bővítő kártya is lehet. Á, valami sántít még itt a jóspropaganda ködös homálya mögött...
-
lenox
veterán
Nem, en ezt tokre ertettem. Azt viszont ha jol ertem te nem erted, hogy a vga az nem csak gpu, tehat az nem tud ugy mukodni, hogy egy alaplapba kis proci kis gpuval, nagy proci nagy gpuval, mivel a gpuhoz memoria is kell. Ha az fel van rakva az alaplapra, akkor annak a savszelessege eleve megszabja, hogy mennyire lehet eros a grafika az adott lapon, hiaba teszel bele eros gpus procit. Persze lehet azt mondani, hogy minden lapon 200 GB/sec-es 4 GB-os mem lesz a gpuk szamara, csak nem hiszem el. Eleve, ha valamelyiken ez lesz, akkor draga is lesz, meg aki azt venne, az nem is jatszott volna a 100 dollaros vga piacon. Ha meg lesz piaca az entry level lapoknak 10 gb/sec-es savszelesseggel, akkor azok miatt lesz piac a 100 dollaros vga-knak is. Persze az is egy mondas, hogy a sima memoriarendszer lesz 200 GB/sec-es, ez vegul is egy lehetoseg, de szerintem nem lesz 2 even belul altalanosan jellemzo, max a high-endben (ahol nem is vettek volna 100 dollaros vgat). Sot, lehetne a memoria a cpuba/melle rakva, de akkor az mar majdnem alaplap, ebben sem hiszek.
Meg egy oldalrol megkozelitve, talan igy meg jobban lehet erteni: a komolyabb jatekok grafikai hardverigenye es az irodai gepek hardverigenye olyan messze van egymastol, hogy szerintem nem lehet mindenkivel, akinek az utobbi kell kifizettetni az elobbi arat. Akkor pedig a gyenge gepekhez ugyanugy eladhato a 100 dollaros vga, mint ma.Amugy nem tudom, mekkora szelet a tortabol a 120 dollaros alatti meg az 25-30-50 dollar alatti vgak piaca, en leginkabb a 120 dollarral vitatkozom, tehat azt keszseggel elhiszem, hogy ha benne van a prociban az entry level grafika, akkor a legalja kartyaknak eltunt a piac, de ez nem a 120 dollar szerintem, hanem a 25 koruli. Meg ehhez nem kell prociba tenni a gput, tokre eleg, ha minden chipsetben van gpu, nem csak nemelyikben.
-
Bici
félisten
Szerintem, valamit félreértettél.
Nyilván nem ugyanaz a GPU lesz minden prociban. A kicsikben kis VGA, nagyokban nagyobb VGA.
Amelyik proci mellé vennél egy 100 dodó alatti VGA-t, abba belerakják majd az oda való GPU-t.
Nyilván, ez szűkíti a variálási lehetőségeket, de ez szerintem több ember számára előny az egyszerűség miatt, mint ahány számára hátrány.
Valszeg, több proci típpus lesz, mint manapság. -
lenox
veterán
Nem tudom, nekem ez furcsanak hangzik. 100 dollar az joval tobb penz annal, hogy entry levelben ki akarnak a userek fizetni, ha meg lesz entry level, abba upgradenek el lehet adni 100 dollaros kartyat. Ettol meg biztos csokken ez a piac, de 2 even belul nem hinnem, hogy akar csak felere is csokkenne.
-
Abu85
HÁZIGAZDA
A GT200-ban csak a TCP-k használnak közös memóriát, de például a stream egységek is külön regiszterterülettel rendelkeznek. A Larrabee előnye a DP, az NV erre még mindig egy dedikált egységet alkalmaz a TCP blokkban. Ezután attól függ a Larrabee sikere, hogy az NV marad-e ennél a felállásnál, vagy változtatnak. Ha marad a dedikált egység, akkor DP-ben továbbra is nagyon le lesznek maradva, ha pedig a DP-re rágyúrnak, akkor a chip méretei kolosszálisak lesznek, és a PC-s VGA piacon gyakorlatilag semmi esélye nem lesz. Nyilván VGA szinten sok haszna nincs a DP-nek, de a tranyót azt keményen zabálja.
Ne az NV GPU-ira gondolj, azok túl vannak méretezve, mivel a GPGPU piacot is lefedik. Nézz meg egy RV670-RV770 fejlődési vonalat. A magméret alig nőtt a teljesítmény viszont brutálisan. Az RV740 magasan a legjobb teljesítmény/mm^2 mutatókkal rendelkezik, az NV GPU-k ezt meg sem közelítik. Ez a mutató az AMD ígérete szerint generációnként radikálisan nő, ami eddig meg is történt, tehát mire eljutnak 2011-ben az integrált GPU-s CPU-ig, addigra 32 nm-en 100 mm^2 alatt tudják hozni a jelenlegi HD 4870 X2 sebességét. Nyilván ez, akkor kvázi megfelel majd annak a szintnek, amit most a HD 4850 képvisel. A memória alrendszer meg meg van oldva az alaplapon. Ugyanolyan nyák, mint a VGA nyákja, semeddig nem tart oda dedikált memóriákat pakolni.
Az AMD és az Intel nem azért indul ebbe az irányba, hogy nekünk jó legyen, egyszerűen jobbak a lehetőségeik platformszinten, ráadásul ezzel a lépéssel az NV-vel sem kell törődni többet. A diszkrét kártyákra való igény durván visszaesik, most látható ennek a hatása, az NV máris helyezi át az erőforrásokat az új piacokba.
-
lenox
veterán
A DP az egy lenyeges pont, ha hasznalja az ember (en pont nem), de a tobbi dologban nekem sokkal tobb hasonlosag van, mint kulonbseg. Leginkabb arrol szol a dolog, hogy mennyire nehez ellatni adattal a vektorokat, erre meg ugyanolyan eszkozok vannak mind2be, cache-ek, shared memory mereten, memoriasavszelessegen be lehet szopni, de a tobbi dologban nem sok larrabee elonyt latok (sot, szerintem pl. a felteteles elagazas kezelese jobb a gt200-ban, es nekem a shared memory is bejon). Persze aki a compiler vektorizalasara akar tamaszkodni, annak larrabee kell, abban nagy a fejlodes, gondolom leginkabb ez lesz a larrabee sikerenek alapja, nem az alacsonyszintu felepites. Next gen nvidia adatok nyilvan nda alattiak, de szerintem aki cuda doksikat elolvasgatta, annak azert vannak sejtesei, pl. a vektorhosszakkal kapcsolatban.
Amugy a Fermi kodnevet 2008 aprilisban lattam eloszor, a tapasztalat eddig azt mutatja, hogy a hosszu ideig meglevo kodnevek vegul nem lettek termeknevek, ugyhogy en a Fermi ellen tippelek, de ez nyilvan nem kobe vesett szabaly.
Amugy egy kerdes. A cpu-ba integralt gpu az miert gyakja le a 120 dollar alatti piacot? Csak mert chipsetbe integralva alulrol suroljak a 25 dollaros vga-kat teljesitmenyben jelenleg, ez nem tudom miert valtozna, ha a cpuba rakjak oket. Ahhoz komolyabb memoriarendszer is kene, hogy elerjek a 120 dollaros kartyak sebesseget, azt meg ketlem, hogy 2011-tol minden alaplap annyira fel lenne tuningolva, mivel akkor rogton oriasi piaci res keletkezne a gyengebb rendszerek piacan, amit ha valaki betomne, rogton piacot teremtene az 50-100 dollaros kartyaknak.
-
Abu85
HÁZIGAZDA
Szerintem a PhysX-et már sohasem nyitják meg. A konzolon, ha nem is nyíltan, de megbukott a rendszer a Havokkal szemben. Gyakorlatilag ingyenes árával sem nagyon kell a nagyobb fejlesztőknek, akik kellő anyagi háttér mellett képesek saját motort írna, vagy beruházni a Havokba.
A PC vonalon pedig fel kell készülni az Intel és az AMD platform terveire. Vélhetőleg a PhysX-szel akarják az NV-nél megoldani az olcsó grafkarik piacát. Mivel 2011-től eleve lesz a CPU-ban GPU így ez a 120 dodó alatti szegmens bármely gyártó számára bukta, ellenben, ha nem veszik meg a cuccot grafkariként, majd talán megveszik fizika gyorsítóként. Valszeg annyit megéri beruházni a PC-s szegmensbe, hogy vegyenek évente 2-3 PhysX játékot.lenox: A Larrabee feldolgozási elve hasonló a GT200-hoz, de a rendszer számos szempontból különbözik. A DP-t ugyanazok a magok oldják meg, míg a GT200-on dedikált processzorok vannak erre. Továbbá a GT200 számos fix funkciós egységet tartalmaz, amire nincs szükség a GPGPU piacon, így a Larrabee a lehető legtöbb ponton emulál a hardver.
Igazából az NV-nek tényleg az lenne a legjobb ha eldöntené mit akar, mert az AMD és az Intel már döntött. Előbbi gyártó maximális hatékonyságú GPU-t csinál, és a GPGPU piacot csak pár ponton támadják be meglehetősen kis erőfeszítésekkel. Az cégóriás Intel rájött, hogy a Larrabee nem valami életképes a GPU piacon, mivel maximálisan a GPGPU piacra tervezték, ezért a GPU szegmensben a jelenlegi GMA rendszerek lesznek kipofozva. Az NV next gen-ről nem tudni sokat, de ha GPGPU lesz, akkor el kell vinni Larrabee irányba, ha pedig GPU, akkor olyat kell kínálni, mint az AMD. Ha átmenetet csinálnak, akkor mindkét piacon seggre ülnek. Az AMD rendszer - amellett, hogy a PC platfom szintű fejlődési vonala piaci szegmenseket zabál fel - hatékonyságával intézi el az új chipet, míg az Intel Larrabee, brutális DP teljesítményével. -
hugo chávez
aktív tag
válasz
hugo chávez #1018 üzenetére
Vagy szombaton, vagy mi.
-
lenox
veterán
A Larrabee ugyanugy nagy vektorokkal dolgozik, mint pl. a gt200. Stream proci amugy, nem shader, es csodalkoznek, ha nem ez, marmint a nagyon sok parhuzamos szamoloegyseg lenne a helyes irany, legalabbis erdekes, hogy mind ezt csinaljak. A gt200 ugye 30x8=240-et tud egyszerre, a Larrabee verziotol fuggoen 128-1024-et (bar en meg csak 96-ossal talalkoztam, de ez egy masik tortenet), 6 ev mulva 5000 az nem tunik annyira elrugaszkodott mondasnak.
-
Med1on
aktív tag
-
Bici
félisten
Én pedig megvárom, hogy a dx11-es Radeonok lejjebb nyomják a mostani karik árát, és később ruházok be dx11-re.
Úgysincs most pénzem új OS-re, és amúgysem akarom még leváltani a jó öreg XP-t... pláne nem pénzért.
Crytek: Én nem tudom, hogy milyen lesz az új nV kari, de nem vagyok róla meggyőződve, hogy pont egy nV ne tudna dobni valami értelmeset ennyi idő után. Kérdés, hogy akarnak-e.
Az viszont nagyon valószínű, hogy a Mental Ray GPU-gyorsításos verziója CUDA támogatást fog igényelni. Pont, amikor az újabb Radeon driverek végre jól működnek 3dsMAX alatt, jön valami, ami miatt megint nV-t kell vennem. -
Crytek
nagyúr
Ennyit várni már na egy új vga szériára
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Bomba ár! Dell Latitude E7440 - i7-4GEN I 16GB I 256SSD I 14" FHD I HDMI I Cam I W10 I Garancia!
- Bomba ár! HP ProBook 450 G7 - i5-10GEN I 16GB I 256SSD I HDMI I 15,6" FHD I Cam I W11 I Gar
- Gamer egerek és billentyűzetek kitűnő árakon! Most extra 10% kedvezmény!
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
- ASUS TUF Gaming A15 FA507NUR - 15,6" FHD 144Hz - Ryzen 7 7435HS - 16GB - 512GB -RTX 4050 -3 év gari
Állásajánlatok
Cég: FOTC
Város: Budapest