Hirdetés
- Dedikált NPU-t tervezne az AMD?
- És akkor egy fejlesztőstúdió rájött, hogy vissza is élhetne a felskálázással
- 4 billió dollárt ér a Microsoft, 500 milliárd dollárral lőttek ki az AI-cégek
- Jól áll az ARM-os Windows helyzete, de a játékoknál nem jön az áttörés
- Kínai kézbe kerül a MediaMarkt áruházak tulajdonosa
Hirdetés
Talpon vagyunk, köszönjük a sok biztatást! Ha segíteni szeretnél, boldogan ajánljuk Előfizetéseinket!
-
PROHARDVER!
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
smkb
őstag
Na de TechPowerUp-nál mitől lett Recommended? Meg nagy nagy pozitívumnak tüntetik fel az idle 10 wattot, ami agyon vissza van emlegetva a cikkben hogy húde extrém, miközben az ábrán a HD4670 is ott figyel a 10 wattjával, mindezt még 55nm-en. Nagyon nem vagyok Ati fan, de ez a kártya...
-
P00By
nagyúr
-
smkb
őstag
Olvasva a PC Perspectiven a GT210 és GT220 tesztet... ehh...HD4670 ársávjában a GT van, hogy csak felét mutatja fel, az Ati ugyancsak nem újkeletű produktumának. Vajh, OEM gyátókon kívül ki fog venni ilyen kártyát?
-
biggamer
veterán
Nvidia partners discontinued GTX285 and GTX275 : [link] -
Bici
félisten
válasz
VinoRosso #1688 üzenetére
Dehogy vagyok miller. Akkor miért gondolkodnék gts250-ben, és miért fájna a vista/w7 ára? Ezeket a progikat cégektől kaptam megrendelésekért cserébe, amikor nem tudtak/akartak kifizetni. Jobban szerettem volna egy Maya-t, vagy Adobe cs4 csomagot kapni, de nem válogathattam egy alkalommal sem.
Tulajdonképpen igazad van, több OS megoldás lenne, hisz így is van linuxom pluszban.
Majd, ha marad lé a gt240/gts250 után, akkor meglátom, de annyira nem érdekelnek az új játékok. Majd 2 év múlva olcsón, hibajavítva, rájukhangolt driverekkel.(#1689) janos666: Ráadásul a gts250 green változat, csökkentett órajelekkel.
-
janos666
nagyúr
válasz
VinoRosso #1688 üzenetére
Szerintem azért még Magyarországon sem akkora sansz megvenni eredetiben azokat a programokat, amikkel utána jövedelemre tesz szert a velük végzett munka során.
A gond ott van, ha még a szabadidős tevékenységekért is keményen kéne tejelni, miközben igen csekély a jövedelem.
Mivel nagyságrendekkel könnyebben lopható a software, mint a hardware, és mivel magát a vasat is kemény dolog összerakni, amin teljes pompájában fut a szoftware, így nem csoda, ha alig fogy a pocokról a DVD. (Ha a softwarerre adnád ki a pénzt, nem maradna hozzá való hardwarerre, és akkor eleve kár megvenni a software-t is...) Ha több high-end VGA potyogna le a kamionok platójáról a ház előtt, akkor gyakrabban írkálnám be a steambe a bankkártyám számát, illetve ha jó pénzt keresnék vele, nem csak házikat csinálnék, akkor az AutoCAD-em sem keygennel települne.Az az OC biztos egy termék? Elég magasak az órajelei, lehet, hogy ők maguk tuningolták, vagy olvastad is a tesztet?
De nem hihetetlen, ez egy GT200-ból 40nm-re áttervezett GPU 96SP-je, nem csoda, ha lenyomja az 55nm-re áttervezett G92 128SP-jét így GDDR5-el megtámogatva (tuning órajeleken...). -> huhh, ha ezt mind összeszedjük, még az a csoda, hogy kell a tuning is. -
VinoRosso
veterán
Hát ez szívás, de ha neked ezek mind megvannak eredetiben akkor elég miller lehetsz
De mondjuk vinyót venni nem olyan drága mulatság, aztán meg lehet rá telepíteni oprendszert, akár kettőt is, akár Win7-et meg Xp-t isNekem is így van.
(#1683) Zeratul : A legtöbb progi indítható OGLben és Dx-ben is, de a hibaleírás alapján drivergond lehet, nem magában driverben van valszeg, hanem a drivermodellben, illetve a rá épülő szolgáltatásokban, amiket a progi használ, illetve használna, ha menne rendesen.
(#1679) rocket
Mennyibe fog ez kerülni? Az 512-s ddr5ös OC verzió nem lehet olyan rossz, 98 shaderrel lenyomja vantageban a GTS 250-et meg a 4850-et is, azért az nem gyenge. Persze ki tudja mennyire hiteles a grafikon.
-
Bici
félisten
válasz
Zeratul #1683 üzenetére
Őőőő, 3dsMAX-ban, Lightwave-ben választható...
De ez hogy is jön ide?
(#1685) janos666: A Lightwave, és a Bryce virtuálisan dög lassú lenne, és annyira nem ritkán használom, hogy ez megérje. Ja, és a virtuális XP asszem nem is tud 3D gyorsítást... vagy valami ilyesmiről olvastam.
Tulajdonképp az XP-ből csak a dx10/dx11 hiányzik, és ezért nem akarok kiadni plusz pénzt. Van elég jó dx9-es játék, úgyis jobban szeretek kiforrott driverekkel játszani, régebbi kártyán (g92), régebbi játékokkal. Utóbbi a javítások miatt, és mert már olcsóbbak. Sosem voltam híve a legújabb dolgoknak; drágán bugosak.
-
janos666
nagyúr
válasz
Zeratul #1683 üzenetére
OpenGL-es programmal ugyan úgy (ha nem nagyobb) gond lehet XP-ről Vistára váltáskor (vagy nem tudom mire céloztál ezzel ennek kapcsán).
Amúgy az Autodesk újabban kedveli a DirectX-eket, amit én használok, abból láttam, hogy az AutoCAD kb a 2007-es vagy 2008-as verzió óta átállt.Persze, hogy lassabb virtualizálva, de ha csak ritkán használod azt, amit kénytelen vagy virtualizálni...
-
biggamer
veterán
NVIDIA Talks up Fermi at GTC : [link]
-
Bici
félisten
válasz
janos666 #1677 üzenetére
Nem, de a win7 is pénzbe fog kerülni így nem izgat túlságosan. Pláne, hogy egy igen erőforrásigényes progi virtuális módban... Nem tudom, hogy jó ötlet-e.
(#1678) VinoRosso: 5.5-ös Lightwave szarakodik a viewport váltásnál. Néha újra kell indítani a programot. Bryce 5 lefagy render közben, ToonBoom Studio 2.12 néha fagy; főleg a timeline görgetése közben.
Mondjuk, a fenti progikat nem használom napi szinten (inkább 3dsMAX), de azért hiányoznának.
Amúgy sincs kedvem pénzt adni oprendszerre, vagy újabb progikra. -
westlake
félisten
-
Zeratul
addikt
Szerverek esetében Linuxszal számolni, akkor CS már kiesik, marad az Open CL, Intelnek meg jóval komolyabb Linuxos háttere van mint nVnek, nem kétséges melyiket fogják preferálni, főleg ha egyszerű X68 környezet várja a GPU-n.
A kulás vírusölő SZVSZ csak válasz volt az Intel GPGPU vírus FUDolására. Larabeere könnyebb rosszindulatú kódot írni mert X86.
-
Bici
félisten
válasz
VinoRosso #1665 üzenetére
Szerver esetében teljesen egyetértek veled, de otthoni gépre nem hiszem, hogy jó megoldás folyamatosan pörgetni 100W körül/felett a GPU-t, és 6GB-nyi DDR5 sem lesz minden gépben, pláne nem GeForce-on.
Az alapötletet egyébként teljesen jónak tartom, még otthonra is, mert ha nem is megy teljes kakaóval a GPU, akkor is lehet szigorítai a védelmen.
Az a bibi, hogy a többi cég is érdekelt abban, hogy GPU gyorsított legyen a termékük, és ők sokkal nagyobb valószínűséggel fogják az OpenCL-t, vagy a CS-t választani. -
Zeratul
addikt
válasz
VinoRosso #1665 üzenetére
Torrenten baromi nagy értelme van a csomagszűrésnek.
Maga protokol olyan hogy csak darabkákat kapna a peerek, amit kliens a legvégén fileba egyesít és amit már tud ellenőrizni a leggyökerebb vírusölő is. Nem láttam még olyan klienst ami futtatná is a letöltött file-t. Voltak fertőzött torrent fileok de az is elkapja vírusölő még kliensbe töltés előtt, nem beszélve hogy azóta kijavították a legtöbb kliens biztonsági rését.
Malware: legtöbb normális vírusölő egy karantén tárterületen engedi csak futni a netes scripteket aminek IO folyamatát ellenőrzi, Avira, Avast stb már memóriában a böngészőhöz végrehajtás kerülés előtt leteszteli a weblap megjelentítendő, futtatandó állományokat és gyanús hivatkozásokra azzonal beavatkozik.
Up to date kitteket pipálással immunisá tehető mallware: persze, meg ahogy móricka elképzeli. Na meg az antivirus cégeknél nem dolgozik 1-2 volt hacker aki nagyon is tisztában van a dörgéssel.
Te nagyon el vagy tévedve a G300 felépítésével. A fermi 16 kernel tud futtani 1 időben de szart sem ér mert nincs teljes koherencia az L2 cachenél, AMD és Intel is szívott nem kevesett L2 koherencia problémákkal.
Futtas Foldingot a GPU és nem fog unatkozni.
Proxyn, Webszervere használni GPU-t vírusölésre még csak, csak, de torrentszűrésre baromság, ha csak nem torrent forgalom korlátozása a cél, de ott simán protokol réteg szinten letiltható.
-
VinoRosso
veterán
válasz
Zeratul #1663 üzenetére
A legtöbb védelem azért nem erőforrásigényes, mert a képességit az átlag masinákhoz igazítják, nem azért mert nem kellene/lehetne jobbat/többet megtenni. Pl kapcsold be a csomagszűrést a Nod32vel torrentezés közben, aztán csodálkozz, hogy nem éri el az 1k-t a letöltés mikor több száz szálat kell átnéznie szerencsétlen keresőnek, miközben meg egy év alatt töltődik le egy oldal, mert bedugul a hálózat. Még ha van 4 magod is, akkor is csak 4-et tudna futtatni párhuzamosan. Az nvidia kártyái ellenbeni több ezer szálra képesek ütemezni, és százas nagyságrendű az amit valódi párhuzamossággal végre tudnak hajtani. Egy szignatúra alapú keresés emiatt fényévekkel gyorsabb lehet, mivel ugynazt a kódot( bitminták összehasonlítását) kell végrehajtani több száz szálon. A fermi expliciten 512.őt tud kezelni, de egy szálon több kernel is végrehajtódhat, emiatt 7-800 szálat simán át tud fésülni anélkül, hogy ez bármilyen negatív hatással lenne a letöltési sebességre. Ehhez még az sem szükséges, hogy a háttértárkat használja, mert bőven lesz helye az adatoknak a 6 gigányi ddr5-ös vramban, így még azelőtt ellenőrizni lehet minden fájl, mielőtt rákerülne a gépre. A legnagyobb probléma a mostani védelmi rendszerekkel az, hogy csak azt tudják normális sebességgel átfésülni, ami már letöltődött a gépe, és egy okosan megít kód ilyenkor már elkezd futni. A tárrezidens védelmek persze próbálják folymatosan figyelni a rendszert, de ez legtöbbször annyit ér mint halottnak a csók. Egy komolyabb malware készítő leteszteli a kódját a népszerű védelmi rendszerekkel, és csak akkor ereszti szabadon, amikor már immunis velük szemben. Ráadásul a feketepiacon kaphatóak olyan up to date kitek, amikkel egy checkbox bepipálásával immunissá tehető egy kód a legtöbb írtó ellen. Ez teljesen kivédhető egy olyan vírusírtóval, ami csak ellenőrzött biteket ereszt be a rendszerbe, és ha ez nem lassú, akkor igen sok kellemetlenség megspórolható, én simán el tudnám viselni, hogy miközben netezek a GPU-m nem csak a seggét vakarja 2D-ben, hanem hasznosan teszi a dolgát. Az irodákba pedig elég egyetlen proxy-t kijelölni több gépre, mert általában az alkalmazottak nem szoktak torrentnek megfelelő hálózati forgalmat generálni, így több tíz vagy száz gép csomagszűrésére elegendő egyetlen Fermi chip.
-
Zeratul
addikt
válasz
VinoRosso #1662 üzenetére
Azt írtam hogy nagytöbbség tesz arra hogy min fut a kereső, azaz hidegen hagyja hogy most a CPU vagy a GPU futtatja. Az Avira ami köztudottan erőforrás igényes, de ennek megfelelően a legnagyobb találati pontosságú kereső, rezidens online védelme nem észrevehető egy átlag konfigon, de még egy régin se. Akkor meg most mit izmoznak a egy még nem is létező GPUval? Akkor lenne értelme ha az integrált alaplapi VGA-n futatható lenne, mert irodai gépekben leginkább ez van. A full scannél meg alapvetően nincs értelme CPU terhelést nézni mert a háttértárakat is annyira lefogja hogy nem tudna mellette semmi csinálni.
-
biggamer
veterán
Nvidia expects DirectX 11 titles in six to twelve months : [link]
-
-
Zeratul
addikt
Ép azért nem lesz benne mert csak KULA alatt futna ami nem X86 környezet, gépek jelentős részében Intel "VGA" van, szerinted nekiállna bármelyik internet biztonsági cég szöszmötölni a KULÁval, hogy ha van nyilt kódú környezet is, na meg picipuha alatt ott a Shader Compute
-
Bici
félisten
válasz
Zeratul #1655 üzenetére
De ez nem értelem kérdése.
Nem az benne a lényeg, hogy GPU gyorsított. Ez csak marketing rizsa.
A fő ok, hogy a CUDA csak nV kari jelenlétében műxik.
Most igyekeznek mindenféle progiból "GPU gyorsított" változatot kiadni, hogy eladásokat produkáljon a felhasználók azon véleménye, hogy valamelyik program, vagy művelet lassú. -
Bici
félisten
-
Zeratul
addikt
válasz
biggamer #1649 üzenetére
Larabee a Fermivel ellentétben X86 kódokat hajt végre, vajon melyikre fogják hamarabb portolni a vírusírtókat? Avira full scanje ami tényleg erősforrás igényes se hajt ki jobban 50%nál egy E5200-t, akkor meg minek izmozni a videokártyán ha úgy is a HDD, SSD a korlátozó tényező? A rezidens védelmek meg nem okoznak érzékelhető lassulást.
-
biggamer
veterán
CUDA-alapú vírusírtón dolgozik az NVIDIA : [link]
-
janos666
nagyúr
válasz
subaruwrc #1638 üzenetére
Biztos, hogy Tesla, és nem Geforce vagy Quadro lehetett, hisz erősen lespóroltak mindenféle képkimenetet (én nem is keresném a DAC-t, nem is kell, mint ahogy kimenet se).
Vélhetően valami építőtégla, hogy minél több GPU-t lehessen pakolni egy slotba (esetleg emulál valami monitor kimenetet a windows kedvért...) -
DeSanto
őstag
válasz
cowboy_bebop #1645 üzenetére
Az az árnyék helyén mintha ott lenne, amúgy meg elég belőle egy is.
zuchy:Az a chip felel a megjelenítésért.
-
subaruwrc
félisten
ez tudjuk mi?
GTX390 or GTX 295 ultra? elég érdekes egy szerzet ha igaz...Abu
ez real vag fake?
-
laci666
senior tag
"A GT 220 48 darab árnyalóval dolgozik, memóriabusza 128 bites, 1 GB GDDR3 memóriával szerelik,a gyári frekvenciák 615/1335/1580 MHz (GPU/shader/RAM)"
Szerinted ebből arra lehet következtetni,hogy ez egy über brutál kártya lesz
.
Ez max 10K ér egy fillérrel se többet.(Biróm az nvidiát egy ilyen kis szarba belerakja DX10.1 de hogy játékra alkalmatlan az hot ziher vagy is diavetítésre jó lehet, de azt nem sokan szeretik
-
laci666
senior tag
válasz
antikomcsi #1629 üzenetére
21K-ba fog kerülni, ha nem ez pofátlanság akkor mi
Ezért a kis szarért elkérni ennyit amikor házon belül/kívül is sokkal de sokkal jobb kártyák vannak a piacon ennyiért. -
P00By
nagyúr
MSI GeForce GT 220 1 GB OC Pictured
Kis rondaság
-
rocket
nagyúr
válasz
janos666 #1626 üzenetére
Nem teljesen ertem mit akartal irni, eleg kusza lett
R600 kapcsan szinte nem volt olyan nap amikor egy pletyka ne adott volna remenyt azoknak akik a varakozast valasztottak a G80-ra epulo kartyak megvetele helyett, ehez hozza jottek az AMD (foleg Henri Richard) hazugsagai, sokan meg 1 hettel a megjelenes elott is azt gondoltak valami vilagmegvaltas van keszuloben.
Most is hasonlo tortenik a Fermi kapcsan, ez megy majd amig meg nem jelenik, es ki nem derul az igazsag.
-
tlac
nagyúr
Elégedett vagy a videokártyád linuxos támogatásával?
azt a magasan kiemelkedő csíkot nézzétek
-
rocket
nagyúr
-
biggamer
veterán
NVIDIA GT300 (Fermi) GDDR3 támogatással is : [link]
-
DemonDani
addikt
Semmi gond ha az Nv desktopon életban tud maradni akkor a soft renderes időkben 5-6év mulva tuti ők lesznek a királyok És olyan lesz az Atinak a RT mint most az Nvnek a tessza...
Van ez így. (Bár az sem kizárt hogy az nv elmegy a desktop piacról aztán visszatér ha esély adódik, de ez annyira bonyolult és sok mindentől függő dolog hogy felesleges vele foglalkozni)A soft renderig még nagyon sok minden gyökeresen átalakul mind hardver mind softver téren...
-
Abu85
HÁZIGAZDA
Az ATI-nak biztosnem volt akkora pénztartaléka mint az AMD-nek. Eladni sem tudtak volna mit. Konkrétan az R600-ba belehaltak volna.
Az AMD tőkeinjekciókkal túlélte a kritikus időszakot. Q4-re várják az elemzők a nyereséget, ami a dolgok alakulását tekintve reális.
VinoRosso: És meddig tart szerinted elkészíteni egy ilyen játékmotort?
Sweeney UE4-je lesz az első szoftver render cucc. jelenleg 3 éve dolgoznak rajta és 2014-re mondják a megjelenést. Carmack ID Tech 6-ja is ekkor érkezhet meg. A ray-tracing egyelőre nem veszélyezteti a DX11-et. Még minimum 3 évig domináns API lesz a PC-n. Ettől függetlenül nyilván az NV-nek mennie kell a megkezdett úton és fejlesztenie a ray-tracing motortját, hiszen számos renderfarm szeretne erre építeni.
antikomcsi: Miért jövőbemutató az aktuális DX-et támogatni, inkább azok maradtak a múltban, akik nem így látták, ettől lett az AMD architektúrája előremutató, de nem szaladt a jövőbe. Ezt az NV is látja. A DX10.1 nem fontos, de azért elkészítjük rá a karikat.
Persze ettől még nem lesz fontos.
Pedig a múlténak feleltek meg, nem az aktuálisnak. Manapság baromira 2009-et írunk és a DX9 miatt több játékban is luxus az AA támogatás. Na de mégis kinek az érdeke az API fejlődését visszatartani? Mi persze nagyon jól járunk ezzel. Lassú és haklis motorok, és persze az AA hiánya.Igen az AMD fejlesztett. Nem csak duplázott, hanem felkészítette a DX11-re a rendszert. Az NV jelenleg fejleszt. Nem szidja őket senki, én legalábbis nem ... csak messze nem biztos, hogy a jó irányt választották anno ezzel a felépítéssel. Netszerte nem tetszik sokaknak a dolog. Most csak próbáljuk elemezgetni, hogy a jelenlegi infók alapján mit fog érni egy mondhatni processzor a DX11-ben.
gbors: Sokan int számításokat nyomnak a HPC rendszereken. Sőt általában párhuzamosan használják mindkettőt. A Larrabee is ilyen lesz, nyilván az NV is megfelel az elvárásoknak. A HPC piacnak láthatóan tetszik a dolog, már tervezgetik az első szuperszámítógépeket a Fermi-vel.
Végre kaptak egy új játékszert.
-
páran igen optimisták - vagy k***a pontatlan lesz az eredmény
osztom a fejtegetést a fejlesztéssel és a későn ébredéssel kapcsolatban, de én is bizakodom, hogy annyira nem szálltak el, hogy minden fixed function cuccot kivegyenek.
amúgy HPC-ben mire jó, hogy a float egységek mellett vannak integerek is? -
DemonDani
addikt
válasz
antikomcsi #1609 üzenetére
Én mindössze azt nem értem hogy milyért van azt hogy mikor kijön az új generáció akkor még szinvonalasabb tesztekben is úgy beszélnek az előző nvidáról mint valami szánalmas szarról meg nevetik hogy milyen vicces hogy néha jobb a 2gpunál az 1... Holott generációváltás volt.
Azta de nagy valami 70%-al jobb az előző generációtól. a 3870 után a 4870 90-100%al volt gyorsabb, most a 4870től az 5870 60-70%al produkál többet, gyakorlatban, átlagosan.(a 3870X2re a GTX280 20-30%ot húzott rá... csak hogy legyen mihez viszonyítani)
-
antikomcsi
veterán
Na azért ennek a hozzászólásnak az eleje érdekes.
Bár nézőpont kérdése. Az AMD soha sem szaladt a jövőbe? Érdekes, minden 3850-70 tesztnél azt olvastam, hogy ez aztán igen, micsoda future technik, és milyen ajánlott, mert milyen időtálló. Igaz, hogy labdába nem rúgtak a 8800GT mellett, ami egy elavult ratyi volt, meg semmi fejlesztés, stb..Viszont érdekes módon az nv karik mindíg az aktuális elvárásoknak feleltek meg, (nem a múltéinak) a 3850 tulajok, meg semmire sem mentek azzal, hogy majd jön jó driver, meg játék, ahol majd szétaláz mindent. Finoman szólva nem egészen így lett.
Megint az amd az isten, mert fejlesztés cimszó alatt megduplázta az egységeket a gpu-ban, és ez az a dolog, ami miatt az nv-t itt szídják, hogy nem csinálnak semmit, csak 1.4 milliárd tranyót tesznek egy gpu-ba, és fú de nagy. Viszont ha nem lenne elérhető alacsonyabb gyártástechnológia, most az amd is ~900mm^2-es chipet alkotott volna.
Most, hogy csinál valamit az nv, sokaknak az sem jó, mert biztos egy nyomi, használhatatlan chip lesz. Ami benne van a pakliban, de míg nincs ne akasszuk már fel előre. Mitől problémás az eladása? Ha mondjuk így céltalanúl is másfélszer olyan gyors, mint a célhardver akkor mi van? A vevők tesznek rá, hogyan/mivel számolgat magában egy kártya, a lényeg, hogy jó legyen.
Majd jön (ha jön) és akkor meglátjuk milyen lesz, de addig ne oltogassuk már a népet, mert sokan így is zöldségeket hordanak össze, és születnek a szakmai topikokban a sokat mondo kétszavas "fuck nvidia" hozzászólások. Őszinte legyek, engem zavar, mert nem az a színvonal, ami 5 éve volt, én a jó közösség miatt szoktam ide, meg az objektív, gyors hírekért, nem az érzelmileg túlfűtött tinik idegbeteg kirohanásaiért.
-
VinoRosso
veterán
talán nézz utána hogy , hogy mennyi idő alatt raytracel egyképet egy mostani CPU, nem tudom mirőé beszélsz, egyetalán nem, kellenek hozzá órák. Már is a GT200 kb 1 FPS-el renderelt, a videó alapján meg mindenki döntse el maga, hogy kell e neki, szerintem klasszisokkal jobb mint bármilyen dx-es fake GI probálkozás.
-
Mackósajt
senior tag
Ezt nem egeszen ertem. Most akkor az amd mentette meg az atit? Kicsit furan hangzik, amikor az amd is taccson volt.
Az AMD a csúcson volt, magas nyereséggel, amikor elhatározta a felvásárlást. Az egyik ok, amiért később "féltérdre estek", hogy elköltötték a pénztartalékaikat és eladósodtak, mert áron felül megvették az ATI-t, épp amikor az Intel beütött a C2D-vel, és a processzor részleg veszteséges lett.
-
cwn
tag
válasz
VinoRosso #1605 üzenetére
ugy beszéltek a raytracingröl hogy még az életben nem raytraccsoltatok egy nyamvadt szoftverrel
az hogy a sugar visszafele követödik önmagában szart se jelent , a RT attol jo mert 256-4000 mintavételt dob egy sugárra és igy visszaadja a realisztikus árnyékot ,fényvisszaverödéseket
namost egy ilyen kép jelenleg ugy több ora-nap egy 4 magos procival , nem mostanában lesz realtime gpu-n
ha 1 nevetséges sugarat követünk pixelenként az a vicc kategoria kb
és a larrabee kb ezzel égette be magát, hol van az az igazi Rt-töl -
VinoRosso
veterán
Azért ez nem a 2003-as Far Cry kategória, és láthatóan egészen jól fut CUDA-val. Ha ehhez még hozzáteszik a physixet elég ütős dolog jöhet ki belőle. Szerintem a MS és az AMD semmitől sem fél jobban, mint hogy az nvidia csinál egy ingyenesen liszenszelhető eseteleg ráadásul nyílt raytrace motort megfizethető hardverrel, mert akkor a kutyát nem fogja érdekelni a direct x. Most már láthatóan a saját lábukra álltak, és nem elképzelhetetlen a techdemok alapján, hogy a következő generációs arcitektúra már képes lesz erre. Lehet, hogy nem 512 spvel 40 nm-en hanem 1024-el 28-on. Az meg 2010 Q4, nem 6-8 év.
-
Szerintem az NV régebben amikor elkezdte ezt a chipet tervezni (kb. 2006 eleje), úgy számolt, hogy az ATI ekkorra már nem fog élni, a Larrabee meg hasonló rendszer, azzal lehet versenyezni. Talán nem gondolták, hogy az AMD-nek lesz mersze megvenni az ATI-t.
Ezt nem egeszen ertem. Most akkor az amd mentette meg az atit? Kicsit furan hangzik, amikor az amd is taccson volt.
-
rocket
nagyúr
válasz
DemonDani #1602 üzenetére
Az AMD-t nem az ATi mentette meg hanem a gyaraik eladasa az olaj milliardosoknak (ATIC), es a toke injekcio, ezen kivul az ATi-val erkezett ATi CE-t is eladtak (Mobil telefon es TV chipek) , ezek eladasa nelkul mara mar alulrol szagolnak az ibolyat, a veszely meg fent all a csodre mert amiota megvettek az ATi-t nem sikerult meg1 nyereseges negyedevet se csinalniuk, sot ha a grafikai reszleg eredmenyeit nezzuk az ATi nem hozott meg az AMD-nek 1 cent hasznot se.
Arrol szerintem nagyon kevesen tudnak, hogy minden nagyobb HDTV gyarto az ATi chipeit hasznalta, ezen kivul rengeteg mobil telefon designt nyertek el, ez ket olyan piac ami folyamatosan novekszik (az elso foleg), es ezt aprozta el az AMD mert kellett neki a KP 141.5millio $-ert a Broadcomnak. -
DemonDani
addikt
Hát nem is volt éppen logikus mozdulat volt akkoriban az amd részéről a vásárlás, mondhatni vakmerő módba kapcsoltak és nekifutottak hogy lesz ami lesz. (folyamatos veszteségek ugyebár)
És bejött
Lényegében az ATI mentette meg őket... CPU részről most sem megy a szekér úgy ahogy szeretnék pedig mindent megtesznek. de ne offoljunk.
-
Abu85
HÁZIGAZDA
válasz
janos666 #1600 üzenetére
Az AMD igazából sosem szaladt a jövőbe az NV maradt a múltban. Az R600 a DX10-re lett tervezve, míg a Cypress a DX11-re. Oda tervezték őket ahova való. Az aktuális API-ra.
A Fermin igazából már minden lehetséges, csak amíg célhardver ellen küzd a jelenbe, addig problémás az eladása.
Kis hasonlattal élve a Cypress egy F1-es, míg a Fermi egy raliautó. Az F1 csak aszfaltra való, de ezen a terepen kegyetlenül jó. A raliautóval mehetsz mindenhova, de nem érsz el akkora tempót, mint az F1 az aszfalton. A különbség annyi, hogy az F1-es kocsi az aszfalton kívül megpusztul, míg a raliautó megyeget mindenhol. A DX11 jelenleg az aszfaltot képviseli, és nem a Mikrofos marhasága véget, hanem azért, mert ezen a terepen a legnagyobb a sebesség függetlenül az autótól. Az, hogy lehet sarat dagasztani a Fermin-ralin nem jelenti azt, hogy képes lesz ott 50 km/óránál gyorsabban menni. Gondolom láttad a Larrabee videót az IDF-en. Ray-tracing meg szoftver render ... mégis mit kapott a közvéleménytől? => Ezt már 2003 láttuk a Far Cry-ban, mitől essen le az állunk?Ez itt a probléma. Ennyire elég a Larrabee ereje. A Ray-tracing fantasztikus, de majd a hatodik generációs Larrabee 8 év múlva szép grafikát is csinál vele. Addig pedig a raszteres fake megoldás a nyerő.
A DirectX-be mindenkinek beleszólása van, az API-t közösen fogadják el, jóval a kiadás előtt. Az, hogy az NV nem hoz fel új dolgot, miért az AMD hibája. Mellesleg a Gather4-gyel mi a probléma? Általában a felhasználóknak tetszik, ha 25%-kal gyorsabban fut a kód hardver csere nélkül.
Az NV persze, hogy szidja a DX-et. A CUDA-t kell elterjeszteni, anélkül úgy sincs jövőjük a platformosodás miatt. Ha enyém lenne az NV én is szidnám, mint a bokrot.
Nem lennék a saját pénzem ellensége.
Ide szemüveg nélkül kell írni. Ha valami jó, akkor az jó ... függetlenül, hogy Linux rulez.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Luck Dragon: Asszociációs játék. :)
- Miért álltak az oldalak egy hétig, mi történt?
- Fogyjunk le!
- Mibe tegyem a megtakarításaimat?
- Xiaomi Mi 11 Ultra - Circus Maximus
- Hivatalosan is bemutatta a Google a Pixel 6a-t
- Torrent meghívó kunyeráló
- Eredeti játékok OFF topik
- BestBuy ruhás topik
- Cyberpunk 2077
- További aktív témák...
- Bomba ár! HP EliteBook 840 G2 - i5-5GEN I 8GB I 256GB SSD I 14" HD+ I Cam I W10 I Garancia!
- ÚJ Lenovo ThinkPad X13 Gen 5 - 13.3" WUXGA IPS - Ultra 5 135U - 16GB - 512GB - Win11 - 2,5 év gari
- BESZÁMÍTÁS! MSI B450M R5 5500 16GB DDR4 512GB SSD RTX 2060 Super 8GB Rampage SHIVA ADATA XPG 600W
- Bomba ár! Dell Inspiron 15 5578 2in1: i7-7GEN I 16GB I 256SSD I 15,6" FHD Touch I Cam I W11 I Gari!
- Bomba ár! Dell Latitude 7320 - i5-11GEN I 8GB I 256SSD I HDMI I 13,3" FHD I Cam I W11 I Garancia!
Állásajánlatok
Cég: FOTC
Város: Budapest