- Bemutatkozott a Transcend SSD-inek zászlóshajója
- Sugárhajtómű ihlette a Zalman CPU-hűtőjét, de nem az üzemzaj tekintetében
- Félreértések az FSR 4 és a PlayStation 5 Pro körül
- Nem tetszik a Procon-SP-nek, hogy a Nintendo távolról kivégezheti a Switch 2-t
- Megcélozta az NVIDIA-t a 2 nm-es node-jával a Samsung
Új hozzászólás Aktív témák
-
mephi666
nagyúr
válasz
[CS]Blade2 #128 üzenetére
ezt a képet én is linkeltem már vagy féltucat helyre... osztom a véleményedet... nagy része parasztvakítás, de most azért bízok benne, hogy a tesszalátor meg az új ficsőrök dobnak legalább a teljesítményen rendesen...
ui: ezeken a képeken meg marhasokat röhögtem... jah, és sógorom (aki nagy flight simulator fan) pár éve 4870-el is tesztelte dx10 alatt, hogy mennyit javult a grafika és arra az álláspontra jutott, hogy észrevehetetlen... dx10 alatt is kb úgy néz ki, mint a felső képen... 1-2 effekt szebb lett, de nem volt igazán számottevő a változás... (én is néztem később dx10-ben, de nem tűnt fel nagy fejlődés)
-
howwie
csendes tag
Láttam 1-2 videót youtube-on a DX11-ről. Szerintem érdemes megnézni őket:
http://www.youtube.com/watch?v=xfqA_nJn1sM&feature=fvsr
Mást nem nagyon találtam, ami ilyen élethű lenne és Dx11-el renderelték volna.
Viszont olvastam valahol, hogy egy elég nagy ugrás a Dx10 után. (szerintem ez látható a videón is) Végülis minden DX verzió a 7-es után elég nagy ugrás volt.
Nem tudom elképzelni azt, hogy ha erre írnak valami játékot, ne fogná meg a gémereket.
Szerintem az nVidia csak fegyverszünetet akar, amíg be nem jön az új szabványuk.
Addig nem lesz tőkéje jó grafikus kártyákat gyártani, meg az új technológiájukkal is folglakozni. Azt szerintem most csak ez az egy lehetőségük van, hogy kampányolnak, mint a politikusok + gyártják a szart. A jóról meg azt terjesztik, hogy az a szar. Az emberek elhiszik, és megveszik a drágát, ami ugyanazt tudja, mint a másik, ami feleannyiba kerül. A 300-as nVidiáról az a véleményem, hogy 2x annyiba fog kerülni, mint az 5870-es és szerintem teljesítményben dx11 alatt nem lesz jobb.
Bár Dx10-ben viszont a 295-ös veri az 5870-est 700 ponttal a 3D Vantage-on.
Attól még nem venném meg olyan drágán. :-) -
Sokan rimánkodtak az árak miatt, körülnéztem egy kicsit €uróországban, mi mennyi:
Ergo pont a kettő közé árazták, ami kb megfelel a teljesítményének.
Reméljük még az év vége előtt jönnek a középkat. modellek 100€ körül, és akkor mindenki örülhet
-
A HD 4890-ről 275GTX-re való váltást nem egészen értem... Physx-ezel? Mert máshol nemigazán van előnye, főleg nem annyi, h sikítva kéne a boltba rohanni
(igaz, én konzervatívabb vagyok fejlesztés terén, kb megmaradtam volna a legelső 4850-nél, utána már csak a DX11 második eresztéséből válogattam volna egy kisebb GT300-at vagy HD6**-et)
#122 egy esélyünk van (ha az NV feladná a diszkrét VGA bizniszt), hogy az intel Larrabee-je jól sikerül. Akkor megint kapna az ATI egy tőkeerős konkurrenst, és maradna a tempós fejlődés. Csődbe nem fog azért menni, attól ne féljünk, a tegra és az ION nagyon tuti kis platformok, szivesen látnám az elsőt a mobilomban.
-
berVi
senior tag
engem ez kezd a voodoo vergődésére emlékeztetni
-
BemAnyó
senior tag
Pápá Nvidia
, nagy szívás lesz ha tényleg kiszáll, az AMD tuti az egekbe tolja az árait
,
-
orbano
félisten
akkor a DX5 óta sem történt változás, mert azzal is meg lehet mindent csinálni, csak baromi lassan
sőt, már a win3.11-ben is volt képmegjelenítő, egy szoftveres bitmap generátorral és a képek gyors váltogatásával lehet elérni benne ilyen grafikát mint amit most a dx10.1 tud, csak nagyon nagyon nagyon lassan
-
Sanyix
őstag
köszi én nem akarok a sportautóba motort cserélgetni mindig nagyobbra, én megelégszem azzal, hogy az autó nem zsiguli aerodinamikával rendelkezik, hanem egy ferrariéval (dx11), így kisebb motorral és kisebb fogyasztással gyorsabban olcsóbban mehetek ;)
Valahogy az izomautókat se szerettem soha...
-
Gomezz
senior tag
Szerintem, még egy jó ideig nem lesz szükség DX11-re!
Olyan ez mint a 64 bites CPU, legalább öt év kellett mire lett hozzá op rendszer!
Nekem 4850,4870, 4890, 4870CFis volt és sikítva cseréltem vissza az Nvidiára, most is egy 275GTX-em van.
Lehet, hogy az AMD sportautójára lehet a legnagyobb tetőcsomagtartót (DX-et) felszerelni, de minek egy sportautóra csomagtartó? -
Sanyix
őstag
válasz
Picturemaker #113 üzenetére
Akkor amikor már nem hajlandóak a játékosok még többet költeni a gépre...
-
Hardzsi
tag
Mielőtt bárki temetni kezdené az nVidiát, nézze meg, mi ketyeg többnyire a gamerek gépében:
http://store.steampowered.com/hwsurveyCsak annyi van, hogy most épp ők bízták el magukat és a tervezőiket picit sokáig engedték pihengetni. Most persze biztos fejrugdosásos ösztönzés zajlik, de ennek a hatása sok hónappal később jelentkezhet csak. U.ez megtörtént már az ATi-nál is (sőt, mindkét játélkosnál többször is). Szinte törvényszerű, hogy amelyik épp nyeregben van, az elkényelmesedik és addíg lazít, míg beérik és látványosan elhúznak mellette.
A másik probléma, amit nem láthattak előre, hogy a 40nm-re átállás ilyen selejtarányosan megy csak. Mindig a köv. architektúra tervezése előtt kell eldönteni, hogy a pici-de-gyenge vagy nagy-de-brutál magméret irányába menjenek. Léptek és beestek a selejtarány-csapdába. Ha az ostyagyártók jó kihozatali arányokat tudtak volna felmutatni, már itt lenne egy brutál DX11-es nVidia hardver (brutál hanggal és hűtéssel), ami lealázná az újgenerációs ATI-kat.
-
Picturemaker
őstag
Ez így sántít. Persze erről az oldalról is lehet magyarázni, de attól még tud olyat az újabb DX, amit a másik nem. Ennyi. Ha tudná ugyanolyan szépen, akkor csinálná, csak lassabban.
Mikor érdekelte a fejlesztőket, hogy egy grafika lassabban fut valamilyen hardveren?
De ez mondjuk nem is ide tartozik már. -
Sanyix
őstag
válasz
Picturemaker #111 üzenetére
Mit nem értesz? Jobb erőforráskihasználás -> ugyan olyan grafika több fps-el VAGY szebb grafika ugyannyi fps-el. 10.1-el azért szebb az árnyék, mert jóval hatékonyabb erőforráshasználattal el lehet érni az árnyékot, amit egyébként dx10-ben is lehetne de jóval több fps árán.
Nem csak állítólag jobb sebességben, hanem gyakorlatban is, TÉNY. pl Assasins Creed, Stalker CS, Battleforge, mind jóval gyorsabb a dx10.1-es képességek kihasználásával, ha jól emléxem 10-es %-okban mérhető.
Nem dx-nek fogják hívni a következőt, hanem úgy összefoglaló néven szoftveres rendernek... a dx szerű cuccoknak lassan végük.
-
Picturemaker
őstag
Na ez a hülyeség.
Nem olyan régen azzal példálóztak, hogy a DX10.1 pl. szebben rajzol árnyékot a tornácra, mer javítottak rajta.Itt a PH-n volt valami cikk és ilyen kép volt berakva.
Nem kell új effektnek hívni, lehet fejlesztett is, de a lényeg ugyanaz: a DX10.1 tud ilyet a
DX10 meg nem.
Igen, állítólag a sebessége jobb, csak eddig ez még nem látszott.Lehet, hogy nem DX-nek fogják hívni, de lesz. Sőt valamilyen szinten biztosan kompatibilis lesz az elődökkel, mint ahogy minden az. Panaszkodnak is a fejlesztők, hogy nem tudnak elég gyorsan haladni, mert vissza is kell nézni kicsit.
-
zozoo83
tag
Az csak egy dolog hogy most jön az új szériájuk, attól még időtálló szerintem a 4xxx széria, akinek az van, még sokáig elég lesz, csak annyi a különbség hogy az olcsóbb árak miatt sokaknak megéri lecserélni a kártyájukat egy 5xxx-es szériára. Nem úgy mint annó lecserélni egy 8800-at egy gtx 260-ra, az egy kicsit magasabb befektetés volt.
Az ati most nagyon erős, főleg amivel érkezni fog, az nvidia meg kitörölheti a Physx-ével, mert csak akkor nagyon gyors a kártya ha azt bekapcsolja rajta az ember az nv vezérlőpultban, de nem sok játék támogatja, azaz a többiben meg lassú!? Az atiban meg semmi ilyesmit nem kell bekapcsolni mert alapból erős mindenhol
-
Sanyix
őstag
válasz
Picturemaker #105 üzenetére
hülyeség. A dx10+ ban nincs semmi új effekt. Egyszerűen hatékonyabb erőforráskihasználás lehetősége van benne, könnyebb programozhatósággal. Dx12 meg nem lesz mert már nincs mit fejleszteni, a fix pipeline-os render elérte a határait.
-
Picturemaker
őstag
Nem nálunk, világszinten is több még az Xp, mint pl. a Vista.
A DX10.1 sem tud (vagy nem látványosan) igazából hozzátenni egy játékhoz.
Mire DX11-et igénylő és ebből előnyt is kovácsoló játék jön, addigra már biztos lesz DX12.
Elég sokáig használtam a Radeon 9800 SE kártyám, főleg mert a 4 + pipeline felszabadítható volt rajta és 256 bites memóriavezérlője volt. Én biztosan nem fogok rohanni egyetlen kőkeményen túlárazott újdonságért sem, mert egyszerűen nem lehet kihasználni.
A másik, hogy tökre nem érdekel, hogy egy játék a nekem megfelelő felbontáson 30 vagy 70 fps-t tud, mert mindegy.
Az új DX-ekben ilyen-olyan effekt szebb, ja, csak játék közben nem látszik. Ha meg erre is felfigyel valaki, akkor az a játék nem alkalmas játékra, mert nem köt le. -
#93794560
törölt tag
Nekem mindegy, milyen kártya, csak lehessen valamire használni. Ha az AMD jobb, akkor az kell, ha a NV akkor az. Most azért nem veszek új kártyát, mert a gépem nem tudná kihasználni. Majd ha lesz egy új gép, akkor beruházás.
-
válasz
South Velen #88 üzenetére
Üzlet az üzlet...
-
TTomax
félisten
válasz
South Velen #88 üzenetére
Monjanak le!!!!!
-
lsc
nagyúr
válasz
#93794560 #98 üzenetére
Az ATI-nál már akkor is havonta jöttek ki az új driverek, míg az nVidiánál ritkábban. S így az ATI szépen fokozatosan tudta optimalizálni a drivereit. Bár ez mostanában mintha nem egészen így lenne.
Most akkor igen vagy nem ? Ati egyébként régóta havonta ad ki drivert, lassan nv is áttér erre . -
Abu85
HÁZIGAZDA
válasz
#93794560 #94 üzenetére
Radeon 9500 fölött volt DX9-es. A 9200 is DX8.1
Az FX inkább azért lett bukás, mert az NV a cg nyelvvel bepróbálkozott a piacot megreformálni. A saját irányítása alá akarta vonni, ezért szándékosan a cg-re tervezte e chipet, csak a jöttek a független shader nyelvek, mint a HLSL és a GLSL ... és az egész terv bukta volt. Ha van valamire független alternatíva, akkor a gyártófüggő megoldás halott. Az FX felépítését úgy ahogy van ki is dobták, és előálltak egy olyannal, ami jobb a szabvány API-kra. Most is hasonló ment volna végbe a CUDA-val, csak itt nincs lehetőség visszatérni a szabványos útra, mert az NV-nek nincs processzora, így a platformosodás ellen kell teljes erőből küzdeni. Amit az AMD és az Intel mond, annak a gyökeres ellentétét kell az NV-nek mondani.
-
#93794560
törölt tag
Igen, a driverek rosszak voltak az FX-ek esetében, de ez is az elsietett munka miatt volt. Túl nagy léptékkel akartak előrejutni. De utána kiderült az ATI-ról is, hogy ők is manipulálták a drivereiket. Az ATI-nál már akkor is havonta jöttek ki az új driverek, míg az nVidiánál ritkábban. S így az ATI szépen fokozatosan tudta optimalizálni a drivereit. Bár ez mostanában mintha nem egészen így lenne.
-
ne_nezze
aktív tag
válasz
#93794560 #96 üzenetére
igaz, ezt benéztem!
viszont emlékeim szerint az fxek nem a dx9 kiforratlansága miatt sikerültek rosszul, maga a konstrukció volt hibás. driverekkel megpróbálták ezt elpalástolni, több-kevesebb sikerrel.
-
ne_nezze
aktív tag
válasz
#93794560 #91 üzenetére
Emlékeztek még az első DX9-es kártyáikra, az FX-ekre? Akkor jöttek ki, amikor a DX9-es technológia nem volt még elég kiforrott, és emiatt az FX-ek elég gyatrák lettek, egy-két modellt kivéve.
Az első Radeon 9-es, a 9700-as, azért lett forradalmi, mert tulajdonképpen az első DX9-es kártya volt.
most akkor melyik is volt az első?
-
#93794560
törölt tag
Nem. A 9100-as. A 9200-as azért volt gyengusz, mert készült belőle SE változat, ami 64 bites memóriavezérlőt tartalmazott, és DX8.1-es volt. Ezt onnan tudom, hogy nekem is volt ilyenem. A sima 9200-as SE nélkül DX9es volt, de az is alsó kategóriás. Volt még nekik 9250 is, az is DX8.1-es volt. De a 9100-as egy az egyben 8500-as volt. De azért a 9200SE-t azért lenyomta.
-
Persze, az Övékét biztosan nem
-
#93794560
törölt tag
Az első Radeon 9-es, a 9700-as, azért lett forradalmi, mert tulajdonképpen az első DX9-es kártya volt. Amikor megjelent, még nem volt ellenfele. Tehát olyat tudott, amit előtte még senki, és azt is erőből. De azért a 9000-es sorozat későbbi kártyái is azért lettek eltaláltabbak nála, mert addigra az ATI is tökéletesítette őket. Bár a 9000-es és 9100-as kártyák kivételek voltak, mert pl a 9100-as tulajdonképpen egy átnevezett 8500-as volt, csak el kellett adni a bentragadt raktárkészletet. Tehát nem csak az Nvidia oldalán fordult elő az átnevezési hülyítés. Az AMD-nek most egyébként is könnyebb dolga van, mint az nVidiának, mert amikor felvásárolták az ATI-t, hozzájutottak egy GPU gyártási technológiához. Így most birtokolják a processzorgyártási technológiát, chipset gyártási technológiát, és GPU-technológiát is. És ez a három dolog elég nagy technológiai hatalom a kezükben, mert ezeket egymáshoz tudják hangolni. Az nVidiának hiába vannak nForce chipsetei, mindig is csak GPU gyártó volt. Nem rendelkezik azzal az előnnyel, mint most az AMD.
-
#93794560
törölt tag
Ma tulajdonképpen divat fikázni az nVidiát. Azért, mert nem ugrik rögtön az új technológiára? Hát miért is ugrana? Emlékeztek még az első DX9-es kártyáikra, az FX-ekre? Akkor jöttek ki, amikor a DX9-es technológia nem volt még elég kiforrott, és emiatt az FX-ek elég gyatrák lettek, egy-két modellt kivéve. És mindez miért? Mert mindenáron piacra akarták dobni, ahelyett, hogy optimalizálták, és fejlesztették volna. Épp ezért lett sokkal jobb a GeForce 6-os kártyacsalád, mert akkor jött ki, amikor már a technológia szoftveres és hardveres oldalon is kiforrottabb lett. Ezzel a DX11-essel is majd kijönnek, ha úgy érzik, megéri. Mert annak semmi értelme, hogy most kiadjanak valamit, ami ugyan DX11-es, de a kiforratlansága miatt bukás.
Erre kell gondolni, amikor az ember fikázik valamit. Én nem vagyok sem nVidia, sem AMD párti, volt mindkét típusú kártyám, Mindkét gyártónak volt jó és rossz korszaka. Egyszer fent, egyszer lent. Ez van. -
South Velen
addikt
Mocskos nVidia.
Ezek már itt nem fognak semmivel előállni, csak kibeckelik valahogy azt az időszakot, amíg elég nagy piacot nem nyernek az ION-nal, stb.-vel, addig viszont arra jók lesznek, hogy gátolják a DX11 terjedését (ld. pl. Mafia II.) és az egész játékfejlődés megint leragad nekik köszönhetően ... Legszemetebb cég. -
Sanyix
őstag
válasz
#93794560 #73 üzenetére
"A játékipar egyik guruja nem véletlenül mondta azt az elhíresült mondatát, hogy a fejlesztők még a DX9-et sem használják ki teljesen. Neki pedig igazán elhihetjük, mert ő csak tudja."
haha ezt ha jól emléxem kármekk mondta... annak aztán lehet hinni. Ha megfelelő mennyiségű pénzt kap, segget is csinál a szájából, mint ezt párszor már hallhattuk. Ha a nagyanyám mondta volna aki nem is látott számítógépet, neki jobban elhinném ezt a kijelentést mint a kármekknek...
-
Sanyix
őstag
A "nemkell a dx11 sem" kijelentés hátterében megintcsak az áll, hogy nem képesek haladni.
Kiderült ugyanis, hogy a gt300 kihozatatali aránya olyan borzasztó, hogy nem éri meg gyártani 98%-a a gpuknak hibás, és tesztelve még nem is lettek, lehet hogy teljesítményben sem valami fényesek. -
D4rkAv3ng3r
senior tag
válasz
#93794560 #73 üzenetére
Csak kár, hogy a Crysis-nak semmi köze a DX10-hez. Már lerágott csont, hogy XP-n is az unlocker nevű programal feloldható az ál-DX10 effekt azaz a very high szint. Az első DX10-es játék később jött, a többinek köze sem volt hozzá (pl. Hellgate London), UT3-ból meg kiszedték utólag így a jelenlegi verzió DX9-es mivel a DX10.0-val nem tudták normálisan megoldani az AA-t.
Azóta az idén kiadott játékok nagy része támogatja a DX10-et és ezek a DX10.1-et. Szóval az felelőtlen kijelentés, hogy nem lesz rá játék. Másrészt utólag kapnak DX11 patch-et a játékok, a Dirt 2 is azért csúszott át év végére. sok cím még titkos, de kiszívárgott, hogy az Alien játék is DX11-es lesz.
Ha utánaolvastál volna akkor tudhatnád, hogy a DX11 és az X-Box 360 között lesz sok hasonlóság ezért könnyeben tudnak portolni PC-re (és olcsóbban is). -
Chaser
legenda
válasz
Picturemaker #51 üzenetére
XP bőven vezet...nálunk?
Másutt nem biztos, az is lehet dx10-et se sok game használja, 11-et se lehet sok fogja, de ha 12-es vga-val nv jön ki először, akkor az világmegváltó lesz és venni kell, mint anno a 88gtx-et.
-
D4rkAv3ng3r
senior tag
Hagyd már a Fudzilla-t nem lehet komolyan venni amit ott írnak, kb. annyira hiteles, mintha a Blikk közölné le. A 8800GT meg más helyzet volt, akkor technológiailag nem voltak annyira elmaradva, mint most. Később, meg sztárolták a 9600GT-t is holott akkor is volt jó vétel ATI oldalán ez pedig a HD3870-es volt. Az a kártya még ma is használható és sokkal jobb is ha modernebb játék kerül elő. (pl. H.A.W.X.)
-
D4rkAv3ng3r
senior tag
válasz
Depression #49 üzenetére
Jaj csak nehogy meg kelljen siratni egy olyan gyártót aki horror áron adja/adta a kártyáit átnevezte a VGA-it (átverés nem kell szépíteni). Annak az időnek vége amikor az nVidia a 6600GT/6800GT-vel tarolt. Nem fejlesztett mert arogánsan azt hitte, hogy az ATI kevés ahhoz, hogy őket fenyegesse, (mondjuk ár/értékben egy 3870 jobb volt) hát nem így lett a 4800-as széria elég erősre sikerült és az előállítása is olcsó. Most, hogy nincs akkora tapasztalatuk és az átszervezés miatt keretük rá, így erőltetik az unalmas CUDA-t meg PhisX-et, pedig nem kell senkinek.
Az nVidia meg nem haldoklik köszöni jól van csak más szegmensben. Az nVidia ION platform Intel Atom alá, és a Tegra is fog még sok dollárt hozni a konyhára. A Samsung például hajógyártással kezdte most meg a elekronikai/mobiltelefon piacon egy erős gyártó.
már lehetett olvasni arról is, hogy az Audi navigációs és szórakoztató rendszerében is pl. Tegra lesz, a MS Zune HD-ban is. -
samfishR
senior tag
"...de egy biztos: a DirectX 11 GeForce oldalon nem dobja majd meg az eladásokat."
-
ufocsalad
tag
NV-nek savanya a szőlő
Kártyát meg pont a dx11 miatt cserélnék...
+persze a nagyobb teljesítmény kedvéért -
5h4rK
tag
válasz
#93794560 #73 üzenetére
Teljesen egyetertek veled, azert irtam azt, hogy igen ez is igaz.
En csak azt probaltam mondani, hogy ugyanaz a jatek egy kis ( ? ) modositassal jobban fog futni, es ez meg a marketing -ben is jol jon, sokkal jobban hangzik az, hogy dx11-es jatek mint az, hogy optimalizalt jatek
, remelem erted, hogy hova akarok kijukadni. A helyzet meg az, hogy nem hagyhat ki egy generaciovaltast, az tul nagy veszteseg lenne, inkabb kiad vmi sz*rt minthogy semmit. Minden esetre en drukkolok nekik! ( foleg azert mert Ati kartyam van es nincs egy normalis driverem
)
-
#93794560
törölt tag
Helló!
Amikor én az optimalizálást említettem, nem a DX11 optimalizálásáról beszéltem, hanem a játékok motorjának az optimalizálásáról. Lásd Crysis. Hiába szép a grafikája, az atyaúristen gépe nem elég neki. És egyáltalán nem a DX10 miatt, hanem a rosszul optimalizált motor miatt. És mindez miért? Mert a fejlesztők azt gondolták, nekik ezzel nem nagyon kell törődni, hiszen azelőtt a hírek is arról szóltak, hogy a DX10 milyen remekül optimalizált. Aztán kiderült, hogy ez nem egészen így van. Kettőn áll a vásár. Hiába van jól optimalizálva a DX10.1 és DX11, ha a fejlesztők a túl korán lépnek ki az ezeket támogató hardverekkel és szoftverekkel a piacra. Ahhoz, hogy valamit korrekt módon tudjunk kezelni, programozni, optimalizálni, előbb meg kell ismernünk! Az XP is azért lett ennyire elterjedt és szinte majdnem mindennel működő oprendszer, mert kiforrott lett. A fejlesztők teljes mértékben megismerték, és a legtöbb hardver, szoftver erre lett optimalizálva. Pedig az elején nem így indult. Ki kell tapasztalni, nem elég, ha a szomszéd Pistike azt mondja nekünk, hogy ez meg az hú de jó! A játékipar egyik guruja nem véletlenül mondta azt az elhíresült mondatát, hogy a fejlesztők még a DX9-et sem használják ki teljesen. Neki pedig igazán elhihetjük, mert ő csak tudja.
Nvidiá-éknál biztos, hogy majd jönnek valamivel, mert nem engedhetik meg maguknak, hogy ne tegyék.
-
5h4rK
tag
válasz
#93794560 #68 üzenetére
Az, hogy a 7 nem lesz jo azt ketlem, akarhogy is tul nagy a hype korulotte. Ha ezt is varna, a chipgyartas nem ugy nez ki, hogy ma korulnezek, hogy mi jo es mi megy, hanem kemeny evek munkaja egy uj chip. Tehat hiaba tudja meg novemberben, hogy mennyire jo a 7, mert mire o megtervezi, leteszteli, kiadja a chipjet addigra mar lesz uj Win es uj DX. Vagy ha lesz, és rosszul lesz optimalizálva, igen ez is igaz, de ezzel meg az a helyzet, hogy a dx 11 es 10.1 az optimalizalasrol is szolt nem csak kimondottan az effektekrol.
Szvsz az nVidianal keszulnek valami nagyra ( meg akkor is ha az nem novemberben lesz bemutatva ). 3 even keresztul aludt volna a GPU tervezo csapat es almukban uj fantazianevekerol almodoztak? Ketlem ... -
ashot
tag
nem ertem miert kell temetni az NVIDIA-t. Meg mindig ketszer annyi piaci reszesedese van mint az ATInak. Amikor kijott a 8800-as szeria, ami szinte meg mindig piackepes, pedig 3 eve lassan piacon van. 3 eve igazi fejlesztes nem eszkozolt ki az Nvidia a videokartyain. 3 eve volt arra hogy mast fejlesszen. Szerintetek elfecsereltek azt a 3 evet, vagy megint jon egy atuto ereju uj generacio. Mi a valoszinubb?
Anno az ATI-t temettek, most az Nvidiat, ez egy korforgas es most az ATI latszik elobbre, de lehet holnap nem igy lesz.
-
rocket
nagyúr
"Azért igen merész döntés lenne, ha az nVidia otthagyná a diszkrét GPU piacot, tekintve hogy bevételük durván 75%-a onnan érkezik."
Nem fogjak elhagyni meg jo ideig mert a brand eros, es meg egy ideig elad barmit.
"Ha így tesznek, óriási összegektől esnek el, így másra sem marad pénz fejleszteni, úgy fognak járni mint a Via."
Ott a Tegra, hogy ez ne kovetkezhessen be.
-
#93794560
törölt tag
Ez az egész nem szól másról, hogy egy kicsit felforgassa az állóvizet. Az nVidia-nak esze ágában sincs kivonulni a GPU piacról, sőt még a DirectX 11-ből sem, csak nem szeretnék, hogy ugyanaz legyen a DX11-gyel, mint a 10-zel. A DX10 kizárólag a Vistához volt kötve, és így megkötötte a felhasználók kezét, ráadásul alig volt illetve van játék, ami támogatja. Mind az Nvidia, mind pedig az AMD rengeteget költött anno új DX10-es grafkártyákra, mert nagy reményeket fűztek az új szabványhoz. Hamarabb kijöttek a videokártyák, mint kiderült volna, hogy a Vista bukás. Aztán kiderült, hogy a Vista a fejlesztője szerint is bukás, és "kevésbé jól sikerült". Éppen ezért a zöldeknél megvárják, hogy az új Windowsnak milyen lesz a fogadtatása, és milyen lesz az elterjedtsége. Mert ezt csak élesben lehet megtudni! Hiába olyan jók a RC és RTM kiadások, a hibák és inkompatibilitások csak az éles használat közben jöttek ki. Mind ismerjük a mondást: "Ne igyál előre a medve bőrére!"
Ha a Win7 olyan jó lesz, mint amilyennek ígérkezik, akkor lépnek. De ha elolvassátok figyelmesen a nyilatkozatot, nem azt mondja az illető, hogy a DX11 rossz, vagy nem kell, hanem azt, hogy önmagában nem fogja megnyomni az eladásokat. És ez igaz! Mert hiába van DX11, ha nem lesz játék, amit futtathatnál rajta. Vagy ha lesz, és rosszul lesz optimalizálva , akkor nem sokat érünk vele. Az pedig nekünk, felhasználóknak sem lenne jó, ha az Nvidia kivonulna a piacról, mert akkor búcsút mondhatnánk az olcsó AMD kártyáknak. Nem véletlenül olyan olcsók! A konkurenciát le kell nyomni! De ha nincs konkurencia, minek az olcsó árak! -
Fáraó
őstag
Az nVidia nyilatkozik és hírben van, közben amit tud az bevet a nyilatkozataiban. Sztem ennyi az egész.
-
#27483136
törölt tag
"Nem a méret számít" - azok szokták mondani, akiknek kicsi van.
Szerintem az nv is csak magyarázkodik. De lehet, hogy tévedek és csak ködösítenek.
-
sh4d0w
félisten
Áh, a fu*kzilla, mint megbízható forrás... értem én a viccet, csak nem szeretem.
Érdekes módon a ződek a dx10.1-re is azt mondták, hogy nem köll az, oszt a végén mégis csak beálltak a sorba... Most pedig vagy beállnak, vagy olyan mértékű piacvesztést szenvednek el jövőre, amit a tulajdonosok nem feltétlenül fognak csukott szemmel végignézni.
-
Seregély
tag
Azért igen merész döntés lenne, ha az nVidia otthagyná a diszkrét GPU piacot, tekintve hogy bevételük durván 75%-a onnan érkezik. Ha így tesznek, óriási összegektől esnek el, így másra sem marad pénz fejleszteni, úgy fognak járni mint a Via.
Mire eljön a GPGPU komolyabb felhasználása (hibrid rendszerek), az Intelnek ott lesz a Larrabee és nyilván az AMD sem fog tétlenkedni, hiszen talán ő van a legjobb helyzetben, neki van egyedül versenyképes CPU és GPU megoldása is.Programozóként egyébként a kódok hibrid CPU/GPU -n való futtatásának elterjedését szkeptikusan nézem, hiszen szimmetrikus többmagos processzorokra is baromi nehéz hatékony kódot írni, ha még ezt megfejeljük heterogén felépítésű feldolgozó egységekkel (állt. célú CPU + GPU), igen nagy kihívás előtt találja magát az ember. Szerintem igen kevés programozó van felkészülve ekkora váltásra.
-
válasz
Plazmacucci #53 üzenetére
ugyanezen az oldalon írják, hogy a HD 5870 már előrendelhető. Mire a GT300 valóban a boltok polcaira kerül, a fejleszteni kívánó játékosok zöme már ellátta magát a HD5k sorozat zsebükhöz passzoló darabjaival.
Ja, és kérdés, milyen árban/verziókban jön ki majd a GT300? mert ha úgy, mint anno a G80, egyedül a csúcskártya 700$-ért, vagy az első GT200 5-600ért akkor felejtős... Az átlag gamernek simán elég lesz egy HD 5850 v 5700.
-
zuchy
őstag
válasz
Depression #49 üzenetére
Én sajnálom, hogy igy történtek a dolgok.
Ja, és a legfontosabb: az egészet az intel-nek köszönhetjük, mert ők nem adták meg az nV-nek az x86 licenszét.Ez nem az Intel hibája, Nv erőlteti a saját függő szabványát rá, egy független szabványra épülő piacra. Annó nem GPGPU-t kellett volna csinálni, hanem GPU-t...
Ez addig rendben is volna, amíg tudják eladni normális haszonnal a kártyáikat. Csak egy általános gyorsítóval nem lehet hosszútávon versenyezni egy célirányosan tervezett termékkel.(GPU)
Két legyet akar egy csapásra ütni, de ez itt nem megy. Amúgy én is sajnálom a helyzezet. -
Dr. Akula
félisten
válasz
[CS]Blade2 #44 üzenetére
A Stalker: Call of Pripjat DX11 lesz, ez bőven elég. ^^
-
Gerisz
addikt
Csak annyira volt beharangozva, hogy mindenki azt várta, még a boltok nagy része nem is tudta, fogalma sem volt mit mikor miért, itt már sokan (köztük én is) a hazai érkezést vártuk, jócskán a megjelenés előtt. Akkor a 38-ról nem nagyon volt infó (utólag kiderült miért, alulmaradt)
-
Her
csendes tag
A kérdés az,hogy az nV valóban látja e a jövőt és azon az úton próbál haladni ,vagy csak ködösít.De mindegy is, hiszen a jelen állás szerint nincs is annyival lemaradva mint itt sokan beharangozzák. Az lehet ,hogy az ATI kártyák fejlettek,meg mit tudom én mik még,de tegyük a szívünkre a kezünket. Mennyivel nyújt többet egyik vagy másik cég azonos árszintű kártyája a másiknál. Az meg hogy az ATI kártyák időtállóbbak? Hiszen most jön az új generációjuk. Mire a 4000 széria tudását ki tudnánk használni már rég mindenkinek 5000 e lesz. Meg úgyis tönkremennek másfél két év után
Az igazi nagy durranás annó a 8800 as széria volt szerintem. Na az időtálló volt,még ma is sokan használják. Mit lehet tudni mit gondolnak az nV nél,lehet ha most nem erőltetik még jól is jönnek ki belőle. Az is lehet hogy ezek a videó kártya megoldások már tényleg idejüket múlták,és merőben más alternatívák léteznek. -
Savanyú a szölö
-
Geönczy
aktív tag
Na erre kíváncsi vagyok. Nvidia azért tudja, hogy hol van?
-
-
Tudom, én a transzkódolásra azért is tértem ki másik bekezdésben, mert abban pl. az ATI és a Cyberlink elég jót alkotott (harmad annyi idő alatt kódoltam 1080p x264-et MPEG-2-ből, mint a CPU).
Leginkább a dekódolásra és az általános számításokra céloztam én is.user++:
fudzilla-t már elvből nem olvasok.Picturemaker:
XP esetében a százalékok nem egészen valósak... benne van a rengeteg irodai és céges felhasználó is. De mindegy is, használja az, aki akarja, én vissza már nem lépek, ha előre is lehet. -
Picturemaker
őstag
Most őszintén, jelenleg a gépek hány százalékán van Xp? Bőven vezet, és még vezetni is fog egy jó ideig. Akkor milyen DX verzióról beszélünk?
Persze kell a fejlesztés és nem jó nekünk, hogy NV "lemaradt", de most még tényleg nincs jelentősége a DX10-nek sem.
Egy interjúban említette nem is olyan rég John Carmack, hogy még a DX9-et sem használják ki teljes egészében a játékok. Talán Ő ért hozzá egy kicsit.Ennek ellenére kissé gáz, hogy NV nem készül valami jó ellenféllel.
-
user++
csendes tag
Illene olvasgatni, nem csak az ati hype-ot fujni, tul nagy a csend a masik oldalon, a 8800gt-t se reklamoztak agyon, lehet nem veletlen a nagy csend: http://www.fudzilla.com/content/view/15535/1/
-
Depression
veterán
Én azért elolvasgatom, amit itt írogatnak. (főleg Abu)
Az nV már fejlesztésügyileg rég kivonult a diszkrét GPU piacról, tudja, hogy itt semmi esélye, csak egy kis időt és pénzt akar még.
Az eredeti tervet az húzta át, hogy a 4xxx-es széria túl erős lett. De ők már az első átnevezésnél átszerveztek mindenkit egy másik piacra, ahol majd ők fognak kaszálni. Nem akarnak sem az AMD-vel, sem az intel-lel konkurálni.
Tehát hiába megy itt a fikázás, semmi értelme, ugyanis egy haldoklóba (PC-n) rúgtok bele.
Tudtommal az nV sosem sztárolta a dx10.1-et, csendben jelen(t/n)ek meg a mobil piacon, és csakis azért, mert a win7 logóhoz szükséges. Nem véletlenül a notiknál jelenik meg először, hisz ott számít a matrica. Tudtommal nincs is erős dx10.1-es kártyájuk, nem is lesz, mert nem érdekli őket. Tehát sehol sem volt náluk sztárolás.
Én sajnálom, hogy igy történtek a dolgok.
Ja, és a legfontosabb: az egészet az intel-nek köszönhetjük, mert ők nem adták meg az nV-nek az x86 licenszét. -
Abu85
HÁZIGAZDA
A videotranszkódolás és a HD felkonvertálás területén az ATI Stream is megy. Vannak már erre programok.
A Folding a skalár utasítások miatt rosszabb Radeonon, mert sokszor függőség alakulna ki. Persze azt az AMD sose titkolta, hogy a grafikai számításokra optimalizálta a rendszert.
Igazából az általános GPGPU programoknál sem általános, hogy a Radeon lassú, csak az architektúra nem tudja kezelni az egymástól függő skalár utasításokat. Például HD videó kódolásnál nagyon gyors a Radeon is.
-
wardred
tag
Csak én érzem úgy, hogy az NV kőkeményen hazárdírozik ezzel az "új irányvonallal"?
-
Jó az a CUDA. Az 1 évvel ezelőtti, de még az év eleji állpothoz képest is sokat fejlődött. Pl.: a HD videók dekódolásába be lehet vonni, akkor, ha a Purevideo HD már nem bír vele, amit az ATI Stream egyelőre nem tud elmondani magáról. Emellett az általános egységek - ahogy a cikk is írja - a Folding-ban is sokat segítenek (lehetőség tehát van benne). Jó irány, de ha csak erre gyúrnak, akkor az nem sok...
Ja, és ha már kódolás, akkor Badaboom... azért nem a levegőbe beszélnek ezen a téren legalább.
-
printf
csendes tag
Hát azért szeirntem még a CUDA-s kijelentés is eléggé nagyvonalu. Szerintem aki ténylegesen kodol az jot rohog ezen. Nem vok ati sem nv fan én azt veszem amelyik ár/teljesítményben jobb. Amit az nv muvel mostanság az kozrohely. Aki nem hiszi járjon utánna....
A JELENLEGI helyzet h most az nv-nek nagyon ossze kell kotni a gatyát...
- A cuda nem igazán jo és nem is értem mit eroltetik-A physx háát nem igazán jo és a Beshesda , ID , Blizzard nem használja
onmagáért beszél
- a chipsetek nél az intellel osszerugta a port...
- a vidkariknál valahogy nem rémlik semmilyen jellegu frissités amit az nv hozott volna létre ati-nál igen és itt nem csak az dx11-re gondolok...
Szoval elgondolkodtato a cég hitelessége mostanság
-
g@bo
nagyúr
az nv szerint az átnevezgetésekben a jövő.
jöhet egy húzott gts250 újabb fantázianéven.
-
dezz
nagyúr
Kár, hogy a DX11 Compute Shadere, illetve az annak megfelelő kiszolgálására tervezett áramkörök a GPGPU alkalmazásokban is igencsak hasznosak...
-
Antibazsi
aktív tag
Ezek milyen ostobák. Én mindenféle felmérési eredmények nélkül rá merem tenni a nyakamat,h a DirectX-nek sokkal nagyobb marketing értéke van mint pl a PhysX-nek... a CsUDA-ról nem is beszélve. De egy kis józan paraszti ésszel belegondolva is hülyeség mert míg (nvidia oldalról) látványban nem lehet javítani sehogy,addig (amd oldalról) a teljesítményt szinte bármikor növehetjük.(pl + egy vga)
-
emmm
őstag
Köszönjük, NVIDIA...
-
Én meg őszintén szólva nagy ívben teszek a hatalmas nVidia véleményére. Ne gondolják már azt, hogy majd ők egyedül megmondják a frankót mindenkinek. Egyszer így beszélnek, máskor meg úgy. 10.1 sem kellett persze, de hirtelen a késő bánat jegyében azért mégiscsak kitalálták, hogy jó az mégis. Amíg nem csinálnak saját elterjedt operációs rendszert meg egy központi feldolgozó egységet, addig nem ők dirigálnak.
-
D.Orion
veterán
"a támogatás ténye önmagában nem fogja vásárlásra ösztönözni."
nVidia se tudja ám, hogy mit beszél. Ezzel a mondattal is saját maga ellen fordul. Anno nem is tudom ki volt az akinek a 6xxx szériában benne volt az SM3.0, utána meg jöttek a különböző ficsörök. Jó darabig értelme sem volt, mert nem volt alá játék, csak később lett. Most itt ez a fiziksz meg cuda. Minden NV kari dobozán ott virít, hogy tudja, ÉS? A játékok igen kis része használja bármelyiket is(pláne a CUDA-t). Nv úgy hülye ahogy van, már rég le kellett volna cserélniük az összes markating-est és beszéd megíró idiótát.
-
devast
addikt
Szerintem az nvidia már kb ~1 éve lemondott a pc-s diszkrét vga piacról. Ha fejlesztenek is ide(GT300), azt tuti hogy gpgpu-ra fogják optimalizálni, az csak melléktermék hogy képet is ad
Különben igazuk is van, ha akkor elkezdtek volna egy újat fejleszteni kb arra lett volna belőle termék mire beindulnak a platformosított megoldások vagyis későn.
-
TK36
aktív tag
"A vállalat inkább a GPGPU alkalmazásokra szeretné helyezni a hangsúlyt." - hát, az egy dolog, de a döntő úgyis a piac lesz.
-
Her
csendes tag
Itt már többen megfogalmazták abbéli aggodalmukat,hogy ennek rossz vége lesz.
Nem kell itt örömködni (már aki örömködik) mert meg lesz ennek a böjtje.
Az NV igenis kell a piacra,vagy ha nem ő akkor más. De mást most nem nagyon lehet látni a palettán. Egyfelől,bizonyították már ,hogy tudnak nagyon jó dolgokat csinálni,másrészt ha az AMD ati egyedül marad akkor valóban lesz nekünk elfogadható áron komoly hardver.
Tényleg. Ki tudja ,hogy a jelenlegi árak mekkora veszteséget termelnek az AMD nek.
Processszor terén is ez a stratégiája és szerintem itt is.
És addig jó nekünk . -
keIdor
titán
Az Nvidia ezzel azt is kijelentette, hogy fölösleges az AA, és az AF POM mellett.
Ők tudják, de inkább AA és AF a PhysX helyett...Ott a Havok, az fut CPU-n, GPU-n is, több lehetőség van benne remélem inkább azt kezdi el a fejlesztők 99%-a használni.
-
LackoMester
addikt
lövésem sincs,h.mi a francot csinál a nVidia a saját DX11 kariai körül...de igen nagy a csend,túlságosan is nagy...vagy valami nagyon komoly cuccon dolgoznak,vagy nincs semmi a kezükben...(állítólag az utóbbi igaz)
CUDA ide vagy oda(ami magában nem egy rossz dolog),de az még nem DX11,és mit lát az átlag felhasználó,ááá DX11-et akorok(rossz esetben XP-n,volt ilyen is)és azt fogja venni...
-
Tomcat
őstag
A DX 10.1-el is ez volt régebben. Kellett a W7 certified logo-hoz. Kénytelenek voltak és meglépték. Addig ment a DX 10.1 lehúzása a részükről hogy minek az, elég a 10 is, de azután már pont azt méltatták hogy az ő integrált chip-jük is 10.1 kompatibilis és hogy ez milyen nagyszerű dolog.
Szeintem itt is megismétlődik ugyanez. Addig amíg nem tudnak DX11 kompatibilis cuccokat piacra dobni addig ellene beszélnek, aztán ha rákényszerülnek akkor már a DX11 lesz a legtutibb technika természetesen az ő részükről.
Mindez csak akkor realitás ha vannak még terveik a diszkrét GPU piacon. -
Dr. Akula
félisten
Nahát, milyen meglepő hogy az nvidia a saját cuccát sztárolja, nem az ellenfélét... A 3dfx is kijelentette hogy nem kell ide 32 bit, sztán csődbe is ment. Most ugyanezt csinálja az nvidia, igaz nekik még van más cuccuk is a videokarin kívül. Mivel anno épp ők voltak a 3dfx ellenfelei, ezt igazán tudhatták volna előre.
#20 fagy53:
Majd bejön az intel konkurrenciának. -
CHIPman
nagyúr
Nem fogja megdobni az eladásokat, ők ezért maradnak a jól bevált DX10 mellett.
(csak ez nekünk nem jó...) -
janos1988
addikt
A 2. bekezdesben: "..de az emberek többségét a támogatás ténye önmagában nem fogja vásárlásra ösztönözni." - Igy van, hasonlo a helyzet a PhysX-el is.
Az utana kovetkezo mondatrol pedig csak annyit, mutassanak mar fel vmi hasznalhatot is akkor.
Ha a dx11-es amd kartyak valoban boduletes telejsitmenyre kepesek, szerintem eleg valoszinu, hogy "bedaralja" a cuda-t.
Csak nehogy tenyleg a ket szek koze uljenek le, ahogy mas is megemlitette mar elottem.
-
fagy53
nagyúr
Ebből a nyilatkozatból én csak azt látom, hogy a most megjelenő HD 58xx széria viszonylag magas árai nem csökkenni, hanem növekedni fognak a jövőben és visszatérnek azok az öt évvel ezelőtti "boldog" idők, amikor egy középkat. VGA jó duplájába került, mint a mai hasonló kategóriájú VGA. A PC-s piacnak minden vadhajtása ellenére jót tett a kiélezett verseny gyors tipusváltásokban és nem utolsósorban az árakban, félő, hogy most ez elveszik...
-
gpatrik
tag
Végülis érthető a dörgés, valahogy nem jön össze nekik a dx11 ezért inkább marketingelik a Physix-et. Értem én hogy jobb effektek, de a Dx11se péksüti még ha csak Physix nélkül is van. És már láthattunk Atis gépen Physixet. Persze nem volna jó az sem ha kibekkelné magát az NV, mert mi vásárlónk is földre csücsülnénk, ha csak egy gyártó lenne a piacon és az határozná meg az árakat...
-
Oliverda
titán
Nem is az fogja megdobni hanem hogy az ezt támogató ATI kártyák az ő termékeiknél olcsóbban fognak nagyobb teljesítményt kínálni.
-
Tibord
senior tag
Kíváncsi leszek vajon az NV amikor felzárkózik a DX11-el mekkora hangsúllyal fogja ordibálni hogy milyen szép és jó dolog a DX11.
-
smkb
őstag
"egyértelműen növelik a felhasználói élményt"
Ebben igaza lenne az NV-nek, hogy egy dolog a DX11, meg hogy most már lassan 1872631736 sp van egy x darabból összefordított fél négyzetméteres GPU-n, ettől az égvilágon nem lesz jobb a felhasználói élmény, illtve nem tudnak akkorát javítani rajta. Elég, ha arra gondol valaki hogy 100.000 vagy 200.000 objektumot tudunk mozgatni a képernőny az már nem fog számottevően észrevehető különbséget jelenteni ahhoz képest, amikor 50-ről ugrottunk 100-ra
A Wii példája mutatja, hogy igen, nagyon nagy piacot jelenthet a "felhasználói élmény" növelése, más nem kizárólag grafikai turbózással.
A baj itt csak az, hogy a PC platform azért az erősen grafikus élényre alapuló terület, és jóideig az is fog maradni, azaz itt egy Wii-hez hasonló innovatív más jellegű élményfaktor bevetése szerintem elképzelhetetlen. PC-n nem hiszem, hogy ezeknek az egyéb élményeknek lenne akkora vonzereje, mint a színtiszta teljesítményen alapuló grafikának, legyen az Physix, Stereo 3D vagy bármi. Ezek csak erős grafikus teljesítmény mellett életképeset hosszútávon..
-
Mr.Csizmás
titán
válasz
Hedgehanter #2 üzenetére
már megtörtént, csak nem értek még padlót
-
JanR
addikt
En azert kivancsi leszek az nvidia kovetkezo lepesre. De azt kizartnak tartom, hogy kiszallna a PC piacbol VGA szinten...
Michael Hara -> Eloszor Michael HaLa-nak olvastam
-
kelzsoca
félisten
Végülis jó szöveg, a sok átnevezés helyett mutatni is kellene valamit, nem mellébeszélni
-
rocket
nagyúr
Semmi meglepo nincs abban amit mondtak, ha valamit nem sikerul idoben tamogatni akkor azt lehuzzak, ez tortent az ATi eseteben a SM3.0/HDR kapcsan, aztan az NV eseteben a DX10.1 kapcsan.
Ezzel az allaspontjukkal inkabb azt erositettek meg, hogy a kozelbe sincs meg a DX11-es hardveruk, vagy ha a kozelben van akkor a DX11 teljesitmenye hianyzik, utobbi eseteben nagyobb lehet a gond mert nincs ido mar a M$-tal a DX11-gyet "DX11"-esiteni, es DX11 jatekok hamarosan lesznek -
Tomi_Sci
őstag
Aztan csak nehogy ránktelepedjen egy monopol vga gyártó
Olcso amdket akar a nép -
tzsolesz
nagyúr
Ezek szerint az NV tenni fog róla, hogy a DX11 ne terjedjen.
-
darkarthur
senior tag
Én sajnálom, hogy elfordulnak a PC-s piactól mégpedig azért, mert így az AMD sem fogja követni azt az árpolitikát amit eddig.
-
zoltanz
nagyúr
Nem nagy durranás, a 7 8 9 az volt... Azért van fejlődés mostanában csak máshol, is pl fizikai gyorsító, vagy a Vista -val érkező 3D asztal és ablakkezelő, vagy a vidókodolást segítő megoldások amik a videókártyán is futnak, ne feledjük. Fejlesztenek a srácok folyamatosan.
-
A CUDA valóban egyre jobb és egyre több felhasználási területe van, de azért azt elég erősen lehet érezni, hogy ezt a Dx11 kijelentést ők csak azért hangoztatják, hogy a nép meghallja és a fanok ne vegyék észre, hogy az AMD már ott is hagyta őket ebben a tekintetben (is). Simán csak az erősségeket elég lett volna kiemelni, nem kell azért a Dx11 kapcsán magukat lejáratniuk ilyen dumával...
-
Hedgehanter
őstag
Csak nehogy a ket szek kozul a foldre uljenek....
-
deicide
veterán
Ahogy a végén is írjátok: az ő DX11 eladásaikat biztosan nem nyomja meg...
Új hozzászólás Aktív témák
Hirdetés
- BANKMENTES részletfizetés ASUS TUF F16 FX607JV-QT212 Tesztvideó a leírásban Nézd meg működés közben
- Samsung Galaxy A54 128GB, Kártyafüggetlen, 1 Év Garanciával
- DELL PowerEdge R630 rack szerver - 2xE5-2650v3 (20 mag / 40 szál, 2.3/3.0GHz), 32GB RAM, 55992Ft+ÁFA
- Bomba ár! Dell Precision M6600 i7-2720QM I 8GB I 500SSHD I 17,3" FHD I Quadro I Cam I W10 I Gari!
- ÁRGARANCIA!Épített KomPhone i5 12400F 16/32/64GB RAM RTX 4060 Ti 8GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest