Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz adamssss #9527 üzenetére

    Annyit tudok ígérni, hogy megnézem. Aztán majd kiderül.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #9546 üzenetére

    Az adatok alapján ezeket a TDP-ket a gyártók szerintem teljesen random adják meg. Már nem is foglalkozok velük. :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Klikodesh #9566 üzenetére

    Túl általános az, hogy CUDA-s videotranszkódoló. A driverbe épített megoldás minősége valóban csapnivaló, és ezt sajnos sokan átveszik, de van Mainconcept-féle is, ami már jó minőségű algoritmus. Ha valami nem olyan jó minőségű, akkor nem biztos, hogy a CUDA/OpenCL/DirectCompute felel a gyengeségért. Az algoritmuson is sok múlik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Klikodesh #9572 üzenetére

    A Sony Vegas Pro az Mainconceptre épít. Azt próbáld ki.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz traders #9589 üzenetére

    Csak később lesz arról adat, hogy mi jön még.
    Lesz itthon kártya. ASUS-ból biztosan tudom, hogy érkezik 1-2 darab.
    Nem lesz áresés. Amíg a gyártókapacitás ilyen alacsony, addig nincs értelme olcsóbban eladni ugyanannyit.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Pala #9593 üzenetére

    Már nálunk is kint van. :))

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #9612 üzenetére

    Jól látod. Arra a felbontásra nem szükséges ennyire drága VGA. Egy 60-80k-s megteszi. Egyelőre a HD 7850 itt a legjobb vétel, ilyen igények mellett. Aztán, hogy ennek mikor lesz ellenfele ... :U
    A GK104 mellett még egy GK107 készült. Erről még ma írni fogok. Illetve már írtam, de később kerül ki. Persze ez inkább belépő kategóriás.

    A megjelent 28 nm-es termékeket nézve jelenleg ilyen a teljesítménykép:
    GK107->Cape Verde->Pitcairn->Tahiti->GK104

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #9617 üzenetére

    Írtam a cikkben, hogy lehet később egy nagy lapka, de nem feltétlen a játékra tervezve. A VGA-piacon a sweet spot a nyerő stratégia. Ez az elmúlt években nagyon látszott.
    Máshol is leírtam már, hogy a Larrabee-ből úgy néz ki, hogy lesz is valami idén, és az Intel nem fogja a tranyókat a grafikus vonalra költeni. Ebből a szempontból az NV-nek is hasonló elvet érdemes követni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #9620 üzenetére

    Lesz ám. Még lesz ASUS MARS III is.

    Szerk.: Upsz. Bocsi Máté. :B ;]

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #9642 üzenetére

    Ugyanakkor az is elmondható, hogy az AMD látta meg leghamarabb a közelgő falat a homogén többmagos procik felől. Tehát ebből a szempontból nem csoda, hogy az egymáshoz tervezett LOC/TOC magok szempontjából jobban állnak mindenkinél. De az NV és az Intel is dolgozik ezen. Előbbinek a Denver kell, míg utóbbinak a Larrabee. Ha a roadmapoknak lehet hinni, akkor az NV csak egy évet késik az olyan szintű integrációval (Maxwell), amit az AMD rak bele a Kaveribe. Szóval nincs akkor lemaradásuk itt. Az Intelnél nem tudni, hogy a Larrabee mikor lesz kész. Állítólag a Skylake lesz a kiválasztott 2015-ben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #9645 üzenetére

    Dehogy állt a gyártás a TSMC-nél. Ez Charlie badarsága. Kapott is egy szép levelet a GDC-re küldött kollégája egyenesen a TSMC-től, ami megerősítette, hogy semmi baj nincs. Megjegyzem senki sem számolt be arról, hogy áll a gyártás. Igazából nincs is értelme, hacsak nincs valami kosz a clean roomban, de az már korábban kiderült volna. Az biztos, hogy bütykölnek meg dolgoznak, de ezért nem kell leállítani a teljes 28 nm-es gyártást. Szóval ez agymenés volt. Ezt konkrétan cáfolta az NVIDIA is, de az AMD-től is azt írta a kontaktunk, hogy tudnának róla, ha leállt volna a gyártás.

    A konzolok nem úgy működnek mint a PC. Oda pont, hogy a GCN jobb, mert támogat olyan dolgokat, amikre a fejlesztők építeni szeretnének. Például hardveres megatextúrázás packed PTEX-szel. Hamarosan elérünk arra a pontra, ami megakasztotta az animációs filmek iparát pár éve. Nem a csúcsgrafika számítása lesz a korlátozó, hanem a csúcsgrafika művészi kidolgozásába beleölt pénz. Ezzel kell egy olyan megoldás, ami a művészek munkáját egyszerűsíti a tartalom kidolgozásában. Az animációs filmek esetében a PTEX bevált, nyilván nagy esély van arra, hogy valós időben is beválik. Pont az ilyen compute részre kihegyezett architektúra után néznek a next gen konzoloknál, mert ami ma még nem probléma, az négy év múlva az lehet, és az bizony még bőven a next gen gépek életciklusában jön el. A PC persze más. Itt jóval gyorsabban cserélődnek a hardverek. A problémák ugyanúgy meglesznek itt is, csak a hardver amit mondjuk ma vettél már jó eséllyel nem lesz meg.

    Egyébkén a Forbes szerint a next PS-be is AMD GPU kerül, valszeg GCN. [link] - ezt egy korábbi AMD-s alkalmazott állítására alapozza.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz rocket #9648 üzenetére

    Az, hogy tényként kezeli bárki, már nem a TSMC, vagy a gyártók reszortja. Ilyenre hivatalosan reagálni a tőzsde irányába nem szabad, mert akkor Charlie eléri célját. Ő megkapta a levelet amiben cáfolva volt, de ezt ne hozta le. Az NVIDIA cáfolta. Az AMD szintén nem tud róla. Ez a három dolog már eleve egy óriási cáfolat. Nem véletlenül nem jelent meg itt az a hír, mert három közeli forrás is cáfolta.
    Charlie le akarja járatni az NV-t, és nem a világ előtt, hanem a gyártóknál. Az OEM partnerek pontosan tudják, hogy a TSMC lassan halad a bővítéssel. Bár ezt inkább mondjuk úgy, hogy az igények gyorsabban nőnek, mint ahogy azt a TSMC elbírja. Az ilyen három hetes leállással kapcsolatos rémhírek pont elegek arra, hogy a tervezés alatt álló termékek esetében a 28 nm-es VGA-k kikerüljenek a tervekből, mert nincs biztosíték arra, hogy az ellátás megoldható. Már az is elég, hogy a "bogár el legyen ültetve" a gyártók fülében. Mivel az NV-nek elég sok notebook dizájn winje van, így ez őket érinti a legkellemetlenebbül. (Egyébként a teljes next gen. inteles mobil géppark ~11%-ába NV-t raknak, míg ~6%-ába Radeont ... a többi nyilván IGP, de ez most lényegtelen ... az AMD mellé a Dual Graphics lehetőség miatt szintén nem kerül NV, így most ez sem fontos ... az inteles arány a lényeg) Charlie pontosan tudja, hogy az NV már megszívatott pár gyártót a múltban ... lásd a hibás GPU-k gondjának konkrét dokumentálása, és ezzel a teljes visszahívás mellőzése. Ezzel alapvető nem 100%-os a bizalom velük kapcsolatban. Az ilyen pletykák rontják az NV bekerülési esélyeit. Ezért csinálja. Majd a Macbook sorozattal támasztja ezt alá, mert korábban azt mondta, hogy minden Macbook GeForce-ot kap. Ez alapból nem volt igaz, de most ugye azt állítja, hogy az NV-t az elégtelen ellátás miatt kirakta több termékből az Apple. Valójában ott sem voltak, csak megint lejáratás történik, hogy az NV nem tudja tartani az ígéreteit, és nem tudja kiszolgálni az igényeket. Szimplán egymásra építi a cikkeket.
    Nagyon szomorú, hogy ezt ennyire benyelik. Őszintén szólva nem gondoltam volna, hogy ez ennyire elterjed. Csak abba érdemes belegondolni, hogy ha leálltak a TSMC gyártósorai abban az időszakban amit Charlie mondott, akkor nulla GK104 startolt volna. Egy lapka elkészítése nem egy-két nap. Több hetes procedúra kvalifikálással együtt. Csak éppen párhuzamosan sokat csinálnak. Leállással az egész teljesen leáll, vagyis nagyjából, ha az állítólagos márciusi újraindítást vesszük alapul, akkor az NV-nek április végén lenne terméke a starthoz.
    Szóval Charlie állításait semmi sem támasztja alá, de három cáfolat és a tény, hogy teszteltük a GeForce GTX 680-at, valamint valaki már vett is már ellene szól.

    Őszintén hol máshol jutna szerephez az AMD? Egy konzol esetében nem sok értelme van az x86/AMD64-nek. Az IBM Power architektúrája egyszerűen hatékonyabb. Nem véletlen, hogy az aktuális körben mindenki arra épít, de például az új Wii U is. Az x86/AMD64 maximum az integrációval juthat szerephez. A GCN-ről tudjuk, hogy az AMD úgy tervezte, hogy ugyanazokat a 64 bites pointereket használja, amiket az AMD64-es ISA-ra épülő processzormagok. Ezzel a GPU támogathatja a virtuális memóriát, és képes lehet kezelni a laphibákat, valamint a rendszer egységes címtérbe dolgozhat. Itt valóban értelmet nyerne az x86/AMD64, de az architektúránál ezen a részen is lehet változtatni, ha a konzol gyártója ragaszkodik a PowerPC-hez.
    Amíg az MS és a Sony be nem jelenti, hogy mi a helyzet, addig minden pletyka egy lábon áll. A Sony esetében olyan adat is van, hogy a felhő felé mennek és nincs új konzol.

    Tekintve a next gen konzolok időskáláját nem kérdés, hogy az a rendszer a jobb, amelyik jobban illeszkedik a komplex számításokhoz. Ehhez csak meg kell nézni az architektúrák képességeit. Mindenesetre egy konzolnál annyira nem téma ez. A PS3-ba is bekerült az RSX, ami a multiplatform címeknél eléggé gyengén teljesít. Pont abból adódik ez a különbség, hogy az ATI a Xenost a konzol életciklusára tervezte, míg az NV a G70-et a PC-s életciklusra. Ők is látták, hogy az a 880 pixeles DB túl sok a PS3 életciklusára, de ezen nem lehetett változtatni. A G70 idején a DB képesség nem volt lényeges. Az első Unreal Engine 3-as játék megjelenésével vált fontossá, ahol a GeForce 79xxGTX már ki is kapott a jóval kisebb blokkokkal dolgozó X1600-tól is. Persze ekkor már benne voltunk a GeForce 8 és HD 2000 érába, de a konzolgyártónak igenis fontos, hogy az adott konzol életciklusában teljesítsen jól a hardver. Tehát ha most a Kepler és a GCN között dönt valaki a konzol szempontjából, akkor a GCN-t fogja választani. Persze kérdés, hogy a Sony gépe hol áll a fejlesztésben. Ha most kezdik el, akkor még választhatnak bele hardvert az új generációból is. A terveket már látják, hogy nagyjából mit tud majd a hardver. Itt a teljesítményt nem nézik. Azt nézik, hogy sokat tudjon. A natív C++ támogatás például elég előnyös dolog a jövő szempontjából, ezt az AMD már beépítette a GCN-be, csak OS szinten is kell az egyes funkciókhoz támogatás, illetve integrációval van ennek nagy jelentősége. Abban persze nem kételkedem, hogy az NV is erre megy a fejlesztésben. Az viszont nagy kérdés, hogy a Kepler architektúrát a GK104-re mennyire vágták meg. Attól ugye, hogy az architektúra támogatja a natív C++ programnyelvet még nem tudod használni az aktuális szoftveres alapokkal. Ez az AMD termékein jelenleg csak a helyet foglalja. Egyedül a PRT-vel építenek a GCN effajta képességeire, mert nagyjából ennyit lehet az aktuális OS-ekból kihozni. Ebből a szempontból kivágni ezeket a részeket nem is olyan nagy hülyeség, mert látod, hogy a helyet foglalják, de a játékosoknak nem lesz belőle előny. Kivéve a Doom 4, amire Carmack már mondta, hogy a PRT-re alapoz, de az még nincs itt ... ki tudja, hogy mikor jelenik meg. Még a Prey 2 használ megatextúrázást, így oda be lehet lobbizni a PRT-t, de más programot a közeljövőben nem látok, ahol alkalmazható lenne az implementáció. Illetve kérdés, hogy a Prey 2 milyen megvalósítást használ, mert még az ID Tech 4-re épít. Nem biztos, hogy oda nem elég a szoftveres megatextúrázás. Egyelőre az ID Tech 5 olyan rendszer, ami a hardveres megoldásból tényleg profitálni képes.
    PC-re a mai helyzetet elemezve elmondható, hogy GCN-ből is lett volna értelme egy herélt verziót csinálni. Mert van egy rakás fícsőr, ami benne van, de jelenleg kihasználhatatlan, és a tranyókat elviszi. A GK104 ebből a szempontból jobb, mert bár a GCN-es fícsőrök hiányoznak, de egy játékost ez jelenleg nem zavar. Ugye most feltételezzük, hogy ezeket a kártyákat játékra veszik, mert zömében azért arra veszik. Persze, aki általános compute monstert akar, annak nyilván jobb a Radeon csak a PC-s VGA-piacon kevés ilyen ember van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz DemonDani #9651 üzenetére

    A Maxwell 2014-re van tervezve. Szerintem akkora lesz Win 9 is, vagy az NV kaphat akkorra egy speckó Win 8-at. Az ARM-os alapok megvannak. Ezt kiadva a fejlesztés nem áll le. Az MS azért gondolkodik tabletben az ARM-os Windowszal, mert másra senkinek sem kell, de az NV mellett azért más ARM-os versenyző is be fog jelentkezni legalább a notebookok piacára, és ilyen igényeket az MS ki tud elégíteni például egy új ARM-os Win 8 verzióval. Az biztos, hogy minden gyártó vágyik erre a piacra, csak a mikor a kérdéses.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Zeratul #9666 üzenetére

    Nyilván a dual GK104-es kártya nem teljesen ilyen paraméterekkel kapja meg a GK104-eket. A feszültséggel lehet babrálni. Valszeg 300 wattba nem lehet behozni, de az NV ellesheti az AMD-től azt amit a HD 6990-be épített, vagyis az OEM-eknek csinálnak egy külön BIOS-t, ami 300 wattos TDP-re korlátoz. Nem egy nagy kunszt ez azokkal a fejlesztésekkel, amiket a GK104 kapott.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #9735 üzenetére

    Nem is a HD 7870 ellen megy. A HD 7850 lesz az ellenfél.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #9752 üzenetére

    Konkrét adatokat a GK106-ról még nem tudni. Igazából a GTX 670 Ti-ről és a GTX 670-ről sem. De a Ti jön a HD 7950 ellen, míg a sima 670 a HD 7870 ellen. Ezek még GK104-es VGA-k. Plusz jön a dual GK104, de az új csúcsok mocskos drágák lesznek. Nem tudom ezeknek mennyi értelme lesz.
    A GK107 van most még kész, de az csak nyáron lesz itt. A HD 7750 és 7770 ellen lesz jó két GeForce személyében. A GK106 ősszel jön. A HD 7850 ellen megy az egyik, és tekintve, hogy a 7770 és a 7850 között van egy elég nagy űr, így oda lesz egy olcsóbb megoldás, illetve az AMD is csinálhat oda addig egy Pitcairn alapú terméket. Mondjuk HD 7830. Nagyjából ilyen lesz a felállás.
    Árverseny eleve nem lesz egy darabig. A TSMC-nek kell bővíteni a gyártókapacitást. Amíg kevés a legyártott termék, addig mindenki boldog, ha heti szinten kipucolják a készletet.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #9757 üzenetére

    Kinek gyártatna, mert a nagy megrendelőket én nem látom. Persze ez változhat. :)

    (#9758) KillerKollar: 260k ? ... milyen nagylelkű ajánlat. :D

    Ahogy mondod ez bőven beleillik a mocskos drága kategóriába. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #9944 üzenetére

    Nem.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #9946 üzenetére

    50000 dollárba fog kerülni.

    Amúgy ha szabad kirakom ... ha nem, akkor nem. Te is tudod, hogy egy idő után már nem lehet hírezni, csak a megjelenéskor.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz elbrujo #9955 üzenetére

    Szar a szenzor. Nem biztos, hogy összefügg az egérrel. Szimplán csak rosszul mér.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz elbrujo #9957 üzenetére

    Az aranyos. Valószínű, hogy a kártya kikapcsolt monitor mellett leveszi a venti fordulatszámát és ezért melegszik fel. Akkor szvsz nincs itt gond.
    Ezek melegszenek. Gondolom ez még egy jó kis egyslotos kártya. Azon sok hűtés nem volt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz BeLucZ #9967 üzenetére

    Driver. A TPU nem foglalkozik azzal, hogy mindent a legújabb driverekkel mérjen.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz schwartz #9978 üzenetére

    A PCI Epxress az itt nem számít. Ma bármelyik GPU-nak elég a 2.0-s x8. Onnantól kezdve mindegy, mert a sebesség nem fog nőni. A driver a ludas. A régiket nem tesztelték új driverekkel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz siriq #10013 üzenetére

    Mondtam már Löncsinek is, hogy megjelenés előtt büntetést von maga után az, ha megírsz valamit. Egyrészt soha többet nem kapunk kártyát, másrészt pénzbünti is van. Elég sok. Utóbbit persze, ha átvállalod, akkor valahogy talán túléljük, hogy máshonnan kell terméket szerezni. Ha Angliában dolgozol, akkor egy büntit talán kifut az éves fizetésed. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz tombar #10016 üzenetére

    Tudtommal úgy áll a helyzet, hogy GTX 660 lesz. A Ti jelölést elhagyják belőle. Egyébként úton van, egy-két hónap még. Csonkolt GK104-re épít, és a HD 7870 ellen lesz árban, és várhatóan teljesítményben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10018 üzenetére

    Az AMD november óta gyárt. Az NVIDIA februárban kezdte, ráadásul az AMD, a Xilinx és az Altera által meghagyott gyártósorokon, vagyis közel sem kaptak annyit, amennyit az első három beugró elvitt. Így nem olyan könnyű lefedni a piacot. Most is szűkölködnek. Talán az segít, hogy az új gyártósorokat a Qualcomm és az NV egységesen megkapja elsőbbséggel, de a TSMC már mondta, hogy igazán jó ellátást idén október végére tud garantálni. Addig van annyi, amennyi és javítgatni kell a kihozatalt. Mindig szívás a gyártástechnológiai váltás. El kell telnie pár hónapnak, hogy jó legyen az ellátás. Jövőre már tuti minden rendben lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #10021 üzenetére

    Nem tudom. Egyelőre a 660-ról tudok, ami a 7870-et célozza befogásra. Ez még változhat persze. Az egész egy tervezet. Most még nincs semmi konkrét. Igazából jó lenne tudni,. hogy az NV-nek mennyi kapacitást tud biztosítani a TSMC. Ettől az egész termékskála függ. Az biztos, hogy a GK104-et gyártják, mert megjelent ugye. :) A GK107-et is gyártják, mert állítólag erre építenek az új Macbook Prók. Az Apple szerintem el is viszi az összeset a többieknek meg marad a Fermi mobilba. Az látszik a HP termékskáláján, hogy nincs elég GK107. Az eredeti tervek szerint az Ivy mellé GK107 ment volna. A bejelentésre már minden termékbe Radeon került. Ugyanígy a Dell. Az új Inspironba januárban még GK107 volt tervezve. Megjelenésre Radeon HD 7730M maradt ebből a tervből. Általában ilyen drasztikus változás a tervekben akkor áll be, ha nincs meg a kapacitás a kívánt termék gyártására. Na most ez a még be nem jelentett GK106 startját is befolyásolhatja, így a Pitcairn ellen nem hiszem, hogy a tervezett termék kerül bevetésre. A 660-ba szerintem GK106-ot terveztek, de úgy néz ki, hogy butított GK104 lesz belőle. Igazából ez attól is függ, hogy mennyi a GK104-ből a selejt. Ha sok, akkor azokat már nem kukázhatja az NV, mert nem a TSMC vállalja be a költségeket. Egyszerűen, ha a lapkában sok a hibás rész, akkor az a TSMC-t már nem érdekli 2012-től. A waferek után szedik a pénzt, és így a hibás termék is a megrendelőnél landol. Innentől kezdve a kihozatal mértéke a döntő. Ez főleg az NV-t érdekli, mert ők 2011-ben, csak a jó lapkákat fizették ki. Ha sok GK104-es selejt készül, akkor nekik az új feltételek mellett érdemes átgondolni egy erős letiltást a lapkára nézve, hogy ezek a lapkák is eladhatóak legyenek. Most nyilván itt a selejtet úgy értelmezzük, hogy azok a hibás részek kikapcsolása után jók. Tehát nem igazi selejtek, csak nem teljes értékűek. :)
    Elég bonyolult tehát a helyzet. Az látszik, hogy a TSMC talicskával hordja a pénzt a gyárakba, szóval szerintem tartani tudják azt az ígéretüket, hogy októberre mindenki boldog lesz a gyártókapacitással.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz randras #10024 üzenetére

    Az egy API. Olyan, mint a DirectX, csak nem ugyanarra. Ha a program igényli, akkor telepíteni kell.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10034 üzenetére

    Az NV ezt eleve így képzelte el. Kiherélik az alap Keplert a shared memory tempóban, mert ott sok tranyót lehet spórolni, és a játékok még annyira nem is érzékenyek erre. Terveznek mellé egy nagy Keplert, amit csak HPC-be és professzionális szinten dobnak be. Igazából más lehetőségük nem volt, mert a TSMC megszüntette a korábbi egyezményüket. Most már az NV sem tartozik külön bánásmód alá. Kifizetik a wafert, és a legyártott lapkákkal azt csinálnak, amit akarnak. Korábban az NV helyzete jóval egyszerűbb volt, mert fix összeget fizettek a TSMC-nek a lapkákért. Amelyiket nem kérték azt a TSMC kénytelen volt kukázni, ezzel lenyelve a veszteséget. Waferes árazás mellett öngyilkosság gyártani ~600 mm2-es lapkát a GeForce piacára. Maximum akkor, ha jó a kihozatal ... ebben az esetben úgy 1500 dolláros áron megfelelő lehet a helyzet, de kizárt, hogy egy ekkora lapka gyorsabb legyen két GK104-nél. Pláne nem olyan tranzisztorzabáló funkciókkal a vezérlésben, mint amiket a GK110-be beépítettek. A dedikált DP unitok sem segítenek, mert ezeknek is nulla jelentőségük van, és gyanítom ez nem változik meg gyorsan.
    Ők is mérlegeltek azzal, hogy az AMD 2013-ban nagyot lép az integrálás szempontjából. Na most sosem éri a fontos projekteket úgy bedobni a mélyvízbe, hogy nem láttad mennyire működik jól. Logikus következtetés volt tehát anno pár éve az NV-től, hogy az AMD 2012-ben már olyan új architektúrára épülő GPU-kat dob majd piacra, melyek funkcionalitásban messze túlteljesítik azt, ami abban az időszakban egy GPU-ról elképzelhető. Ez így is lett. A GCN architektúra radikális lépéseket tett az általános számítások irányába. Nyilván a Keplerhez képest kb. négy-ötször gyorsabb shared memory, a rendkívül bonyolult cache-szervezés és a gyors context switch érdekében brutálisan megnövelt regiszterterületek (Tahitiben összesen 8 MB - a GK104-ben összesen 2 MB van) viszik a tranzisztorokat. Az NV ezt kihasználva inkább a játékokra koncentrált, és benyelték, hogy bonyolult általános számításban a GCN bucira veri majd őket (ray-tracing és más egyéb, nyilván ez látható az OpenCL-es progikban). Igazából a mai játékok szempontjából egyértelmű, hogy melyik az előnyösebb. A Metro 2033 és az AVP tartalmaz olyan effektet, ahol a GCN ilyen irányú felépítése komoly előnyként jelentkezik. Máshol ez már nincs meg.
    A Kepler majd fontos lesz az integrálásnál, és nyilván 2014-ben a Maxwell APU-ba nem ez a rendszer kerül. A GK104 alapjait sem kell eldobni. Ott a Tegra. Mobil szintre úgy sem fog senki marha bonyolult rendszert tervezni oda ez így jó lesz egy pár évig. Persze néhol egy picit meg kell vágni ezt is, de ez a legkevesebb.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Ringman #10038 üzenetére

    Nem tudom, hogy a Quadrók frissítése hogy áll. Az NVIDIA erről majd nyáron fog beszélni szerintem. Jellemzően a SIGGRAPH rendezvényre gyúrnak ezekkel a professzionális termékbejelentésekkel a gyártók.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10039 üzenetére

    Az NV írt korábban egy tanulmányt a jövő rendszereiről. Ez az Echelon projekt. 2017-re taksálják az egészet. Ebben a tanulmányban ezt írták: "In this time frame, GPUs will no longer be an external accelerator to a CPU; instead, CPUs and GPUs will be integrated on the same die with a unified memory architecture. Such a system eliminates some of accelerator architectures’ historical challenges, including requiring the programmer to manage multiple memory spaces, suffering from bandwidth limitations from an interface such as PCI Express for transfers between CPUs and GPUs, and the system-level energy overheads for both chip crossings and replicated chip infrastructure."

    Szerintem ne az API-val képzeld el a jövőt. A cégek jelenleg vISA-k fejlesztésén dolgoznak. Ez jobb megoldásnak tűnik mint az API. Az NV-nek a PTX ilyen, az Intelnek is van (elég hülye néven), míg az AMD-nek ott a HSA. Az ARM-os cégek, akik nem tudnak a zárt NV és Intel technológia mögé állni a nyílt HSA-t fogják szintén választani. Ezzel lényegében eléggé leegyszerűsödik a helyzet, mivel olyan ez, mint a Java. Ott is van egy Java bytecode, ami maga a vISA. Erre íródik a program, és az alatta lévő hardver cserélhető. Nyilván a Java bytecode az egy eléggé általános vISA, ezt sokkal jobban rá lehet szabni egy-egy hardverre. Továbbra sem lesz az elérés közvetlen, és a programozás direkt, de sokkal jobb lesz, mint egy API-val. Persze az API-kat is lehet fejleszteni tovább. El kell érni, hogy a fejlesztők olyan alacsony szintű hozzáférést kapjanak a hardverhez, amelyet csak lehet kínálni. Ezzel a PC behozhatja a konzolokat, mert jelenleg az API jelentő a legfőbb limitációt a sebességben, és nem a hardver teljesítménye vagy tudása. Ha meg tudnánk élni API nélkül, akkor már régen dobták volna a fejlesztők. Helyzet azonban ennél bonyolultabb. Erről már sok vita folyik, és ez jó, mert a vita hozza a változást. Abban mindenki egyetért, hogy a jelenlegi helyzet nem jó, kell valami olyan megoldás, ami megtartja a fejlesztők számára az egyszerű programozás lehetőségét, és nem kell mindegyik architektúrára külön optimalizálni, de mindez ne jelentsen olyan korlátokat, amiket manapság egy API ad büntiben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10046 üzenetére

    Ezek a piacok átfedik egymást. Csak a HPC-be egy egyedi architektúrát nem érdemes fejleszteni, mert nem jönne belőle vissza a befektetett pénz. Az NV is integrálásban gondolkodik, ahogy mindenki. Másban nem is tehetné, mert saját lábra kell állniuk. Ezért fejlesztenek saját processzort. A jövőben a gyártók mixelése igen kicsi szerepet kap. Mindenkinek lesz egy komplett platformja. Erre építik fel a fejlesztéseket is. Itt ugyanaz mindenkinek az elképzelése, nem akarják ők a VGA-k végét, de az üzlet a pénzről szól, ha egy piac nem értékes tovább, akkor át kell csoportosítani az erőforrásokat. Mindenesetre az AMD és az NV sem adja gyorsan fel, de például a fejlesztések olyan irányba tartanak, hogy AMD APU mellett a Radeon VGA valós előny lesz. Ugyanígy 2014-ben a Maxwell APU mellé helyezett GeForce szintén valós értéket képvisel. Nyilván arra kell gondolni, hogy egy 64 bites ARM pointereket kezelő GeForce x86/AMD64-es processzor mellett nem sokat tehet a platform működése érdekében. Képet adni fog, de egyes funkciók nem érhetők majd el.
    Egy vISA-nak nincs célközönsége. Az a fejlesztőknek készül.
    Pedig eléggé egyértelmű. Nekem is fáj, de nem mi döntünk, hanem a cégek. Nekik a pénz számít, és nem a mi elégedettségünk.

    Elég sok energiát fordítanak a PC-s játékok optimalizálására a fejlesztők. Egyszerűen sok a korlát, ami rajtuk kívülálló.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10047 üzenetére

    Ez most nem második hely. Persze jellemzően magas felbontáson és 8xAA-val gyorsabb a Radeon HD 7970 a GTX 680-nál, de alatta már nem. Nyilván az NV stratégiája csak a játékokra működik. Máshol a GCN-tól nagyon kikapnak. De egy játékosnak annyira nagy igénye nincs a Luxmarkra, meg az egyéb dolgokra. Jó, szép dolog lemérni, meg mi sem vetjük meg, mert értékes információ, de sosem vettük még be ezeket az eredményeket a tényleges értékelésbe. Azt meg eleve kizártnak tartom, hogy bárki gondolt arra, hogy a TSMC 2012-ben képes lesz nagy mennyiségben gyártani egy ~600 mm2-es lapkát.
    A Kepler két dolog miatt volt fontos. És itt most nem a nagy Keplerre gondolok. Az egy speciális termék, amit a MIC ellen ki kellett gyúrni. A kis Kepler a játékokban jól teljesít. Átlagban persze, és leszámítva a komplex effekteket, de az átlag az jó. Emellett a rendszer eléggé skálázható lefelé. A Tegrába nagyon is ideális alternatíva (alaposan megvágva persze), és ez egy jóval fontosabb piac, mint a VGA-ké. Jóval több a növekedési potenciál, mert erre is gondolni kell. A VGA-piac már nem nő, hanem ellenkezőleg ... az eladások csökkennek. Egy darabig még értékes lesz, de egy idő után, már marad belőle egy méregdrága felsőkategóriás szint, ami kap fejlesztéseket és kész. A Tegra sokkal fontosabb, mert az az NV-nek a belépője a Win RT-s tabletekbe, vagy akár az ultravékony notebookokba is. Mindkét piac elképesztő értékes, messze felülmúlják azt a szinten, amit ma a VGA-piac képvisel. Logikus gondolkodás egy cégnél, hogy a fejlesztések alapjait oda pozicionálják, ahol sok pénz van. Az AMD a GCN-t azért nem tudja majd olyan egyszerűen skálázni. Azokat a CU-kat eléggé meg kell vágni, hogy egy tabletbe jó legyen. Látható is a tervekben, hogy 2013-ban a Temash APU még nem kap teljes HSA kompatibilitást. 3 wattba ez még nem fér bele. Lehet, hogy maradnak a VLIW4-nél, mert az jobban skálázható erre a szintre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10050 üzenetére

    A szoftver az nem számottevő, mert a szoftver nem garantálja a nagy vásárlóbázist a VGA-kra. A gyártóknak az kell, hogy terméket vegyetek, és nem az, hogy legyen rájuk olyan szoftver, ami kihasználja.
    Igazából a BF3 semennyit nem lendített. Várták a gyártók, hogy jobb lesz az év vége, de teljesen átlagos volt. A mostani negyedév is azért volt jobb, mert nagyobb lett az ASP az új generációval. Az eladások viszont nem ugrottak meg.

    Nagyon egyszerű a helyzet. A gyártóknak jelzés kell, hogy van a VGA-kra igény. Ha most mindenki elmegy és vesz két új VGA-t, akkor az elég jó jelzés. Ha jön egy új Metro, akkor az nem jó, mert attól még nem biztos, hogy a felhasználó beruház egy új termékbe. Sőt, az is lehet, hogy elege lesz a folyamatos beruházástól, és vesz egy konzolt.

    A gyártói kimutatást hagyjuk. Mit mondjon az NV, hogy rossz az egész piac? Ez a befektetőknek szól, amíg a Tegra nem indul be. Beleszámolod a farmolást és a facebookos játékok reklámjaiból származó bevételét, és rögtön a konzolok fölött vagy némi optimizmussal a jövőre nézve, csak addig az AAA címeknél a Call Of Duty legújabb részéből a PC-s eladások a teljes eladás 1%-át teszik ki. Nyilván ezt elfelejtették megemlíteni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10052 üzenetére

    Ha az valóban így lenne, akkor sokkal jobb negyedéves eredményeknek kellett volna jönni. Ezzel szemben kaptunk legutóbb az NV-től 60 millás nyereséget (egyszeri kiadások nélkül), melyben az Intel bánatpénze ~80 millió. Enélkül az NV veszteségben lenne. A játékokkal való kombinálás tipikusan olyan kijelentés, amit nem lehet ellenőrizni, ezért be lehet dobni, mert logikus. Aztán mire a statisztikák elkészülnek a JPR-nél az eladások csökkenéséről, már senki sem emlékszik erre. A tény pedig az, hogy 2011-ben ~30%-ot esett a VGA-piac. Erre független statisztika van.
    Nagyon nagy tévedés. Te vettél a Metro 2033-ra két GTX 480 SLI-t a megjelenéskor?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10055 üzenetére

    Annak oka van, hogy a Tahiti ilyen lett. Egyszerűen jóval bonyolultabb az architektúra, mint a GK104-ben a Kepleré. Sokkal több tranyó megy el arra, hogy a rendszer jól kezelje a bonyolult számításokat. Azért ezek a mérnökök eléggé jártassak ebben. Ha tudnak valami általános infót, akkor órajelek alapján 5%-os pontosságra belövik a várható teljesítményt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10057 üzenetére

    Ez a probléma, hogy jelenleg nincs semmi, amiért VGA vásárlásra adná a fejét a piac. Ezért csökken az eladás. A probléma persze nem a programokban keresendő, vagy magában a VGA-kban, mert a asztali PC-k eladása is meredeken csökken. Ahol nő az eladás, az a mobil piac, és a kisméretű, vagy monitorba szerelt PC-k. Ezt a cégek látják, és a fejlesztéseket is ide fogják koncentrálni.

    (#10058) gbors: Nem tudhatták, de sejthették. Az biztos, hogy egy ~600 mm2-es lapkát képtelenség olyan feltételek mellett gyárni, mint amit most a TSMC-vel kötöttek. Ahhoz, hogy legyen rajta nyereség 1500 dolláros árcédula kell minimum. Ha a kihozatalt is rászámolod a mennyiségre, akkor 2000 dolláros ár is kellhet. Ez a HPC- és a professzionális piacon nem gond, de egy GeForce-ért senki sem fog ennyit adni.
    Egyébként annyira radikálisan nem gondolkodik már senki, hogy na most megverjük őket. Vannak növekvő piacok, amikre építeni kell. A GCN-nek meg van a helye az integrációs projektben. A kis Kepler architektúra megy a Tegrába, míg a nagy Kepler profi célra jó, és fejleszthető tovább az NVIDIA integrációs projektjébe. Minden döntést amit meghoztak a cégek, azért tették, mert az adott architektúrával egy értékesebb piacra akarnak betörni. A VGA-k azok vannak, de a pénz már nem itt van. El lehet persze adni a termékeket, sőt jó teszt a VGA-piac, hiszen valós körülmények között látod, hogy mennyire működik a rendszer, de semmi több. A tervek túlmutatnak ezen a szegmensen.
    Másképp mi értelme lenne belerakni egy csomó pénzt, ha nem remélnének tőle eladást. :) Azt persze nagyon nehéz kideríteni, hogy ennek tényleg volt-e valós eredménye, de igazából lényegtelen is. Attól, hogy valaki SLI-t vesz, még a tömeg marad IGP-n, így sok lényegi szempontja ezeknek az akcióknak nincs, ugyanakkor minden alkalmat meg kell ragadni az NV-nek, mert nekik már/még nincs IGP-jük, így a baráti gépigényben jelenleg egyáltalán nem érdekeltek.

    (#10059) Löncsi: A kisebb fejlesztések jellemzően azért menők, mert nincs benne akkora kockázat, mint az AAA címekben. Budget az ár, és budget a befektetés is. Persze ettől lehet nagyon jó a játék, és sikeres is, sőt, jellemzően azok, de ugyanúgy benne van a bukás lehetősége. Ha ezek kerülnek előtérbe, akkor az csak a kisebb kockázat miatt lesz.

    (#10072) Löncsi: A tesztprogram az specifikus környezetet teremt. A valós környezet teljesen más. Ott nem lehet mesterségesen felépíteni egy terhelést. Kivéve, ha ez a cél, lásd Crysis 2, de ezzel ez is teljesen használhatatlan lesz a teljesítmény mérésére. Korábban már leírtam, hogy ezek a helyzetek mesterségesen születnek. [link] - rendszerit az a jobb, ahol az adott mesterséges terhelés jobban fekszik a hardvernek. Tessmark és Heaven esetében az NVIDIA megoldása, míg a Crysis 2 és a 3DMark 11-ben az AMD GCN tesszellátora.
    Az NVIDA tesszellátora rendszerint akkor teljesít jól, ha kevés az objektum a jelenetben (Tessmarkban egy azaz egy darab), vagy akkor, ha az adott tesszelláció kevésbé reagál jól a vertex re-use teljesítményre. Az AMD tesszellátora akkor teljesít jól, ha sok az objektum a jelenetben, és a vertex re-use funkció jól hasznosítható. A faktorra lebontva, az AMD úgy 1-20 faktorig jelentősen gyorsabb, míg 20-40 faktorig egál, majd 40-64-ig jobb az NV. Raszterizálás mellett persze ez erősen változik, mert nem csak a tesszellátor számít, hanem a raszter motor teljesítménye is. Itt mindegyik rendszer büntizik elég sokat, így 1-30 faktorig az AMD teljesít jobban, ám magasabb faktorszám mellett a raszter hatékonysága 50% alá esik, vagyis kivégzi a teljes tempót. 50 faktor felett 10% is lehet a hatékonyság, ami vicc. Ezzel egyetlen GPU sem tud mit kezdeni, limitáló lesz a setup oldalon a rendszer. Innentől mindegy, hogy mi mennyire gyors, mert a limit a működésben születik. Az AMD tesszellátora még annyiban bekavarhat ezekbe az elméleti helyzetekbe, hogy képes felületeket menteni, vagyis 40-64 faktor mellett egyszerűen elment részeket, és amíg az hasznosítható, visszatölti az L2 cache-ből, vagy a VRAM-ból, ha jobb oda lementeni. Itt az AMD szintén óriási előnyre tesz szert, mert nem számolja újra minden képkockánál a bonyolult felületeket, amivel felszabadul az erőforrás a többi feladat feldolgozására. Jellemzően ezt az AMD nem alkalmazza szintetikus benchmarkban, ha a fejlesztő megkéri a céget. Nyilván ez a megoldás alapvetően ellehetetlenít minden szintetikus mérést pl. a tessmark esetében, mert nem fog a rendszer számolni. Egyszerűen az első képkocka után lementi, és visszatölti a VRAM-ból a teljes objektumot. Gyakorlatilag nem dolgozik az első képkocka után semmit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10079 üzenetére

    A mesterséges részen azt értem, hogy a sík felület nem 20, hanem 10000 poligonból áll. Ennek látványbeli jelentősége nincs, mert a felület ugyanúgy sík.

    8000 dollár egy 28 nm-es eljáráshoz tervezett bulk wafer a TSMC-nél. Mivel mindenki waferekért fizet, így ebből le lehet számolni, hogy egy lapka mennyibe kerül. ~600 mm2-en a költség óriási. A Fermi idején más volt az NV-nek nagy lapkát tervezni. Amint megjelent a GF100 megváltoztatták a szerződést jó lapkák utáni fizetésre. Ezzel az NV csak a megjelenést követő negyedévben terhelte meg magát anyagilag, ami veszteség is lett. Utána nem vették meg a TSMC-től a rossz lapkákat. 2012-ben ilyen nincs. A nagy igény miatt a wafereknek megvan az ára, ha kell vedd meg. Ha rossz a lapka, akkor valahogy old meg az eladását. Ezért skandálja folyamatosan az NV, hogy nagyon kellenek a 450 mm-es waferek, mert nem gazdaságos a 300 mm-es. Igazából a 450 mm sem lesz sokkal jobb, de tény, hogy jobb lesz. Az új gyártástechnológiák költsége viszont egyelőre exponenciálisan nő. Ez olyannyira rosszul áll, hogy a 20 nm már sok piacon irreleváns lesz, csak akkor éri meg átállni, ha az adott lapka csak így fér bele normális mérethatárokba, vagy kell az extrém magas teljesítmény. Más esetben a 28 nm gazdaságosabb marad, most sem annyira gazdaságos a 28 nm. A SoC-ok esetében simán jobb maradni a 40 nm-nél.

    A stratégiát a piac diktálja. Ha kicsi a piac, akkor változik a stratégia is. Jelenleg az NV-nek a Tegra a legfontosabb konzumér szinten, mert annak a piaca nő. A Keplert elég erősen úgy tervezték, hogy lefelé is jól skálázható legyen, nem úgy, mint a Fermi. Tipikusan illik a Tegra 4-be ez az architektúra. Ez a priorítás. A VGA-k szempontjából pedig lesz, ami lesz. Ha tényleg számítana ez a piac, akkor az AMD sem így tervezte volna a GCN-t, semmi szükség egy normál VGA-ban MMU-ra (ez mondjuk még belefér), a nagyon erős context switch képességek (na ez az ami már kérdéses, mert a 8 MB regiszterterület a Tahitiben nagyon sok, és ez bizony eszi a tranyókat ... a Pitcairnben is van 5,12 MB, és a Cape Verdében 2,56 MB van, vagyis még mindig több, mint amennyi regiszterterület van GK104-ben), vagy a brutálisan hatékony cache szervezésre. Ezeknek a grafika csak ritkán veszik hasznát. Arra sincs szükség, hogy egy dedikált GPU natívan támogassa a C++ virtuális funkcióit, a kivételkezelés, a rekurziót, illetve nem kell ugyanazokat a 64 bites pointereket kezelnie, mint a CPU-nak (AMD64 architektúra). Az, hogy a GCN ezt mind tudja, csak az integrálás miatt valósult meg.
    Ugyanúgy gondolkodott az AMD és az NV. A növekvő piacokra terveztek egy ideális architektúrát (ugye kinek mi volt a fontos, és mi az elérhető piac). A VGA-knál meg lesz, ami lesz. A piac aktuális mérete mellett jelentősége már alig van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10081 üzenetére

    Ez bizony valóban nagyon nagy probléma, mert a nyereség nagy része onnan jön. Ezt kompenzálná az egyre drágább árazás a combosabb VGA-k esetében.
    A JPR anyaga az nem csak a VGA-król szól, hanem mindenről amin játszanak, kezdve az egerektől, a gémer monitorokon át, a hangszórókig, sőt még a tápok és a házak is. :) Egyébként ebben benne vannak a processzorok is.
    Ezt nekem is nehéz feldolgozni. Én is rajongok a VGA-kért, de a tények azt mutatják, hogy a piac csökken. :(

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10083 üzenetére

    Nézd, valaki örül ennek, mert nem kell többet VGA-t venni, de van akinek ez egy hobbi szinten létező szokás. Jellemzően ők járnak ide a PH-ra, mert ha nem lenne hobbijuk, akkor nem érdekelné őket. Egyértelmű, hogy számukra ez katasztrófa. Én katasztrófának nem fogom fel, de rajongani nem rajongok azért, hogy a PC-imet ne én állítsam egyéni döntés szerint össze.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10086 üzenetére

    A 28 nm-es termékekből már nincs hiány, a Radeonok elérhetősége elég jó. A GeForce-okból van kevés, de már átbeszéltük, hogy az NV nagy kevés gyártókapacitással rendelkezik. Ez okozza a hiányt. Ez változni fog. Ettől viszont az arányok nem változnak. A teljes piac ~70%-át az IGP adja, és még annak a ~30%-os VGA-piacnak is a ~75%-a a 100 dollár alatti termék. A 200 dollár feletti termék képzik a VGA-piac 5%-át. Ha belevesszük az IGP-ket, akkor a drága (200 dollár feletti) VGA-k eladásai kvázi mérhetetlenné vállnak százalékosan. A 300 dollár feletti szint eladásai már a VGA-k szintjén is 1% alatt vannak. A piacot lényegében az a 75%-os 100 dollár alatti rész tartja el, ha az bedől, akkor bedől a többi is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #10087 üzenetére

    Valaki a VGA-ra izgul. Ez amolyan hobbi. Nincs neki értelme, de jó csinálni. :)

    Világos, hogy az árnövelés nem megoldás, de a cégek nem fogják veszteséggel fenntartani a piacot. Ha ennyiért nem kell, akkor azt úgy értelmezik, hogy a termékekre nincs igény.

    Persze ... kidolgozott tervek vannak itt a cégeknek. Az NV-nek is lesz APU-ja. A Maxwell esetében már mondták, hogy ez tartalmazza majd elsőként a saját processzormagjukat. Reagálnak ők a piac változásaira.

    (#10089) Löncsi: Erre hiába reagálsz így, ettől a helyzet nem változik. A notebookgyártók sem a félmillás notikból élnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10091 üzenetére

    Aminek van látható eredménye, az nem mesterséges. A Metro Diffuse DoF-ja is ad helyenként különbséget, de már tárgyaltuk, hogy jellemzően a sebességvesztés volt a cél, mert a Ferminek jó volt a shared memory teljesítménye. Erre építették az egész effektet. Ezt sokkal jobban is meg lehet csinálni. Az AMD-nek van egy jóval erőforráskíélőbb Diffuse DoF algoritmusa. Erre azonban nem lehet még rámondani, hogy mesterséges, mert van látható eredménye, még akkor is, ha a beáldozott teljesítmény túl nagynak tűnik.
    A HDAO szintén teljesen más kategória. Rengeteg AO algoritmus közül lehet választani. A HDAO-t rendszerint azért választhatja egy fejlesztő, mert rendkívül gyors algoritmus azzal, hogy használja az LDS-t. Ha minden számítást teljes felbontáson csinálsz, akkor ez a különbség óriási sebességelőnyt jelent. Emellett a HDAO a többi AO-val ellentétben csak depth információkat igényel a képkockáról, így rugalmasabban lehet implementálni bizonyos render mellett, emellett jobban kíméli a memóriát a kevés input és output miatt. Ennél jobb megvalósítás AO-ra nem létezik, ráadásul nem kötelező teljes felbontáson számolni, bár tény, hogy az LDS miatt ez az algoritmus kevésbé érzékeny erre, mint a többi. Jellemzően a játékok csak a HDAO mellett alkalmaznak teljes felbontású AO-t. A HBAO és a tradicionális SSAO mellett felezett vagy negyedelt felbontással dolgoznak maximum, ez persze beállítástól függ. A HDAO hátránya viszont, hogy az LDS miatt ez egy DirectCompute 5.0-t igénylő algoritmus, vagyis DX10.1/10/9-es kártyákon nem fut. Ez az ami esetenként ellene szól. Ha a fejlesztő nem csak DX11-ben akar AO-t, akkor a HDAO mellé mindenképpen implementálni kell egy másik megoldást.

    Viszont a fejlesztés költségét is vissza kell hozni. Ezt korábban jellemzően a 100 dollár alatti szint termelte ki, és a drágább termékek voltak a ráadások. Most a VGA-k esetében a cégek ezzel nem számolhatnak már annyira, mert az IGP-k zabálják azt a piaci szegmenst, amiből korábban a nagy nyereség jött. Innen tehát csak az a lehetőség, hogy a drágább termékeket még drágábban adod, hogy meglegyen a pozitív mérleg. Nyilván ha rendelkezel IGP-vel, akkor egyszerűbb a helyzet, mert van némi mozgástér az árversenyre, de IGP nélkül a piac legjobban tejelő részéről kiszorulsz, így minden pénzt VGA-kból kell kitermelni, ami egyre nehezebb, és egyre magasabb árakat eredményez.

    A VGA-piac már nem diktál. Nincs benne az a pénz, amire a cégek építhetnének. Egyszerűen tervezni sem érdemes egy olyan piacra, ahol az IGP-k gyorsabbak, mint a nyereség oroszlánrészéért felelős VGA-k. Ez csak egy ideiglenesen fenntartható állapot, hosszabb távon integrálni kell. Még az NV-nek is meg van erre a víziója, hiszen a Kepler után a Maxwell már nem GPU lesz, hanem APU. Az NV és az AMD a VGA-kra már nem céloz semmit. Lesz, ami lesz kb. így állhatnak hozzá, ellenben vannak növekvő területek, amire egyre erősebben koncentrálnak, és ide tervezik az architektúrát. Ez sokkal fontosabb, mint nyerni egy csatában, majd nézni azt, hogy egyre kevesebb az eladás ezen a piacon.

    A Fermi és a Terascale viszonya más volt. A Cypressel sem volt okosabb az AMD, egyszerűen csak meg kellett nézni a VLIW4-et élesben még a Trinity előtt. Az új IGP-t látva ennek nagy haszna volt. De ez is a tipikusan így alakult helyzet.
    Az új architektúráknál senki sem volt okosabb. Egyszerűen az NV-nek a Kepler másra kell, mint az AMD-nek a GCN. Nyilván a Tegra piaca még nem áll olyan szinten, hogy olyan újításokat befogadjon, mint amik megtalálhatók a GCN-ben, míg a PC-s piacon már várnak ezekre. Ez egy logikus döntés, mert az ultramobil termékekben a fogyasztás még elsődleges, így csak addig érdemes építeni be az újdonságokat, amíg ki is lehet azokat használni. Jellemzően ott tart a piac, hogy kezdik a fejlesztők nézegetni az OpenCL-t. Az NV-nek emellett lesz CUDA is. Mindez ugye megoldható az Android NDK mellett. Később persze már az ARM terveiből is látszik, hogy itt is a heterogén éra bontakozik ki, így nyilván lehet erősen rámenni az újításokra. Valószínű, hogy az NV marad a saját terepén a CUDA-val és a PTX-szel, míg a többi cégnek csak a HSA marad, mint egyetlen független és nyílt alternatíva. A Kepler és a GCN közötti különbség tehát abból ered, hogy az egyik ki tudja jövőre használni az extra tudást, míg a másik olyan piacot céloz meg, ahol ennek még nem lenne jelentősége.

    (#10093) Löncsi: Sokszor teljesen félreérted az egészet. Nem fog itt csődbe menni senki. Még az NV sem, semmi bajuk nem lesz attól, hogy szűkül a VGA-piac. Ha nem jelentették volna be a Project Denvert, akkor lehetne bajuk, de így, hogy ennyire gyorsan reagálnak a változásra, és ennyire gyorsan előtérbe került náluk is az integráció, így simán le tudják fedni a jövőben esedékes igényeket. A különbség, hogy nem VGA, hanem komplett platform formájában teszik ezt. Ezzel még jól is járnak, hiszen nem függnek többé az Intel akaratától, így az olyan jó projekteket nem kell kényszerből leállítani, mint mondjuk az Ion.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10094 üzenetére

    Ilyen árak mellett nem gyárt senki sem veszteséggel, de itt arról is szó van, hogy a fejlesztések költségesek. Ezeket a költségeket ki kell termelni. Jellemzően ezt a VGA-piac a 100 dollár alatti szintből termelte. Nem ezeken volt a legtöbb haszon egy-egy eladott terméket nézve, de annyival több olcsó VGA megy el a drágábbak mellett, hogy összességében a legtöbb nyereség innen származik. Ezért veszélyes az IGP. Mindenki mondja, hogy nem veszélyes, mert nem lesz egy IGP olyan gyors, mint egy csúcs-VGA. Nem is lesz, de arra bőven elég, hogy kiüsse az igényt a VGA-piac 75%-ára, vagyis a 100 dollár alatti rétegre ... és ez jelenti a nagy problémát. Attól senki sem fél, még a gyártók közül sem, hogy a következő kör IGP-i befogják a 680-at, vagy a 7970-et, attól rettegnek, hogy a 100 dollár alatti szint teljesítményét masszívan hozzák. És a Trinity hozza is. Itt előjön a fejlesztés megkérdőjelezése is. Lásd most is a GT 620-640-es GeForce-okat, melyek a másfél évvel korábbi termékek átnevezései, vagyis sebességben semmivel sem többek. Nyilván van két lehetőség. Törődjünk bele, hogy az IGP-ra nincs gyógymód, vagy fejlesszünk ide egy új terméket, mely gyorsabb lesz ugyan, de kérdés, hogy megéri-e ezt a gyártóknak implementálni. Ha nem, akkor ez a termék kidobott pénz. Ezért áll hozzá most az NV óvatosan ehhez a fejlesztéshez, mert nem látják biztosítottnak, hogy az új IGP-k mellett megveszik a gyártók az új terméküket. Nyilván ilyen esetben az átnevezés egy nagyon gazdaságos szempont, mert anyagilag minimális teher, így az sem baj, ha nincs rá igény. Alig került pénzbe a "fejlesztés". Ezzel persze óhatatlanul erősödik az IGP-k helyzete, mert a másfél éves termékeket nem nehéz verni.
    Nyilván bele fog kerülni, amire szükség van. Ezt nem is vitatom, csak felhívtam a figyelmet, hogy ez nem csak a dGPU-król szól, hanem mindenről, ami "gémer".
    Biztos fel tudod, csupán megállapítottam, hogy ez egy nehéz helyzet. Én is rajongok a VGA-kért, mert ez érdekelt régebben is a legjobban. De a tényeket nem lehet figyelmen kívül hagyni.
    Az APU-kért nem rajongok, de kétségtelen tény, hogy skálázási lehetőség ezeken van. Nem akarnának itt a cégek, és a programozók sem APU-kat, ha a processzor oldaláról való skálázás megoldható lenne. A homogén többmagos processzorok bevezetése is kényszer volt. Az hozta elő a helyzetet, hogy egy régóta működő szabály (Dennard Scaling) kezdett megfenekleni. Ezért nem lett végül GHz verseny, pedig elméletben az lenne a legjobb, ha 30 GHz-es egymagos procikkal nyomulnánk ma. A gyakorlat azonban a fizika törvényeitől függ, így meg kellett lépni a skálázódás érdekében a több processzormagot. Ezzel elvoltunk addig, amíg Dennard Scaling teljesen megfeneklett. Most tartunk ott, hogy a lapka teljesítményét már nem lehet úgy növelni, hogy azt az új gyártástechnológia megoldja. Az egyetlen mód erre a pJ/FLOP arány csökkentése maradt. Erre két mód van. Az egyik a Pollack-féle szabály alkalmazása, ami annyiból áll, hogy egyre több egyszerűbb magot helyezel a lapkába. Ezzel a processzor egy szálon mért teljesítménye nagyon csökken, de a több szálú nagy nő. A másik mód a heterogén többmagos processzorokban rejlik. Ezzel a processzormagok teljesítményéhez nem, vagy csak picit kell hozzányúlni, míg a skálázást az IGP-k biztosítják, melyeket fel kell készíteni az általános számításra. Egyelőre úgy néz ki, hogy minden cég az utóbbi utat választotta. Nyilván érthető, hogy senki sem tartja szerencsésnek az egy szálú teljesítményt Atom szintre butítani.

    Az új konzol generáció inkább ártani fog a VGA-knak. TESCO-Zsömle jól mondja, hogy a legtöbb probléma az API-ból ered. Itt vesztik a PC-n a programok a legtöbb teljesítményt. Erre már reflektált Richard Huddy (akkor még az AMD-nél dolgozott, most már az Intelnél) [link], és John Carmack is beszélt erről [link]. Ez nagyon beszédes: "A Rage-et a PC-n elsősorban a textúrák frissítése hátráltatja. Konzolon a hardver és a memória direktebb kezelése következtében egyszerűen lehet frissíteni egy adott pixelt, de a PC-n masszív rutinokat kell bevetni, hogy a frissítés végbemenjen, és mindez – Carmack szerint – több mint tízezerszer hosszabb időbe kerül, ami természetesen nagyon lassítja a feldolgozást." Ezek azok, ahol a probléma keletkezik. Erre a megoldás a virtuális ISA bevezetése, vagy az API-k esetében az opció a hardverhez közelibb programozásra. Igazából mindkettőt jó lenne erőltetni, mert több lehetőség nem árt egy problémára.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10103 üzenetére

    Az elemzők gazdasági szakemberek. Nem látják a technikai oldalon keletkező problémákat. Még mindig úgy gondolnak az IGP-kre, hogy grafikára van, pedig nem azért költöztek be a processzorokba, hogy grafikát számítsanak.

    A memória-sávszélességre ott a 2.5D stacked memória. Ilyen lesz a Haswellen és a Kaverin.
    Továbbra sem érted meg, hogy nem a lapkák teljesítményével van a probléma, hanem a szoftveres oldalon korlátozó az API. Még az Intel Sandy Bridge-be épített IGP-je is gyorsabb bármelyik konzolos rendszernél. A gond az, hogy itt az API-n keresztül dolgoznak vele.
    Az IGP-nek a processzorban gyorsabb összeköttetése van. De ami fontos, hogy a késleltetés a CPU és a VGA között 300-400 ns, míg az IGP és a CPU között 2-6 ns.

    Ez amúgy nem úgy lesz, hogy holnapra csak úgy eltűnnek a dGPU-k. Egy hosszú folyamat ez. Most még csak azt látjuk, hogy statisztikailag esett 2011-ben a VGA-piac 30%-ot. Ez már egy kezdete ennek az átalakulásnak. Ez évről-évre hasonló lesz bár a mértéke változó lehet. 2012-ben szerintem nem lesz ilyen drasztikus -30%, de továbbra is visszaesés várható. Nagyjából -5-10%. 2014-ben már megkezdődnek az erős platformtervek, vagyis a dGPU már nem egy extra gyorsító lesz, a processzorok mellé, hanem a platform konkrét kiegészítője. Ez majd egy jó változás lesz a piacnak anyagilag, mert a Radeonok összes szolgáltatását AMD APU-val, míg a GeForce-okét NVIDIA APU-val tudod igénybe venni. Ezzel az AMD és az NV a saját rendszereihez köti majd a fejlesztéseket, vagyis ha minden funkciót meg akarsz kapni, akkor gyártón belül kell, hogy maradj. Persze biztos, hogy működni fog Intel proci mellett is, csak nem lesznek elérhetők az extrák. Például az NVIDIA az ARM felé tart. Világos, hogy az grafikus processzor oldaláról is az ARM-hoz szabják a fejlesztéseket. A Radeon az sötét ló, mert a GCN architektúrát az AMD az AMD64-hez szabta, amit az Intel támogat, de szükség van itt a HSA kezelésére is, ahova nem hiszem, hogy az Intel beállna. Persze az elméleti lehetőség megvan.
    2016 környékén majd eljutunk oda, hogy a VGA-k jelentőségi szintje igen gyér. Gyakorlatilag a hangkártyák szintjén fennmaradt, de ez kevés. 2017-ben pedig lehet hozni döntéseket. Ha ezek az igények megfelelőek, akkor lehet tovább fejleszteni, ha nem, akkor el lehet dobni az üzletágat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Loha #10105 üzenetére

    A stacked memória lehet több is. Mögötte pedig ott a rendszermemória.
    A VGA nem olyan rendszer, aminek korlátlan hozzáférése van az adatokhoz. Sőt brutálisan korlátozott, mert a driver mögé van rejtve a memória. Mindig szüksége van a processzorra. Ezen lehet okosítani, de teljes hozzáférést még platform szintjén sem lehet biztosítani úgy, hogy a processzort kizárd a munkából.
    [link] - érdemes elolvasni ezt. Sok dologra fényt derít, hogy hol vannak a limitek.

    Az API jelenti a mai tempóban a legnagyobb problémát. Köze van mindenhez.
    Továbbra sem fogod fel, hogy miből él a VGA-piac. Nem abból, hogy pár ember vesz egy-két 500 dolláros VGA-t, hanem abból, hogy milliók vesznek 100 dollár alattit. Ha ez nem létezik, akkor nincs esély visszahozni a fejlesztésbe ölt pénzeket. Ezért láthatsz a cégeknél olyan radikális változásokat, mint manapság. Lásd az NV-nél az ARM processzormag gyors tervezése, vagy az AMD-nél a dGPU hozzákötése a rendszerhez.
    Én értem, hogy legózós szemmel nagyon nehéz elfogadni azt az irányt, ami a cégek elképzeltek, de ezen nem tudunk változtatni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Löncsi #10109 üzenetére

    Meg van jól írva, csak a külső benchmarkot nem ismeri a Crossfire profil. Ha enélkül méred, akkor tökéletes. Ezért nem használják sokan a külső benchmarkot, mert többet árt, mint használ.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #10118 üzenetére

    Persze. A fejlesztési költség egységes, csak ha a kicsik nem tudják ezt kitermelni, mint eddig, akkor a nagyoknak kell. Ezzel nyilván az árazás jelentősen nő. Ez látható is.

    A presztízsnél már többet számít a tervezet. 2011-ben szenvedett a VGA-piac egy nagy pofont. -30%-os visszaesést korábban nem kapott a szegmens. Ezzel a stratégiák is változnak.

    A Ferminek a legnagyobb problémája nem a túl-compute-osítás volt, hanem a gyenge skálázhatóság lefelé. A GF1x4 volt ahol az architektúra jól működött. Felette és alatta már jöttek a gondok. Most persze a felette annyira nem téma, mert az a GF100/110 volt, amit más igények szerint terveztek, de alatta nyilván nem volt jó a helyzet. Erre a Kepler jó válasz volt. A skálázhatóság jónak tűnik, a compute esetében pedig a shared memory és a context switch teljesítménye ki lett herélve, ami nyilvánvalóan a tranzisztortakarékosságot célozta meg. Szuper lesz a Tegrába. Ez már az előre tervezés. Maga a Kepler abból a szempontból eléggé logikátlan, hogy elviszi az NV a compute irányba megfeleltetve a komplex számításoknak a rendszert "mert az a jövő", majd hirtelen váltással vissza minden, mert "mégsem ez a jövő?" ... valójában a jövőről alkotott kép nem változott a Keplerrel, csak időközben fontosabbak lettek a Tegra igényei.

    (#10119) fatallerror: Számunkra ez lényegtelen. Teljesítmény V-Sync nélkül szabad csak mérni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz bsh #10121 üzenetére

    Nem tudom. Az NV még nem mondott semmit. Biztos lesz rá reakció. Az tuti, hogy az EVGA csinált egy visszahívást, de a hibát nem mondták. Most erre lehet fudot építeni, de lehet, hogy a probléma tényleg érint mindent. Az valóban furcsa volt, hogy az EVGA ugyanazt a NYÁK-ot használja mint a többiek, és beszámolnak egy specifikus hibáról, de nem elképzelhetetlen, hogy rosszul paraméterezték. Majd kiderül.

    Szerk.: Na akkor ennyi. Valszeg kellett a kattintás az oldalnak. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #10123 üzenetére

    Azt nem mondanám, hogy baromság. Megvan a maga funkciója ... ennyi. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák