Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz keIdor #3 üzenetére

    Várható volt, hogy ha három revízión keresztül nem sikerült megoldani a problémát, akkor a negyedikkel sem lesz nagy változás. Silicon Spin kell, de az hónapokba telik, és idő nincs.

    bobalazs: A professzionális piacra ennyi memória dukál. Ezek a cuccok nem játékokat futtatnak majd. :)

    Sifre: Még így is jó a Fermi a HPC piacra. Bár a nyers számítási teljesítmény gyenge, így helyenként a FireStream a jobb választás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Med1on #20 üzenetére

    Nem hiszem, hogy lesz B1. Szerintem itt nem teljesen specifikus problémáról van szó a TSMC-nél. Kisebb lapkával lehet ez ellen küzdeni. Ez a GF100 ilyen marad ... tömeggyártásra nem igazán lesz alkalmas. Le kell cserélni valami másra, ha van rá esély.
    A 28 nm még nagyon messze van. Jövő év első felében lehet belőle valami, de tömeggyártás csak a második negyedév végétől lehetséges, legalábbis a TSMC ütemterve szerint.

    flimo: A Cypress-es FireStream szerezhet piacot, hiszen az teljesen OpenCL kompatibilis. Főleg azokat érdekelheti, akik az SP teljesítményre hajtanak. Nyilván be kell kalkulálni, hogy ez egy gaming architektúra, így nincs ECC támogatás és írható többszintű cacheszervezés. A vásárlás attól függ, hogy a futtatni kívánt programok mennyire haklisak ezek hiányára.

    Mackósajt: Az M szériánál azért tartották meg a 225 wattot, mert kőbe véset paraméter. Ha megemeli elveszti az eddigi projekteket. Mivel még az Oak Ridge sincs olyan állapotban, hogy kellenének a termékek, így az NV-nek van ideje a gyártás során keletkezett legjobb lapkákat kiválogatni. Persze ha nem igazak azok a pletykák, hogy a projektet már leállították.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz freelancer #42 üzenetére

    Professzionális szinten nyilván nem, de az AMD elsősorban a játékos piacra koncentrál, és ott ez a Multi-GPU-s stratégia a nyerő.
    Természetesen ha előnyt élvezne a professzinális és a HPC piac, akkor az AMD is bazinagy, a szuper TSMC-s gyártósorokkal kvázi gyárthatatlan termékeket tervezne, mert a tömeges elérhetőség csak a játékos piacon szempont. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #46 üzenetére

    Azért ezzel szerintem lehetne vitatkozni. Nézd meg az AMD és az NV nyers számítási teljesítményét. Több területre még a számszerűen sokkal rosszabb érték is hatásosabb. Maga az architektúra cache szervezése sokat segít (főleg Ray-Tracing vonalon). Nyilván ezek nem érnek semmit a megfelelő szolgáltatások, SDK-k, support nélkül, de bőven ott van a jobb hardver is. A gaming piacra egyáltalán nem ez az ideális ... működik, de nem hatékony, és ezt az NV is tudja.
    Hasonló az AMD oldala is a professzionális piacon. Van pár terület, ahol előrébb járnak, de összességében az NV új megoldása jobb, és ezen jobb support sem változtatna komoly mértékben. A fermis cacheszervezést, valamint az új setup motort nem lehet hatékony supporttal pótolni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #51 üzenetére

    Ha nem a hardverről szól a dolog, akkor miért nem fejlesztenek a gaming piacnak megfelelő architektúrát, ami versenyképes a Radeonokkal? Miért vették vissza a textúrázó kapacitást ... miért helyezik előtérbe a dupla pontosság melletti számítási teljesítményt?

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #57 üzenetére

    Nem ez volt a kérdésem. Arra lennék kíváncsi, hogy ha ennyire nem számít a hardver, akkor miért lett ilyen? Ha a köré épülő support megvan, akkor miért nem építenek a játékok szempontjából hatékony architektúrát, ami felveheti a versenyt a Radeonokkal? :)

    Az AMD-nek nincs gyorsabb terméke professzionális szinten. A Cypress-es FireStream még nem jelent meg. Az új FireProk is csak nemrég futottak be.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Med1on #61 üzenetére

    A tesszellációs eljárás problémái miatt lényegében csak ott lehet hasznát venni.
    A legnagyobb gond a játékokban, hogy a tesszellált felület a vertex shader fázis után jön létre, ergo a létrehozott szint akkortól létezik, amikortól már nem lehet alakítani a modellek elhelyezésén. A játékot nem lehet úgy megírni, hogy például a talajra alkalmazol tesszellálást, mert a virtuális karakter egyszerűen belesüllyed a tesszellált talajba. Úgy képzeld el, hogy nem fog látszani a cipője, mert a tesszellált kövek elfedik.
    Nem véletlen, hogy csak a technikai demók alkalmazzák a felületre történő tesszellálást, túl sok a felmerült probléma, amit nem lehet normálisan kezelni. Érdemes egyébként feltenni a kérdést, hogy a Heaven demóban, miért nem látsz egyetlen sétáló embert sem a köves utcákon. Ennek oka van. :)
    A tesszellálás gyakorlatilag kimerül a karakterekben és az effektekben, többet egyelőre nem lehet belőle kihozni. Igazából az egész felépítés ott vérzik, hogy a DX11-es tesszelláció az AMD Xenos modelljére épül, de amit fontos megjegyezni, hogy a Xenos futószalagjába egy olyan tesszellátorra volt igény, ami leveszi a terhet a rendszer egyéb részeiről, azaz az alacsony poligonszámú modellekből csinál normálisat. Erre is használja az a kevés boxos játék, ami használja. A DX11-es modell alapjaiban erre épül, némi kiegészítéssel. A felhasználási terület azonban az extrém magas poligonszám létrehozása, ami problémás, mert a rendszert alapjaiban nem erre tervezték. Ez nyilvánvalóan és a DX11-es játékok alapján láthatóan korlátozza a használhatóságot.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Med1on #64 üzenetére

    Használhatják csak ronda lesz, amikor a karakter bokáig elsüllyed a kövekben. ;]

    marcias: Mert marha lassú lenne. A tesszellálásnak a felületre majd akkor lesz értelme, amikor áttérnek a fejlesztők a voxeles számításokra.
    Addig effekt és karakter szintén fog létezni a játékokban (illetve a karaktereknél is vannak problémák, de ezeket egyelőre sikerül kezelni). Professzionális szinten ez más tészta. Ott már használható az elgondolás. Számít is a sebességben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #68 üzenetére

    Ez az elgondolás számos illesztési problémát eredményez. Nem véletlenül döntenek a fejlesztők a felület kiemelése mellett.
    A legnagyobb baj, hogy a programnak tesszellálás nélkül, és tesszellálással is jól kell kinéznie. Ez a kettő jelenleg nem összeegyeztethető. Az AVP-ben is volt egy csomó tesszellált felület, de ebből a végleges játékra nem sok maradt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz vhunor #70 üzenetére

    A DX11 tesszellátora a Xenos alapjaira épül. Az AMD azt a rendszert az Xbox 360 igényeihez fejlesztette. A probléma lényegében azért él, mert a Xenosos rendszert nem az extrém mértékű tesszellálásra találták ki. Nyilván nem is ez volt a fejlesztés célja anno. A végeredmény azonban más rendszerrel sem lenne sokkal jobb. A felmerült problémák a tesszellálás elvétől függnek, és nem a megvalósítástól. A rendszeren annyit lehetnek alakítani, hogy a vertex shader fázis elé lesz helyezve, de ekkor a teljesítmény hatalmasat esne. Megjegyzem a problémák zömét ez az elgondolás sem oldaná meg. Ha a gyökerénél akarjuk elemezni a problémákat, akkor azt lehet mondani, hogy nem lehet olyan világot építeni, ami tesszellálás mellett és tesszellálás nélkül is hibátlan megjelenítést garantál. Nyilván a tesszellálás nélküli mód elvetése kizárható, mert az DX11 only programmá lépteti elő a szoftvert, ami manapság árthat az eladásoknak. :D
    Amit lehet alkalmazni tesszellálás mellett az az effektek, és a karakterek jobb kidolgozása. Esetlen némi felület, de ügyelni kell rá, hogy ne látszódjanak a problémák (nyilván ezt elég nehéz kivitelezni).
    A DX11 nem csak a tesszellálásról szól. A DirectCompute is komoly szerephez jut, sőt a fejlesztők főleg ebben az irányban gondolkodnak. A különböző post process effektek már használják a játékokban Compute Shader előnyeit, de nem csak erre jó a felület. Lehet vele számos szimulációt csinálni. [link] - Van itt egy jó kis "tüzes" program, ami egész kellemes látványt kelt. Ez 3D-s textúrázást alkalmaz, amivel nem nagyon lehetett még játékokban találkozni, de szép dolgokra képes. [link] - Robert Varga csinált is belőle egy Benchmarkot. Ezenkívül persze számos újítás alkalmazható még a DX11-gyel, minden a fejlesztő kreativitására van bízva. Bár egyelőre azt jósolom, hogy maraduk a post process effekteknél egy kis ideig.
    Az AMD nem egy marketing cég, nekik főleg az a fontos, hogy tömeggyártásra alkalmas termékeket dobjanak piacra, amin keresni tudnak. Az NV másképp gondolkodik már. Ők látják, hogy itt csak akkor maradhatnak, ha sikerül lezárniuk a piacot a saját fejlesztéseikkel. Nyílt API-kkal már most sem versenyképesek, hiszen hat hónapot késtek a DX11-es hardverükkel, ami ráadásul alig gyártható. Őszre jön a HD 6000-es generáció, és az ellen megint nincs semmi, de ami nagyobb probléma, hogy jövő év közepéig a 40 nm-es gyártósorokra vannak kényszerítve, pedig a Fermi architektúra jelentősen nagyobb tranzisztorszám mellett hozza az Evergreen generáció játékok melletti teljesítményét, ami nyilván semmi jót nemjelent. A VGA-kon nincs annyi haszon, mint a procikon, itt nagyon fontos a megfelelő előállítási költség. A TSMC-nél még mindig a GT21x lapkák gyártása történik nagy mennyiségben, és nem a GF100-é. Pedig az NV megtehetné, hogy inkább a GF100-ra koncentrál, csak ők nyilván kiszámolták, hogy ezekből a chipekből mennyi veszteséget engedhetnek meg maguknak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz vhunor #72 üzenetére

    A funkció csak a felületekre korlátos. A karakterekre és a különböző effektekre láthatod, hogy használható, akár játékban is. A felületekre is jó egy benchmarkban, bár sejtem, hogy ez sok embert nem érdekel. :D
    Az AVP-ben az AA kiszúrható, és élsimítás csak DX11-ben van. :)
    A PhysX-es játékokban bármelyik proci megtudja ugyanezt csinálni, ha nem lenne egy programszálra korlátozva a PhysX használata. Nyilván az NV-nek ez az egyetlen út, hogy megtartsa a piacot. Valahogy el kell érni, hogy a CUDA legyen az elterjedt a felület, bár meglehetősen rossz ütemben haladnak, mert a szoftveres része az jó, hogy megvan, de hardver alig van rá. Jól keresztbe tett a TSMC ezekkel a gyártósorokkal. Gondolom az NV azt is megköszöni majd, hogy a 32 nm-es kiutat gyorsan törölték.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #76 üzenetére

    De ha ennyire csak a supportról van szó, akkor az NV miért nem csinál a PC-s GPU piacra hatékony architektúrát? Gondolom nekik sem jó, hogy hat hónap késéssel tudják elkapni a Cypress-t egy tömeggyártásra alkalmatlan lapkával, ami ráadásul a csúcskategóriába ... a Hemlock ellen lett tervezve, így még az árazás sem megfelelő.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #78 üzenetére

    Én pedig huszadszorra kérdezem, hogy ha ennyire nem számít a hardver, akkor nem lenne célszerűbb a PC-s gamer piac számára hasznos képességekre törekedni? Gondolom így nem kellene egy tömeggyártásra alkalmatlan, 500+ mm^2-es lapkát a szorítóba küldeni a jelentősen kisebb Cypress ellen (a hat hónap késést már meg sem említem). Ez jelentősen javítaná az NV PC-s versenyképességét, hiszen azonos tranzisztorszám mellett hoznák ugyanazt a teljesítményt, mint a Radeonok. Szerintem nekik sem jó, hogy +10-15%-hoz 1 milliárd tranyóval többet használnak. Nyilván ezek nagy része elmegy a dupla pontosság hatékony implementálására, aminek kb. semmi haszna a játékosok körében. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Mackósajt #80 üzenetére

    No problem ... bumcsizzunk :)

    A piaci pozíciót aláírom. Amit kifogásolok az ez. [link] Én nem tartom ennyire szigorúan ezt a nézetet, mert lényegében a szoftver a hardverrel ér valamit. Ergo a hardvernek is jelentős szerepe van a piaci pozícióban. Főleg úgy, hogy a Fermi számos olyan újdonságot vezet be, ami eddig még nem volt, így a pozíció még erősebb lesz. Tehát a hardver lényegében ugyanolyan fontos paraméter, mint a szoftver és ezt az NV is tudja. A Fermi nem véletlenül ilyen felépítésű. Konkrétan ha ez a hardver csak a PC-s GPU piacon lenne jelent, akkor azt mondanám, hogy szimplán idióták a mérnökök mert tranzisztorok százmillióit pazaroltak el olyan funkciókra, amelyeknek a játékosok nem veszik hasznát. Ellenben látom, hogy a professzionális és a HPC piac is fontos, sőt az NV szerint fontosabb szempont, így azt mondom, hogy született egy kompromisszumos megoldás. Nyilván ennek megvannak a maga hátrányai, de összességében érthető a termék felépítése.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák