Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz vanye #6 üzenetére

    A tableteken rengetegen játszanak, illetve a webes felületek gyorsítása is elengedhetetlen. Ebben a PowerVR Windowson nagyon rossz. A PowerVR Androidon azért jó, mert az Apple rájuk épít, és a legtöbb androidos játék egy iOS port, vagyis a rendert onnan át lehet emelni. A Windows esetében ez sokkal nehezebb, ezért vált vissza az Intel saját fejlesztésű IGP-re. Egyszerűen nem tudják befolyásolni a fejlesztőket. A Flash is fontos szempont Windows 8-on. Mivel ez Androidon már nincs, így az ImgTec nem támogatja.

    A legfontosabb, hogy kiszolgálja a termék a webes igényeket. Az aktuális tabletek közül ennek az Atom felel meg a legkevésbé. Ironikus módon azért, mert a Windows 8 az RT-vel ellentétben több dolgot támogat, amiket viszont nem támogat az IGP-hez készült driver. Nem véletlen, hogy az Intel inkább leváltja ezt a nagyon energiahatékony IGP-t, az egy nagyon rossz fogyasztási mutatókkal rendelkező architektúrával. Szimplán megéri bevállalni azt a plusz pár wattot a jó működésért cserébe.

    (#5) MaUser: Az Anand tabletes cikkeinek érdekessége ez a bekezdés: "The more I use other Windows RT/8 tablets, the more I'm realizing that the stability issues I encountered with Acer's W510 are more a function of that tablet and less a general Microsoft problem. Although I did experience a couple of unexpected app crashes, the overall experience with Samsung's ATIV Tab was positive. I didn't see anywhere near the number of cases of strange behavior as I did with the W510. I'm beginning to wonder if Clover Trail's Windows 8 software stack isn't as mature as the Windows RT implementations that I've played with." [link]
    Nagyon nem viccből van rajta a média és a fejlesztők az Atom PowerVR IGP-jének grafikus driverén. Egyszerűen nem stabil. A mostani tesztek ezt nem vizsgálják, mert IGP-s mérések nincsenek. Egyszerűen nincs rá lehetőség. Ugyanakkor ez az a pont, amit folyamatosan kritizálnak az Atomon. Lehet jó a fogyasztási rész, amit megjegyzek, hogy nem ideális összehasonlítani a Tegra 3-mal, mert egyrészt régi a lapka, másrészt a Windows RT bevallottan nem használja a Tegra energiagazdálkodási szolgáltatásait. Sajnos ez mérsékelten ugyan, de igaz a Qualcomm megoldására is. Lehet jó a fogyasztás, de elsősorban a stabilitás, amiben jobbak a konkurensek. Ezt az elején nehéz megnézni, mert teszteled a gépet, és a fagyásokat, illetve a programleállásokat betudod az új OS-nek, vagy esetleg a drivernek. Ugyanakkor egyre több a tapasztalat, és bizony a Qualcomm és a Tegra tabletek nem fagynak vagy appcrash-elnek annyira, mint az Atom. Ez idővel feltűnik, és feltűnt az Anandnak is. Ennek megvannak az elméleti okai, amiről már a platform megjelenése előtt is írtunk. Ezek a problémák valószínűleg megjavulnak a PowerVR elhagyásával.

    (#3) kleinguru: Azok lesznek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #17 üzenetére

    Gondolom, hogy a következő Atom megoldja a stabilitási gondokat, de az nem segít a mostanin. Ez egy veszélyes játék, mert mire használható lesz az Atom, addigra a névhez túl sok kellemetlen élmény fog társulni. Most sem magának tesz jót az Intel, hogy nem ad ki Win 8 drivert a Cedar Trailhez, és a korábbi Atomokhoz. A legtöbb felhasználónál ez a politika egy "soha többet Atom" gondolattal fog társulni. Nem véletlen, hogy pár partner már javasolja, hogy az Atom nevet hagyják el, túl negatív a megítélése. Mi tudjuk, hogy ez csak egy név, és valójában a hardver számít, de az átlagember ezt nem így gondolja. Ez persze kapcsolatban van azzal, hogy nincs kedvük ismerni a hardvert még felületesen sem, így marad a negatív név előttük.

    A Microsoft erősen amellett van, hogy a egyetlen forrásból ki lehessen szolgálni minden hardvert. Erre 2013-ban majd lesznek bejelentések. Hosszútávon úgy akarják csinálni, hogy ne is kelljen binárist fordítani, az a program indításakor történik majd meg, és úgy fut majd az alkalmazás. Ez az erőforrások kihasználásánál is hasznos lehet, mivel a binárist úgy fordítja a program, hogy esetleg használjon IGP-s gyorsítást, vagy egyéb részegységet, ha ez lehetséges.

    (#18) vanye: De az x86 nem javítja meg az Atom stabilitási gondjait. [link] - ennek az oldalnak a legvégét olvasd el. Ezt Anand akkor azt hitte, hogy Windows probléma, de más hardveren nem jön elő. Ott van egy kép is elveszett erőforrásról. Random dobálja a driver D3D alkalmazások alatt. Ez akár driver összeomlással is társulhat, ami kékhalálhoz vezethet, jobb esetben csak egy appcrash. Ez így a legkevésbé sem egy jól működő platform benyomását kelti.
    A megcélzott vásárlóréteg valszeg sokat fog a weben videózni. Számos videoportál Flasht használ még mindig. Ezt a tabletek közül csak a Hondo támogatja IGP-vel gyorsítva. Ez egy funkcionális szempont. eleve a webet is a GPU-s terhelés növelése felé visszük, mert így sokkal energiahatékonyabban működik egy mobil eszköz. Nem véletlen, hogy a legtöbb ARM-os cég inkább az IGP-s teljesítmény erősítésére koncentrál. Weben a központi processzornak egyre kevesebb lesz a szerepe. Az Intel is ezért áll át a saját architektúrájára, mert túlságosan meg van kötve a PowerVR-rel a kezül. A Windows az nem Android, ahol a PowerVR az iOS portolásból komoly hasznot húz. A Microsoft rendszerén ez az architektúra csak szenvedést hoz. A saját architektúra sokkal jobb, persze a fogyasztás/teljesítmény mutató a konkurensekhez képest nagyon gyenge, de egyelőre nincs jobb alternatíva, azt viszont világosan látják, hogy a PowerVR-től el kell zárkózniuk.
    A Microsoftnak is az ultramobil rendszerek okozzák a legnagyobb fejtörést, főleg a PowerVR. Raktak dolgokat a DX11.1-be, hogy egyszerűbb legyen a fejlesztők dolga, de akkor is eléggé speciálisan kell írni az alkalmazást, hogy IMR és TBR mellett is jól működjön. Sajnos minden API futószalagja az azonnali renderhez van közelebb. A Qualcomm nem véletlenül rakott Flexrendert az Adreno 300-ba. A hardver kihasználása nem ideális ebben a működési módban, de funkcionálisan ez fekszik az API-nak. Az élmény szempontjából utóbbi jobban számít.
    Emlékszem, hogy sokan az NV-nek az IMR elv melletti kardoskodását kritizálták, amikor a Tegra 2 megjelent. Főleg a konkurensek. Ezt igen jó példákkal támasztották alá, főleg mérésekkel, hogy milyen teljesítmény/fogyasztás mutatója van a GeForce ULP-nek. Most pedig a kritizálók sorra jönnek elő azzal, hogy az IMR lesz a jó irány, mert nincs korlátozva a mozaikokban kötegelt háromszögek száma, és a komplex feladatokban kifejezetten ideális, ha a hardver az API-k logikai futószalagjához igazodik. Az új Adreno, Mali és GC fejlesztések már lépdelnek az IMR felé. Egyedül az ImgTec makacs, de ők az Apple miatt megtehetik. Az Androidra mindig jók lesznek a portok az iOS-ről.

    (#28) MaUser: A Hondo APU max fogyasztása 4,5 watt és +1 watt a vezérlő. Az Atomra már hiányzik a fogyasztási szint, mert az Intel kivette a specifikációból. [link] Arra emlékszem, hogy régen 1,7 watt átlagos érték volt megadva. A maxot nem tudjuk. Az AMD 2 wattos átlagos fogyasztást ad meg a Hondo APU-ra.
    Az Intel Z2760 tényleges ellenfele az AMD Z-60. Persze árban nem egyeznek, mert az Intel az Atomot 25 dollárral olcsóbban árulja a listás adatok szerint. Az ár az ami miatt a Z-60 elsősorban az üzleti vonalon lett bevetve, mert nagyon drága a termék. 60 dollár a listaára, ami konkrétan 3x annyi, mint amennyit egy Tegra 3-ért kérnek, és a Hondo lapkamérete is kisebb, ráadásul az NV drágább node-on gyártatja a Tegrát. Ettől függetlenül a CES-en több gyártó is Hondo APU-ra vált. Egyszerűen ma ez az egyetlen stabilan működő x86-os tabletplatform. Az Atommal próbálkoztak, de nem működik. Itt a váltás az egyetlen megoldás, amíg nem jön új x86-os platform. A gyártók szempontjából is kritikus, hogy a vásárló ne egy olyan tabletet kapjon, ami random fagy, vagy különböző beépített funkciók mellett véletlenszerűen újraindul. Ez a gyártónak a brand amortizációja. A legtöbb felhasználó a termék gyártójának logóját látja a terméken, és logikusan azt fogják hibáztatni. Persze ez valójában nem logikus, de itt egyszerű gondolkodású vásárlókról beszélünk.
    A videolejátszási adat az önmagában kevés. Emellett a bemutatón minőségvizsgálat is volt, hogy a Hondo mennyivel szebb képet ad a plusz wattokért. A HQV 2.0 eredmény az 178 a Hondo APU-n és 86 az Atomon. A tesztben a max. érték 210 pont.
    A képminőségben számszerű adat, hogy a windowsos PowerVR driver a hardvert 16 bites maximális shader precizitás mellett működtetni. A Hondo APU esetében 32 bites precizitás érhető el. Dupla olyan pontosan számol, ami nyilván a képminőségre hatással van. A PowerVR IGP-nél még a Tegra 3 IGP-je is pontosabb a 20 bites precizitásával.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Hiperwolf #34 üzenetére

    A Celeron az csak nem volt gyors, de stabil volt és mindig jól működött. A PowerVR-rel utóbbi két tényező hiányzik.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #36 üzenetére

    Kevés. De azt érezni fogják, hogy belefagynak és újraindul. Nem véletlen, hogy számos gyártó hirtelen áttér a Hondo APU-ra. A saját brandjük amortizációja zajlik az Atom problémái miatt. Ezt nem engedhetik meg. A Compaltól tudom, hogy náluk öt cég fog Hondo APU-s gépet gyártatni. Ezek közül két cég jelentősen vissza is vesz az Atom tabletek rendeléséből. Ez azt jelzi, hogy van más. Igazából senki sem hitte, hogy a Z2760 nem lesz stabil, illetve nyilván azt sem várta senki, hogy a Hondo APU ennyire agyon tudja verni tudásban. Bár ugye itt fontos, hogy a hardver specifikációban az Atom közelebb van, mint azt a valóság mutatja. A funkcionalitás a limitáltsága abból ered, hogy a driveres támogatás nagyon messze van attól, amit a hardver elméletben tud. A Z2760 képes lenne a Windows 8-at egy kifejezetten tempós future_level_10_1 szinten futtatni, de csak egy kifejezetten buta 9-es szint jön össze, mert a driver nem támogat többet. Ehhez képest a Hondo APU a 11-es szinten támogatja, ami egyébként alapfeltétele a Windows 8 új szolgáltatásainak. Ha valaki egy teljes funkcionalitású Windows 8-as tabletet akar összerakni, akkor nincs más megoldás, mint a Hondo APU. A vállalati szintre koncentráló Fujitsu pont ezért döntött a Hondo mellett. Nyilván ide nehezebb eladni egy Atomot, mert vásárlás előtt utánanéznek, hogy mire lehet számítani. A konzumer szint egyszerűbb, mert csak vásárlás után derülnek ki a problémák.

    Nyilván a .net és a Java is csinálja. Nem újdonság, de egyik megoldás sem koncentrál a magas teljesítményre. Az MS nem akar tiltani semmit, csak szeretné, ha egy forrásból, annak módosítása nélkül ki lehessen szolgálni minden hardvert. Ez az amin dolgoznak. Meggyőződésem, hogy az eltérő CPU és GPU ISA-k mellett ez az egyetlen lehetséges jövőkép, ha a cégek azon dolgoznak, hogy mindent ennyire összeolvasszunk a termékek szintjén.

    Miért kellene elfelejteni, ha számos gyártó erre vált a CES-en? Egyébként az iPad 4-be rakott Apple A6X maximális fogyasztása 5,3 watt. Ez is 5 watt felett van. A Hondo az már egy használható tabletplatform. Gyakorlatilag az a határ, ami passzívan hűthető.
    Ma rengeteg tabletekbe szánt processzort 40 nm-en gyártanak. A gyártástechnológiai váltástól a jövőben azért ne várj sokat. Az ARM már számos tanulmányt csinált róla, hogy a Dennard Scaling szabály a végéhez közelít. Most már karnyújtásnyira vagyunk attól, hogy egy tranyó bekapcsolásához szükséges energiaigény ne csökkenjen a csíkszélességváltással. Innentől például lehetséges, hogy egy 40 nm-ről 28 nm-re levitt lapka csak kisebb lesz, de nem fog kevesebbet fogyasztani. Ezért ruház be a TSMC ennyire komolyan a 28 nm-re, mert nagyon sokan nem fognak 20 nm-re váltani. Egyszerűen nincs összhangban a befektetett munka és pénz, az egyre kisebb csík csökkenő előnyeivel. Ennek megfelelően a mai fejlesztések főleg arra mennek rá, hogy a pJ/FLOP mutató csökkenjen. Amit a fizika törvényei nem tesznek lehetővé, azt bele kell tervezni az architektúrába.
    Raktak tabletbe Cedar Trail Atomot. Számos cég. Ezért van felháborodás, hogy nincs hozzá Windows 8 driver. Valaki 200k-ért vett ilyen tabot nyáron, hogy majd frissít Win 8-ra és öröme lesz. Hát nem lett.

    A 60 dollár eléggé magas. A tabletekbe szánt SoC-ok 15-35 dolláros listaáron mennek. Az egyébként elképzelhető, hogy ez csak kezdeti ár. Én a 40 dollárt tartanám reálisnak, persze a vállalati termékek annyira drágák, hogy például a Fujitsunak még így is megéri, de a konzumer szintre ez az ár már sok. A W110-ben a platform nagyobb volt, és 12 wattos maximális fogyasztással rendelkezett. A Hondo ugyanezt a teljesítményt tudja 5,5 wattból. Ez nagy különbség.

    A Fujitsu Hondo APU-s tabletje 9 óráig működik idle. 4-5 órát a W110 tudott, de ahhoz képest már felezett lett a fogyasztás.
    Amilyen specifikációi vannak a Temashnak én nem gondolnám, hogy a Bay Trail-T biztatóbb. A Temash 3,9 wattot fogyaszt SoC-ként, és kétszeres teljesítményt kínál a Hondo APU-hoz képest. A Bay Trail-T arra nem lesz jó, hogy a Hondo APU teljesítményét befogja, legalábbis az Intel előzetes teljesítményadatai szerint. A 22 nm akkor ér valamit, ha nem a piac legrosszabb teljesítmény/fogyasztás mutatóval rendelkező IGP kerül bele. A gyártók a listaárat fogják nézni.
    A tranzisztorsűrűség szempontjából nem biztos, hogy a 22 nm-es technológia miatt jobb lesz a Bay Trail. Az Intel 22 nm kapuszélessége valójában 26 nm, vagyis nincs messze a TSMC 28 nm-es kapuszélességétől, emellett az AMD a Jaguar magot már HDL-lel implementálja. De ha megnézed a Cedarview és a Hondo tranyósűrűségét, akkor a Hondo esetében egységnyi területen 40 nm-en több tranyó van, mint 32 nm-en a Cedarview lapkánál:
    Pontos számokban:
    Hondo: 40 nm, 75 mm^2, 380 millió tranyó
    Cedarview: 32 nm, 59 mm^2, 292 millió tranyó
    Ez a különbség onnan jön, hogy az AMD az ATI felvásárlásával megörökölte a HDL-t, amivel a cég a GPU-kat tervezte/tervezi. Ez a központi processzorokhoz használt megoldásnál jóval sűrűbben képes elhelyezni a tranzisztorokat, ami egy GPU-nál alapvető dolog, de a CPU-nál sosem volt rá nagy igény. Az AMD viszont a Bobcat magban néhány részt már HDL-lel tervezett, és a Jaguar magok esetében már a teljes mag ezzel lesz implementálva. Ezek is komolyan számítanak. Az Intel még az IGP-hez sem használ HDL-t. Nem kényszerítette rá őket senki, hogy ilyen irányba vigyék a fejlesztéseket. Az ATI és az NV évekig komoly harcot vívott, aminek a HDL az egyik eredménye, mindkét cég alkalmaz ilyet.

    A képminőség az egy olyan dolog, ami addig nem derül ki, amíg meg nem látod, hogy a másik mit tud. Elképzeled, hogy ez az amit ebből ki lehet hozni, amit csak az rombol le, ha látod, hogy ennél többre is képes egy másik hardver. Addig viszont nincs okod kételkedni abban, hogy a vásárolt termék képminősége jó.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz GeryFlash #40 üzenetére

    Számít az a +30 watt. Nagyon is. 1000 géppel számolva az már +30 kilowatt. Ez komoly kiadás lehet egy cégnek.
    A gyártók a netbookpiaccal leszámoltak, de ettől az árkategória még lyukas. Ide olcsó notebookok jönnek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz emvy #43 üzenetére

    Valóban nem fognak mindig működni, de ez itt elvi kérdés. Ha megfelel a kevesebbet fogyasztó platform, akkor miért vennének többet fogyasztót? Ez így működik a nagy gépparkkal rendelkező cégeknél.

    (#44) MaUser: A Hondo gyártása óriási tételben megy (negyedéves szinten olyan 10 milliós). Ez nem új lapka, hanem egy új revíziójú Zacate. Ezt 2011 óta gyártják. Nagyjából szeptember óta minden Brazos ezt a revíziót kapja. A legjobban sikerült termékekből lesz a Hondo. Ezt leválogatással csinálják. Az egyetlen különbség, hogy az új revízió kapott egy nagyon gyors boot módot, amit a Brazos E és C termékeknél letiltanak. Ezzel lényegében ezek a megoldások nem különböznek az elődtől.
    A Hondo az tud olyan dolgokat, amihez egy iPad hozzá sem tud szagolni. Ennek ára van, de nem véletlen, hogy vállalati szintű termékeknél erre építenek és nem iPadre.
    Az OS szempontjából a Windows 8 eléggé úgy van alakítva, hogy a Hondo APU-n tökéletesen fusson. Ez persze inkább fordítva értendő. Az AMD alakította úgy a fejlesztést, hogy támogassák az OS új képességeit.

    A TSMC a 28 nm-es node-jára már 2012 elején épültek termékek. Azt nagy túlzás állítani, hogy sehol nincs, amikor egy éve tömegtermelés folyik rajta.

    Szerintem a legtöbb felhasználó nem a tablet kijelzőjén fog videózni. Legalábbis így logikus.
    Az valóban nagy gond, hogy a szabadban nem látod jól a kijelzőt, de ez általános probléma. A legtöbb cég magas fényerejű megjelenítővel próbálja ezt megoldani, ami segít, de nem eleget, és még az aksit is durván zabálja. Ennél sokkal reálisabb alternatíva, amit az Apical csinál. Ezt az utóbbi IFA-n bemutatták. A mobil eszközt fel kell szerelni egy környezeti fényt érzékelő szenzorral, majd az adatokat folyamatosan elemezve egy háttérben futó szoftver mindig átdolgozza a képet (kontrasz és post-process), hogy az a fényviszonyokhoz ideális legyen. Az előnye, hogy teljesen átlagos kijelzővel is működik, és ezzel a megjelenítő fogyasztása nem nő meg, ám a hátránya, hogy az IGP oldaláról brutálisan magas számítási teljesítményt követel. Ugyan létezik rá célhardver, de nagyon kevesen licencelik, mivel túl sok helyet foglal a lapkában, és csak erre használható. Az alternatív licenc a szoftveres mód, de ehhez OpenCL-t támogató IGP kell, legalább 50 GFLOPS-os számítási kapacitással. Ezt még a Hondo APU IGP-je sem tudja, pedig ebből a szempontból 4-12x gyorsabb a konkurenseknél. a Temash IGP esetében már megoldható lesz a rendszer beépítése, annak a tempója a 80 GFLOPS-ot fogja ostromolni, ráadásul GCN lesz.

    Nem állítottam, hogy kötelező a .net és a Java esetében a real-time fordítást használni. Opciók vannak bőven.
    Egyelőre várjuk meg, hogy az MS konkrétan hogyan képzeli el. Egyelőre csak annyit mondtak, hogy a jövőben egy kód kell, ami mindent kiszolgál. Ez impozáns, de semmi konkrétum nem hangzott el a hogyanra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz emvy #46 üzenetére

    Az egyik következik a másikból. Ha veszel egy low power platformot, akkor annak fogyasztása van, ami kiadást hoz. Ha többet fogyaszt, akkor több lesz a kiadás. Ha nem kell a többet fogyasztó termék teljesítménye, akkor miért kellene növelni a kiadást? Ezért elvi kérdés.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #53 üzenetére

    10 milliónál több A6X sem készül negyedévenként. Az AMD több Hondo lapkát gyártat, mint amennyit az Apple az A6X-ből. Eleve az Apple nagyjából 10-15 milliós negyedéves iPad eladásokkal számol, ebből nem mind iPad 4, hanem a korábbiak értékesítésre kerülnek, és az iPad mini is. Az A6X-ből nagyjából 6 millió kell negyedévente, hogy meglegyen a szükséges mennyiség. Ennél többet nem hiszem, hogy gyártatnak, mert csak állna a raktárakban, azt meg senki sem szereti, főleg nem az Apple, hiszen ők nagyon gyors termékkivezetéseket szoktak csinálni.

    Az AMD volt az első cég, amely 28 nm-re váltott a TSMC-nél. Az Altera és a Xilinx társaságában párhuzamosan részt vettek a kísérleti gyártás szakaszában 2011 végén. Ezért tudtak 2012 elején 28 nm-es lapkákat felmutatni. Jelenleg három terméket gyártanak 28 nm-en. A kapacitásra sosem panaszkodtak. A többiek panaszkodtak rá, de ők sem a kihozatalra, hanem arra, hogy az AMD, az Altera és a Xilinx befoglalta a gyártósorok 70%-t. A második körben érkező cégek (voltak vagy tízen és nagy igényekkel) 2012 elején a maradék 30%-on osztozkodhattak. Ez volt a gond. A legtöbb vállalat inkább hagyta a fenébe, mert annyira kevés volt a gyártósor, hogy értelmetlen volt belekezdeni a tömeggyártásba. A Qualcomm és az NVIDIA pedig ideiglenes exkluzivitást kapott, vagyis minden újonnan betelepített gyártósor hozzájuk került. Most így év végén nagyjából elégedett mindenki. 2013-ban pedig üzembe áll az új gyár, amivel annyi gyártósor lesz, hogy kizárt, hogy valaki ne jusson elég gyártókapacitáshoz.
    A TSMC szintjén az az 5% pokoli nagy arány. Ők még tonnaszámra gyártanak 180 nm-es lapkákat is. A bérgyártók nem vonják be a régi üzemeket, vagy nem alakítják át, illetve nem adják el. Egyszerűen megtartják, mert még 15 év múlva is óriási lesz az igény a gyártósorokra. A bérgyártóknál még ma is üzemelnek 200 mm-es wafereket feldolgozó gyárak.
    A bérgyártóknál jellemzően a váltásoknál szokott kapacitáshiány kialakulni. Ők is próbálják felmérni az előzetes igényeket, de a válság és a 40 nm-es tapasztalatokból nem gondolták, hogy a 28 nm-re ekkora lesz az igény. Amikor pedig kiderült, akkor már lehetetlenné vált az új gyárral elkészülni a 28 nm-es tömeggyártásra. Ilyenkor mindig azok a cégek jár jól, amelyek részt vesznek a kísérleti gyártásban. Ez a legnagyobb szívás időszaka, és rengeteg pénzt emészt fel, de összességében megéri, mert a node tune a kísérleti gyártásban résztvevő lapkák alapján lesz elvégezve. Ez persze nem mindig jelent jót, gondolhatunk a 40 nm-re, amikor az AMD RV740-en végezték a tesztelést, és a tömeggyártás során mindenki nagyott szívott. Az RV740 méretéhez közeli lapkák jó kihozatalt hoztak, de a nagyobb chipek esetében ez az arány meredeken romlott. A legnagyobb problémával az NVIDIA szembesült, mert a GF100 óriási volt, így az elején egy waferből jó volt, ha hét lapka működött. Csúszott is a tervezett start fél évet. Azóta már körültekintőbbek a cégek is. A TSMC és az AMD a kísérleti gyártást a 28 nm-nél a Tahiti lapkán végezte. Az eredmény magáért beszél. A kihozatallal szinte mindenki elégedett, legalábbis sokkal jobb a helyzet, mint a 40 nm-es váltásnál. Pár kisebb SoC esetében volt némi gond, de a Qualcomm termékek adataira építve sikerült ezen is javítani. Valószínű, hogy a TSMC ezt a stratégiát folytatja a következő váltásoknál is. Először egy nagy és komplex lapkát vesznek elő, valamelyik új GPU-ból érdemes kiindulni, majd később a kisebb termékek alapján tovább finomhangolják a processt. Ez tűnik ideálisnak.
    Ami a TSMC-nél gond lehet az a működési hierarchia. Azért sikeres bérgyártó ez a cég, mert nagyon egyszerűen gondolkodik a verseny szempontjából. Aki az első egy váltásnál, az sokat nyer, amikor lefoglalják a kapacitást, mert még van miből. Viszont jellemző, hogy bizonyos cégek nem akarnak részt venni a kísérleti gyártásban, mert nem tartják anyagilag kifizetődőnek. Ezért volt úgy az elmúlt öt váltás során, hogy az AMD, az Altera és a Xilinx hármason kívül, senkit sem érdeket a kísérleti gyártás. Ebből a szempontból az említett hármas nyert mindig, mert elsőkét foglalhattak le kapacitást. Ennek megfelelően mindig elsőként álltak elő új lapkákkal. Talán az FPGA-k szempontjából ez lényegtelen, mert azok jóval egyszerűbb lapkák, mint a GPU-k, de az AMD-nél összehasonlítható, hogy az NV-hez képest a 65 nm-re 3 hónappal, a 40 nm-en 4 hónappal, míg 28 nm-en három hónappal hamarabb váltottak. Ugyanakkor vannak a TSMC-nél több kapacitást igénylő cégek, mint a Qualcomm és hamarosan az Apple. Ők sosem fognak részt venni a kísérleti gyártásban, mert a tapasztalatuk nincs meg hozzá, és a költekező kedvük sem magas. Az NV még az a cég, amely rögtön ráugrik az új node-okra, amint elindul rajtuk a tömeggyártás. A Qualcommra már jellemző, hogy még ehhez képest is várnak pár hónapot. Az Apple-nek ez lesz a kellemetlen a TSMC-nél. A Samsungnál a helyzetük nagyon kellemes volt, mert sok volt a kapacitás, és nagyon kényelmesen válthattak processt, amit a Samsung a saját lapkáival szépen kitesztelt és feljavított. Az Apple így mindig rendkívül jó eredményeket produkáló gyártósorokat kapott, így ebből a szempontból sosem voltak olyan döntéskényszerben, hogy mit kellene változtatni a lapkán, hogy javuljon a kihozatalt. Ezért kevés itt a tapasztalatuk. A TSMC-nél ilyen nem lesz. Ott vagy beesnek a költekezős és kockázatos kísérletibe, vagy megvárják, míg lesz elegendő kapacitás számukra. Ezért volt hülyeség beleharapni a Samsung kezébe, mivel ők a tenyerükön hordozták az Apple igényeit. A TSMC nem fogja, ott nagyon nagy a verseny, és az üzleti modelljük erre épül. Ha az Apple miatt megváltoztatják, akkor rengeteg igazságtalannak fogja érezni. Nem fognak azért gürizni, hogy az Apple-nek jó legyen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #65 üzenetére

    Te hoztad fel az Apple A6X-et, hogy hozzá képest mennyire keveset gyárt az AMD. Én csak erre írtam, hogy pont fordítva van.
    Az Atomból a netbookokba adtak el sokat. Most hogy erről a piacról a gyártók kihátráltak lényegében kevesebb Atom megy el, mint Brazos. Az AMD úgy ad el nagyon sok Brazost, hogy olyan piacokra is pozicionál, mint a notebook, a nettop, a HTPC és az All-In-One (a beágyazott, netbook, a DIY és a tablet mellett). Ezekhez az Intel nem kínál Atomot. Ezt a terméksorozatot az Intel beágyazott, tablet, netbook és nettop szintre szánta. Emellett ugye van DIY, de ahhoz mára csak az Intel gyárt saját alaplapot, a többi gyártó ezen a részen csak a Brazosra koncentrálnak.

    A csíkszélesség csökkentése eleve nem fog segíteni a fogyasztáson. Minél kisebb a csík annál inkább a kvantumfizika törvényei uralkodnak, vagyis képtelenek vagyunk csökkenteni a tranyó bekapcsolásához szükséges energiaigényt. A csíkszélességváltás lényegi előnye a kisebb lapkaméret marad, de ezt már a tranyósűrűséggel lehet variálni. A energiahatékonyságot az architektúrába kell beletervezni.
    Tekintve, hogy a rendszerchipek jelentős része ma GPU, így sokkal fontosabb azt kihozni elsőként az új gyártástechnológiákra. Ebből jön a legtöbb energiahatékonyság. A processzor ezen a szinten másodlagos tényezővé vált, mert arányaiban sokkal kevesebb helyet foglal el egy lapkán, mint az integrált grafikus vezérlő.
    A 28 nm-re mennek az új fejlesztésekkel, de előbb a Hondo kerül eladásra. Később ezt persze leváltja a Temash, illetve az egész Brazost egy új fejlesztés (Kabini).
    Ha a hírben szereplő Bay Trail adatok igazak, akkor ez még a Hondo ellen is kevés, szóval annyira azért nem rezeltek be, hogy a 2014Q1-ben jön egy olyan Atom, ami nagy jóindulattal tud annyit mint egy két éves alapokra épülő Brazos.
    A low power termékek piaca durván koncentrál a IGP-re. A piaci szereplők minden fejlesztése arra megy, hogy amit ma a CPU számol a weben, azt holnap energiatakarékossági szempontok miatt a GPU számolja. Az Intel küzd egyedül ez ellen, mivel a WebCL-t egyáltalán nem támogatják, és a River Trailt szeretnék terjeszteni, de azt meg rajtuk kívül senki sem támogatja. A Google lenne a fontos, de ők nagyon a WebCL mellett vannak. A Microsoft egy saját megoldáson dolgozik, mely a DirectCompute API-ra épülne. Az Apple az OpenCL miatt szintén a WebCL-t választja.

    (#66) MaUser: Az AMD nem tud ARM-os lapkát kínálni. Ezt az integráció lehetetleníti el. Az AMD-nek van ma egyedül olyan CPU és GPU technológiája, melyet egymáshoz terveztek. Senki másnak nincs ilyen, noha kétségtelen, hogy minden érintett utalt már rá, hogy az IGP-nek valós koprocesszornak kell lennie, ergo olyan fejlesztéseken dolgoznak, amit az AMD megcsinált a GCN-nel. Ha a GCN-t bepakolod az ARM magok mellé, akkor mind az az előnyt, amit az architektúra biztosít elveszik. Ezt a rendszert AMD64 magok mellé lehet bepakolni. Máshova nincs értelme, vagy előtte át kell tervezni az ARMv8 maghoz.
    Az MS egy MS_Nerd pletyka szerint épít a Temashra. Ez váltja majd a készülő Windows 8-as Intel tabletet. Nem elégedettek az idle 4 óra üzemidővel, ami érthető, viszont most már ezt kell végigvinni. Már nincs idő Hondora váltani, az Atom pedig a stabilitásproblémák miatt szóba sem jött.

    (#64) emvy: Köszi. Már megkaptam a közleményt péntek este, csak nem volt időm megírni. De holnap meglesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #68 üzenetére

    Miért ne lennének? Minden next-gen beágyazott projektbe ők adják a hardvert, azok a cégek, akik kötődnek hozzájuk felvásárlási szerződést kötöttek velük, persze ezzel nem kötelező élni, de ha nincs más mód (némi befektetés itt még játszik), akkor megveszik őket. A többiek most a cégekkel egyeztetnek, hogy legyen még konzol a nappaliba, pl. Steambox. Túl nagy luxus az AMD-nek felkínálni azt a lehetőséget, hogy meghatározzák a fejlődési irányt. Főleg úgy, hogy már működő hardverük van az integrációra, amikor másnak erről jelenleg papírra vetett elképzelése van. Nem véletlenül néz az AMD a beágyazott rendszerek irányába. Ez egy stratégia. Egyrészt ott lesznek a nappalikban, másrészt a next-gen konzolokkal meghatározzák a PC fejlődési irányát.

    Az okostelefonok piaca egyelőre lényegtelen a cégnek. Ok, hogy sokan arról beszélnek, hogy meg kellene támadni, de ha megtámadják is, akkor mi van? Lesz egy lapka, amire a nagyágyúk úgy sem építenek, mert mindenki saját lapkával szeretné megoldani (Samsung és Apple). Aztán vannak a kisebbek, és nekik a nagyok egyre kevesebb teret hagynak. Az igazán értékes piac a középkategória lenne, de ott meg 10 dolláros áron mennek a chipek, vagyis, ha nem vagy benne szinten minden cég elképzelésében, mint a Qualcomm, akkor veszett az egész ügy. De az ARM licencpolitikája és az Artisan csomagok miatt még a kisebb cégeknek is jobban megéri saját lapkát fejleszteni. Az ARM már készre tervezi a dizájnt, így nem kell hozzá komoly gyártástechnológiai tapasztalat. Gyakorlatilag bárki képes lehet rá. A jövő üzleti modellje az lesz, hogy a tehetősebb telefongyártók (Samsung, Sony, Huawei és Apple mellett, az LG, a HTC, a ZTE és a Nokia) saját maguk megtervezik a lapkát. Még a legrosszabb esetben is nagyon combos dizájnt kapnak az ARM-tól. Ez a baj ezzel a piaccal, akik nem gyártanak telefont azoknak lényegében a maradék hely jut. Ezek persze lehetnek így is Samsung, vagy LG, vagy xy telefonok, de ott sem a reklámozott és extra odafigyelést kapó modellek. Régen ez más volt. Akkor nehéz volt chipet tervezni, de ma az ARM úgy gondolkodik, hogy nagyobb ügyfélkört akarnak, így elérhetővé szeretnék tenni a chipgyártást a tapasztalattal nem rendelkező cégeknek is. Ugyanerre reagálnak a licencből élő GPU-t fejlesztő cégek is. Az ImgTec például bevezet egy kész dizájnt, a sematikus licencek mellé. Utóbbit ugye egy cégnek le kell tervezni a gyártástechnológiához, míg előbbit csak egy blokk, amit bele kell rakni a tervezett lapkába, minden más le van tervezve és tesztelve. Ez olyan, mint az ARM csomagja, lényegében komolyabb tapasztalat nélküli chiptervezést tesz lehetővé.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #70 üzenetére

    A termékek attól, hogy más néven árulják őket, megmaradnak. Nem az AMD miatt veszik az emberek az AMD-t, hanem a termékei miatt. Ha nem AMD Radeon lenne, akkor is megvenném, mert marha gyors a hardver, nagyon sokat tud, olcsó, és hosszú a terméktámogatási ciklus.
    Ha az Intel IGP nem Intel lenne, akkor sem venném meg. Nem azért mert nem Intel, vagy Intel, hanem azért, mert egy év mainline terméktámogatás nem elég a mai világban. Persze, ha több lenne, mondjuk legalább három év, akkor már érdeklődnék. Nekem édes mindegy, hogy mi van ráírva, a terméket veszem meg. Onnantól kezdve baromira nem érdekel, hogy melyik cégnél landol a pénzem, egyik sem különb a haszonszerzés szempontjából a másiknál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #73 üzenetére

    Ez már annak a kérdése, hogy ki mennyit fizet azért, hogy építsenek rá hardvert. Én például elsőként a platformot nézem meg, aztán a terméket. Mondjuk én abban különbözök egy átlag embertől, hogy értem mi van benne és attól mi várható. Egy átlag ember maximum egy matricáig jut el.

    Gazdaságilag tudjuk, hogy mi miért van. Az Intel nem engedi, hogy az AMD piachoz jusson. Ennek az Atom ékes példája. A kamera appba belefagy a Windows 8, de 20 termék épül már rá. A gyártók ezt azért csinálják, mert az Intel nagyon sok marketingtámogatást ad. Viszont a gyártókon belül nehogy azt hidd, hogy vakok a tervezők. Viszont a vezetőség dönt a termékről. Náluk a marketingtámogatás többet nyom latban, illetve a cégek szintjén nem elhanyagolható, hogy az Intelnek nagyon gyors a termékamortizációja a 1+1 éves supporttal. Gyakorlatilag rákényszerítenek, hogy gyorsan válts. Az AMD pont az ellentettjét csinálja, hiszen minimum 3+x év supportot kínálnak, vagyis a termékamortizáció lassú. Ezt úgy gondold el, hogy ha jön egy új API vagy felület, akkor azt az Intel a termék megjelenése után egy évvel már nem építi be, még ha a hardver támogatja is. Az AMD még három évvel a megjelenés után is beépíti.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #75 üzenetére

    Van egy probléma, ami az Athlon 64 idején nem volt. A P4 az gagyi volt, de ki lehetett bírni. Ma az a probléma, hogy az Intel elindult három irányba a Dennard Scaling szabály döglődése miatt, és egyik sem működik, míg az AMD-nek sikerült elsőre működő hardvert csinálni a rendszerszintű integrációhoz. Innentől a darabolás is jobb (ami egyébként még mindig nem esélyes, mivel az AMD technológiái nagyon sokat érnek, így megveszik őket, ezzel az Intel is marad önmaga), mert az AMD már az implementációt csinálja, míg az Intelnek papírjai vannak, hogy elvben mennyire jó a Larrabee, de gyakorlati implementáció integrált szinten egyhamar nem lesz. A ZiiLabs most az új irány a Larrabee után. Azt hirtelen vették meg, mindenféle előjel nélkül. Valószínű, hogy látták, hogy a Larrabee egy bizonyos szint alá nem skálázható, míg felfelé óriási cache kell hozzá.
    Jelenleg az Intelnek a legnagyobb fenyegetés a HSA. Ez az amit nem szabad engedni, mert lehetővé teszi, hogy a fejlesztő egyszer írjon meg egy kódot és az minden hardveren optimálisan futnak. Ha ez bekövetkezik, akkor az Intelnek nincs rá energiahatékony throughput processzora. Illetve ez lenne a Larrabee, csak nem működik, a belerakott milliárdok ellenére sem.
    Igazából az Intelnek a Larrabee jelentette volna az irányt a rendszerszintű integráció elmélyítéséhez, de az egész arra volt jó, hogy az AMD lemásolja az elvet és GCN-nek nevezze el.

    Van referenciadizájn. Ezt régóta csinálják. Csak az előadások zömét a nagy gyártók adják. A kicsik azért nem tudnak kitörni, mert a vásárlások nem a termék képességei szerint történnek, hanem inkább a marka szempontjából. Egy-két példa van arra, hogy egy kicsi felnő, de sok éves szenvedéssel jár.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lionhearted #79 üzenetére

    Dehogy. A dedikált GPU-knál a HD 2000 óra támogatott még ma is minden. Csak nem egy, hanem két driverrel oldják meg. egy a HD 2000-4000-ig és egy a HD 5000-máig. Azért választották szét, mert így a régebbi termékekhez készült driverekben több optimalizálást hajthatnak végre a termékekhez. Ezekhez még 2013-ban is érkezik driver.
    Az NV-nél a 8-as széria a legrégebbi támogatott. A 6-os és a 7-es kikerült, mert ugyanazt csinálják, mint az AMD. Nehéz ennyi terméket egy driverből támogatni, így inkább külön támogatás lesz. Ezt nem szivatásból csinálják, hanem azért, mert így sokkal jobban lehet figyelni a termékekre. A user oldalán úgyis mindegy, hogy külön töltesz le drivert, vagy a fő Catalystet.
    Az Intel meg 1+1 évet támogat. Az nem terméktámogatás a mai világban, amikor az AMD és az NV minimum 3 év főverzióval való támogatással dolgozik, ami esetleg hosszabbodhat. Én is úgy gondolom, ahogy az NV és az AMD. Legalább három éves mainline támogatás kell ma egy terméknek. Ennél kevesebb az nem jó. Több persze lehet. Szintén egyetértek azzal, hogy a terméktámogatást leválasztják a mainline driverről. Felesleges a régi termékeket így támogatni, mert 2013-ban több olyan játék jön, ami DX11-es GPU nélkül meg sem moccan. Ez önmagában egy szegmentálás, vagyis nem árt a driveres fejlesztést is szegmentálni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák