Keresés

Hirdetés

Új hozzászólás Aktív témák

  • atti_2010

    nagyúr

    válasz MaUser #5 üzenetére

    Igen, jó kis fizetett Ananteches teszt, egy tavalyi terméket hasonlítanak egy még meg nem jelent Inteleshez azt is Intel által pénzelt szintetikus tesztben, gratula.

    [ Szerkesztve ]

    1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.

  • #65675776

    törölt tag

    válasz MaUser #17 üzenetére

    Viszont ha az x86 binárisokat és OS-eket nézed, akkor a linkelt tesztet lehúzhatod a WC-n, mert ott nem az ARM-os megoldásokkal, hanem a Hondoval és még inkább annak utódjával kell majd megkűzdenie. Márpedig az előzetesek alapján is gyengébb, mint a mostani Hondo, az utódjához viszonyítva meg még gyengébb lesz.

  • #65675776

    törölt tag

    válasz MaUser #25 üzenetére

    Az, hogy az intel többet ad el a gyenébb hw-ből nem azt jelenti, hogy az jó is. Szimplán marketing és az intel ismert piaci magatartásának következménye. Minden esetre az elég sokat elmond, hogy az AMD kb két év alatt nem kényszerült rá, hogy érdemben hozzányúljon a Brazos-hoz, ezalatt az intel két generációnyi atomot dobott a kukába. Nyilván nem azért, mert nagyon jók voltak.

    Miért feltétel a Unix/linux?

    Ahova a mostani Atomokat szánták az a Windows 8 tabletek pl. Na ez az a piac, ahol nincs ARM támogatás, itt csak és kizárólag az AMD-vel kell megkűzdenie az Atomoknak. De nem tudnak, és ezt bizony az intel is elismerte a támogatásról szóló közleményével. Nem is csoda, lévén a mostani Atomok nem képesek még a sima Win8 asztalt sem érdemben megjeleníteni, miközben erre még a Brazos legelső változatai is képesek.

    Brazos és Atom vonalon az égvilágon nincs különbség a fogyasztásban. Egyébként a legfrissebb Atom-ok (amiket most kukázott az intel) 32nm-en készültek, ami csak maximum egy generációnyi gyártástechnológiai előny. Előtte közel egy évig (2011. januártól 2011. novemberig) az intel volt ezen a fronton hátrányban, lévén a korábbi Atom-ok 45nm-en készültek, míg a Brazos 40nm-en. (Csak a proci, a vezérlőhidak már más kérdés, ott még nagyobb az intel lemaradása nem csak gyártástechnológiában, hanem szolgáltatásokban is.) Ráadásul a Brazos azonos fogyasztás mellett nagyobb teljesítményt kínál, így hiába régebbi a gyártástechnológia, a fajlagos fogyasztása messze jobb.

    És ki lenne az, aki érdemben tudna az AMD-nél nagyobb konkurenciát jelenteni az intelnek? Nem véletlenül lépett le szinte mindenki erről a piacról. Egyébként tényleg jót tenne az x86 piacnak az AMD csődje. Valószínűleg az egekbe emelkedne a legegyszerűbb processzorok ára is. És nyilván ott is maradna.

  • DaveJr

    őstag

    válasz MaUser #28 üzenetére

    "Az AMD csődje azért kéne, mert végre olyanhoz kerülhetne az x86 konkurencia aki mögött van tőke...."

    Ezzel csak az a baj hogy nem nagyon van olyan cég akinek lenne akkora tőkéje hogy abszolút nulláról indulva beletudjon vágni ebbe a piacba. Nem beszélve arról hogy az Intelnek így még nagyobb előnye lenne a konkurenciával. Még ha fel vásárolja vki az AMD eddig eredményeit, szabadalmait....stb. vagy az Intel kényszerül eladásra. De még akkor is jelentős előnye lenne.

    [ Szerkesztve ]

    Isten és a programozók versenyt futnak egymással. A programozók egyre hülyebiztosabb programokat készítenek, Isten pedig egyre hülyébb embereket.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #17 üzenetére

    Gondolom, hogy a következő Atom megoldja a stabilitási gondokat, de az nem segít a mostanin. Ez egy veszélyes játék, mert mire használható lesz az Atom, addigra a névhez túl sok kellemetlen élmény fog társulni. Most sem magának tesz jót az Intel, hogy nem ad ki Win 8 drivert a Cedar Trailhez, és a korábbi Atomokhoz. A legtöbb felhasználónál ez a politika egy "soha többet Atom" gondolattal fog társulni. Nem véletlen, hogy pár partner már javasolja, hogy az Atom nevet hagyják el, túl negatív a megítélése. Mi tudjuk, hogy ez csak egy név, és valójában a hardver számít, de az átlagember ezt nem így gondolja. Ez persze kapcsolatban van azzal, hogy nincs kedvük ismerni a hardvert még felületesen sem, így marad a negatív név előttük.

    A Microsoft erősen amellett van, hogy a egyetlen forrásból ki lehessen szolgálni minden hardvert. Erre 2013-ban majd lesznek bejelentések. Hosszútávon úgy akarják csinálni, hogy ne is kelljen binárist fordítani, az a program indításakor történik majd meg, és úgy fut majd az alkalmazás. Ez az erőforrások kihasználásánál is hasznos lehet, mivel a binárist úgy fordítja a program, hogy esetleg használjon IGP-s gyorsítást, vagy egyéb részegységet, ha ez lehetséges.

    (#18) vanye: De az x86 nem javítja meg az Atom stabilitási gondjait. [link] - ennek az oldalnak a legvégét olvasd el. Ezt Anand akkor azt hitte, hogy Windows probléma, de más hardveren nem jön elő. Ott van egy kép is elveszett erőforrásról. Random dobálja a driver D3D alkalmazások alatt. Ez akár driver összeomlással is társulhat, ami kékhalálhoz vezethet, jobb esetben csak egy appcrash. Ez így a legkevésbé sem egy jól működő platform benyomását kelti.
    A megcélzott vásárlóréteg valszeg sokat fog a weben videózni. Számos videoportál Flasht használ még mindig. Ezt a tabletek közül csak a Hondo támogatja IGP-vel gyorsítva. Ez egy funkcionális szempont. eleve a webet is a GPU-s terhelés növelése felé visszük, mert így sokkal energiahatékonyabban működik egy mobil eszköz. Nem véletlen, hogy a legtöbb ARM-os cég inkább az IGP-s teljesítmény erősítésére koncentrál. Weben a központi processzornak egyre kevesebb lesz a szerepe. Az Intel is ezért áll át a saját architektúrájára, mert túlságosan meg van kötve a PowerVR-rel a kezül. A Windows az nem Android, ahol a PowerVR az iOS portolásból komoly hasznot húz. A Microsoft rendszerén ez az architektúra csak szenvedést hoz. A saját architektúra sokkal jobb, persze a fogyasztás/teljesítmény mutató a konkurensekhez képest nagyon gyenge, de egyelőre nincs jobb alternatíva, azt viszont világosan látják, hogy a PowerVR-től el kell zárkózniuk.
    A Microsoftnak is az ultramobil rendszerek okozzák a legnagyobb fejtörést, főleg a PowerVR. Raktak dolgokat a DX11.1-be, hogy egyszerűbb legyen a fejlesztők dolga, de akkor is eléggé speciálisan kell írni az alkalmazást, hogy IMR és TBR mellett is jól működjön. Sajnos minden API futószalagja az azonnali renderhez van közelebb. A Qualcomm nem véletlenül rakott Flexrendert az Adreno 300-ba. A hardver kihasználása nem ideális ebben a működési módban, de funkcionálisan ez fekszik az API-nak. Az élmény szempontjából utóbbi jobban számít.
    Emlékszem, hogy sokan az NV-nek az IMR elv melletti kardoskodását kritizálták, amikor a Tegra 2 megjelent. Főleg a konkurensek. Ezt igen jó példákkal támasztották alá, főleg mérésekkel, hogy milyen teljesítmény/fogyasztás mutatója van a GeForce ULP-nek. Most pedig a kritizálók sorra jönnek elő azzal, hogy az IMR lesz a jó irány, mert nincs korlátozva a mozaikokban kötegelt háromszögek száma, és a komplex feladatokban kifejezetten ideális, ha a hardver az API-k logikai futószalagjához igazodik. Az új Adreno, Mali és GC fejlesztések már lépdelnek az IMR felé. Egyedül az ImgTec makacs, de ők az Apple miatt megtehetik. Az Androidra mindig jók lesznek a portok az iOS-ről.

    (#28) MaUser: A Hondo APU max fogyasztása 4,5 watt és +1 watt a vezérlő. Az Atomra már hiányzik a fogyasztási szint, mert az Intel kivette a specifikációból. [link] Arra emlékszem, hogy régen 1,7 watt átlagos érték volt megadva. A maxot nem tudjuk. Az AMD 2 wattos átlagos fogyasztást ad meg a Hondo APU-ra.
    Az Intel Z2760 tényleges ellenfele az AMD Z-60. Persze árban nem egyeznek, mert az Intel az Atomot 25 dollárral olcsóbban árulja a listás adatok szerint. Az ár az ami miatt a Z-60 elsősorban az üzleti vonalon lett bevetve, mert nagyon drága a termék. 60 dollár a listaára, ami konkrétan 3x annyi, mint amennyit egy Tegra 3-ért kérnek, és a Hondo lapkamérete is kisebb, ráadásul az NV drágább node-on gyártatja a Tegrát. Ettől függetlenül a CES-en több gyártó is Hondo APU-ra vált. Egyszerűen ma ez az egyetlen stabilan működő x86-os tabletplatform. Az Atommal próbálkoztak, de nem működik. Itt a váltás az egyetlen megoldás, amíg nem jön új x86-os platform. A gyártók szempontjából is kritikus, hogy a vásárló ne egy olyan tabletet kapjon, ami random fagy, vagy különböző beépített funkciók mellett véletlenszerűen újraindul. Ez a gyártónak a brand amortizációja. A legtöbb felhasználó a termék gyártójának logóját látja a terméken, és logikusan azt fogják hibáztatni. Persze ez valójában nem logikus, de itt egyszerű gondolkodású vásárlókról beszélünk.
    A videolejátszási adat az önmagában kevés. Emellett a bemutatón minőségvizsgálat is volt, hogy a Hondo mennyivel szebb képet ad a plusz wattokért. A HQV 2.0 eredmény az 178 a Hondo APU-n és 86 az Atomon. A tesztben a max. érték 210 pont.
    A képminőségben számszerű adat, hogy a windowsos PowerVR driver a hardvert 16 bites maximális shader precizitás mellett működtetni. A Hondo APU esetében 32 bites precizitás érhető el. Dupla olyan pontosan számol, ami nyilván a képminőségre hatással van. A PowerVR IGP-nél még a Tegra 3 IGP-je is pontosabb a 20 bites precizitásával.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #36 üzenetére

    Kevés. De azt érezni fogják, hogy belefagynak és újraindul. Nem véletlen, hogy számos gyártó hirtelen áttér a Hondo APU-ra. A saját brandjük amortizációja zajlik az Atom problémái miatt. Ezt nem engedhetik meg. A Compaltól tudom, hogy náluk öt cég fog Hondo APU-s gépet gyártatni. Ezek közül két cég jelentősen vissza is vesz az Atom tabletek rendeléséből. Ez azt jelzi, hogy van más. Igazából senki sem hitte, hogy a Z2760 nem lesz stabil, illetve nyilván azt sem várta senki, hogy a Hondo APU ennyire agyon tudja verni tudásban. Bár ugye itt fontos, hogy a hardver specifikációban az Atom közelebb van, mint azt a valóság mutatja. A funkcionalitás a limitáltsága abból ered, hogy a driveres támogatás nagyon messze van attól, amit a hardver elméletben tud. A Z2760 képes lenne a Windows 8-at egy kifejezetten tempós future_level_10_1 szinten futtatni, de csak egy kifejezetten buta 9-es szint jön össze, mert a driver nem támogat többet. Ehhez képest a Hondo APU a 11-es szinten támogatja, ami egyébként alapfeltétele a Windows 8 új szolgáltatásainak. Ha valaki egy teljes funkcionalitású Windows 8-as tabletet akar összerakni, akkor nincs más megoldás, mint a Hondo APU. A vállalati szintre koncentráló Fujitsu pont ezért döntött a Hondo mellett. Nyilván ide nehezebb eladni egy Atomot, mert vásárlás előtt utánanéznek, hogy mire lehet számítani. A konzumer szint egyszerűbb, mert csak vásárlás után derülnek ki a problémák.

    Nyilván a .net és a Java is csinálja. Nem újdonság, de egyik megoldás sem koncentrál a magas teljesítményre. Az MS nem akar tiltani semmit, csak szeretné, ha egy forrásból, annak módosítása nélkül ki lehessen szolgálni minden hardvert. Ez az amin dolgoznak. Meggyőződésem, hogy az eltérő CPU és GPU ISA-k mellett ez az egyetlen lehetséges jövőkép, ha a cégek azon dolgoznak, hogy mindent ennyire összeolvasszunk a termékek szintjén.

    Miért kellene elfelejteni, ha számos gyártó erre vált a CES-en? Egyébként az iPad 4-be rakott Apple A6X maximális fogyasztása 5,3 watt. Ez is 5 watt felett van. A Hondo az már egy használható tabletplatform. Gyakorlatilag az a határ, ami passzívan hűthető.
    Ma rengeteg tabletekbe szánt processzort 40 nm-en gyártanak. A gyártástechnológiai váltástól a jövőben azért ne várj sokat. Az ARM már számos tanulmányt csinált róla, hogy a Dennard Scaling szabály a végéhez közelít. Most már karnyújtásnyira vagyunk attól, hogy egy tranyó bekapcsolásához szükséges energiaigény ne csökkenjen a csíkszélességváltással. Innentől például lehetséges, hogy egy 40 nm-ről 28 nm-re levitt lapka csak kisebb lesz, de nem fog kevesebbet fogyasztani. Ezért ruház be a TSMC ennyire komolyan a 28 nm-re, mert nagyon sokan nem fognak 20 nm-re váltani. Egyszerűen nincs összhangban a befektetett munka és pénz, az egyre kisebb csík csökkenő előnyeivel. Ennek megfelelően a mai fejlesztések főleg arra mennek rá, hogy a pJ/FLOP mutató csökkenjen. Amit a fizika törvényei nem tesznek lehetővé, azt bele kell tervezni az architektúrába.
    Raktak tabletbe Cedar Trail Atomot. Számos cég. Ezért van felháborodás, hogy nincs hozzá Windows 8 driver. Valaki 200k-ért vett ilyen tabot nyáron, hogy majd frissít Win 8-ra és öröme lesz. Hát nem lett.

    A 60 dollár eléggé magas. A tabletekbe szánt SoC-ok 15-35 dolláros listaáron mennek. Az egyébként elképzelhető, hogy ez csak kezdeti ár. Én a 40 dollárt tartanám reálisnak, persze a vállalati termékek annyira drágák, hogy például a Fujitsunak még így is megéri, de a konzumer szintre ez az ár már sok. A W110-ben a platform nagyobb volt, és 12 wattos maximális fogyasztással rendelkezett. A Hondo ugyanezt a teljesítményt tudja 5,5 wattból. Ez nagy különbség.

    A Fujitsu Hondo APU-s tabletje 9 óráig működik idle. 4-5 órát a W110 tudott, de ahhoz képest már felezett lett a fogyasztás.
    Amilyen specifikációi vannak a Temashnak én nem gondolnám, hogy a Bay Trail-T biztatóbb. A Temash 3,9 wattot fogyaszt SoC-ként, és kétszeres teljesítményt kínál a Hondo APU-hoz képest. A Bay Trail-T arra nem lesz jó, hogy a Hondo APU teljesítményét befogja, legalábbis az Intel előzetes teljesítményadatai szerint. A 22 nm akkor ér valamit, ha nem a piac legrosszabb teljesítmény/fogyasztás mutatóval rendelkező IGP kerül bele. A gyártók a listaárat fogják nézni.
    A tranzisztorsűrűség szempontjából nem biztos, hogy a 22 nm-es technológia miatt jobb lesz a Bay Trail. Az Intel 22 nm kapuszélessége valójában 26 nm, vagyis nincs messze a TSMC 28 nm-es kapuszélességétől, emellett az AMD a Jaguar magot már HDL-lel implementálja. De ha megnézed a Cedarview és a Hondo tranyósűrűségét, akkor a Hondo esetében egységnyi területen 40 nm-en több tranyó van, mint 32 nm-en a Cedarview lapkánál:
    Pontos számokban:
    Hondo: 40 nm, 75 mm^2, 380 millió tranyó
    Cedarview: 32 nm, 59 mm^2, 292 millió tranyó
    Ez a különbség onnan jön, hogy az AMD az ATI felvásárlásával megörökölte a HDL-t, amivel a cég a GPU-kat tervezte/tervezi. Ez a központi processzorokhoz használt megoldásnál jóval sűrűbben képes elhelyezni a tranzisztorokat, ami egy GPU-nál alapvető dolog, de a CPU-nál sosem volt rá nagy igény. Az AMD viszont a Bobcat magban néhány részt már HDL-lel tervezett, és a Jaguar magok esetében már a teljes mag ezzel lesz implementálva. Ezek is komolyan számítanak. Az Intel még az IGP-hez sem használ HDL-t. Nem kényszerítette rá őket senki, hogy ilyen irányba vigyék a fejlesztéseket. Az ATI és az NV évekig komoly harcot vívott, aminek a HDL az egyik eredménye, mindkét cég alkalmaz ilyet.

    A képminőség az egy olyan dolog, ami addig nem derül ki, amíg meg nem látod, hogy a másik mit tud. Elképzeled, hogy ez az amit ebből ki lehet hozni, amit csak az rombol le, ha látod, hogy ennél többre is képes egy másik hardver. Addig viszont nincs okod kételkedni abban, hogy a vásárolt termék képminősége jó.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • MongolZ

    addikt

    válasz MaUser #44 üzenetére

    "egy nagy cégnél kapásból fut a háttérben egy vírusirtó, egy monitorozó progi és egy app manager progi (meg még pár tíz service)"

    Ennél nagyobb baromságot még sosem olvastam. C2D-vel dolgozom melóhelyen. Amire oda kell, elég.
    Elhiszem, hogy VAN ilyen cég, de abszolút nem általános.

    emvy: Áhh, pedig 25 db 16 bites kijelző mennyivel jobb lenne ;)
    (Egyébként azt hittem simán elírás, nem asszociáltam a felbontásra)

    [ Szerkesztve ]

  • válasz MaUser #53 üzenetére

    Bíztam abban, hogy a nagy fejlesztő cégek nem minden kis fejlesztő feneke alá dugnak 8magot, hanem néhány szuperszámítógép osztozik eme feladaton. De úgy tűnik tévedésben éltem.

    Tegnap még működött...

  • MongolZ

    addikt

    válasz MaUser #53 üzenetére

    Attól eltekintek, hogy előbb simán cégről, most meg fejlesztőrészlegről beszélsz. Kb. 2 évvel ezelőttig mérnökségen dolgoztam egy egyedi gépgyártással/fejlesztéssel foglalkozó cégnél. Azóta előléptettek más területre, szerencsére nem foglakozom már ilyenekkel. A CAD/CAM alkalmazások tipikusan azok a területek, amikhez nagyon ritkán jön jól a CPU erő. Normális CAD rajz alatt mit értesz? Avval való munka miért lenne egyáltalán izzasztó folyamat? Programozással nem foglakozom. Vannak párezer soros excel tábláim, ráadásul makrókkal, egyedül a megnyitásnál kell várni pár mp-et, de egy olyan táblánál, amit naponta kb. 3-szor nyitok meg, ez semmi. Bár lehet, hogy ebben a munkaelveim is belejátszanak, hogy sosem legyenek hatalmas táblázataim, csak a nekem szükségesek.
    Van vállalatirányítási rendszerünk, semmi probléma vele. Azt is elhiheted, hogy a vállalat profiljából adódóan nem egy-két adat van csak benne. Egyébként nem tudom, hogy az SAP-t miért hoztad föl (gondolom mert sok vállalatnál az van, mert divatból bevezetik, hogy elmondhassák: nekik van vállalatirányítási rendszerük - lásd iso 9001...). Nekünk pl. az első 3-ban sem volt benne a kiválasztásnál. Amire nekünk szükségünk volt, arra alkalmatlan. Divatcikk.

    [ Szerkesztve ]

  • válasz MaUser #59 üzenetére

    Ha év végén inkább hozzád dobják premiumként, ha meg tudták spórolni, akkor te is boldogabb leszel. De csak a felével is. ;)

    De én is csak annyit akartam kihozni, hogy az idle gép kidobott pénz. Nem kell ahhoz venni csúcs ws-t, mert naponta egyszer lefuttatsz valami húzósabbat.

    [ Szerkesztve ]

    Tegnap még működött...

  • Abu85

    HÁZIGAZDA

    válasz MaUser #53 üzenetére

    10 milliónál több A6X sem készül negyedévenként. Az AMD több Hondo lapkát gyártat, mint amennyit az Apple az A6X-ből. Eleve az Apple nagyjából 10-15 milliós negyedéves iPad eladásokkal számol, ebből nem mind iPad 4, hanem a korábbiak értékesítésre kerülnek, és az iPad mini is. Az A6X-ből nagyjából 6 millió kell negyedévente, hogy meglegyen a szükséges mennyiség. Ennél többet nem hiszem, hogy gyártatnak, mert csak állna a raktárakban, azt meg senki sem szereti, főleg nem az Apple, hiszen ők nagyon gyors termékkivezetéseket szoktak csinálni.

    Az AMD volt az első cég, amely 28 nm-re váltott a TSMC-nél. Az Altera és a Xilinx társaságában párhuzamosan részt vettek a kísérleti gyártás szakaszában 2011 végén. Ezért tudtak 2012 elején 28 nm-es lapkákat felmutatni. Jelenleg három terméket gyártanak 28 nm-en. A kapacitásra sosem panaszkodtak. A többiek panaszkodtak rá, de ők sem a kihozatalra, hanem arra, hogy az AMD, az Altera és a Xilinx befoglalta a gyártósorok 70%-t. A második körben érkező cégek (voltak vagy tízen és nagy igényekkel) 2012 elején a maradék 30%-on osztozkodhattak. Ez volt a gond. A legtöbb vállalat inkább hagyta a fenébe, mert annyira kevés volt a gyártósor, hogy értelmetlen volt belekezdeni a tömeggyártásba. A Qualcomm és az NVIDIA pedig ideiglenes exkluzivitást kapott, vagyis minden újonnan betelepített gyártósor hozzájuk került. Most így év végén nagyjából elégedett mindenki. 2013-ban pedig üzembe áll az új gyár, amivel annyi gyártósor lesz, hogy kizárt, hogy valaki ne jusson elég gyártókapacitáshoz.
    A TSMC szintjén az az 5% pokoli nagy arány. Ők még tonnaszámra gyártanak 180 nm-es lapkákat is. A bérgyártók nem vonják be a régi üzemeket, vagy nem alakítják át, illetve nem adják el. Egyszerűen megtartják, mert még 15 év múlva is óriási lesz az igény a gyártósorokra. A bérgyártóknál még ma is üzemelnek 200 mm-es wafereket feldolgozó gyárak.
    A bérgyártóknál jellemzően a váltásoknál szokott kapacitáshiány kialakulni. Ők is próbálják felmérni az előzetes igényeket, de a válság és a 40 nm-es tapasztalatokból nem gondolták, hogy a 28 nm-re ekkora lesz az igény. Amikor pedig kiderült, akkor már lehetetlenné vált az új gyárral elkészülni a 28 nm-es tömeggyártásra. Ilyenkor mindig azok a cégek jár jól, amelyek részt vesznek a kísérleti gyártásban. Ez a legnagyobb szívás időszaka, és rengeteg pénzt emészt fel, de összességében megéri, mert a node tune a kísérleti gyártásban résztvevő lapkák alapján lesz elvégezve. Ez persze nem mindig jelent jót, gondolhatunk a 40 nm-re, amikor az AMD RV740-en végezték a tesztelést, és a tömeggyártás során mindenki nagyott szívott. Az RV740 méretéhez közeli lapkák jó kihozatalt hoztak, de a nagyobb chipek esetében ez az arány meredeken romlott. A legnagyobb problémával az NVIDIA szembesült, mert a GF100 óriási volt, így az elején egy waferből jó volt, ha hét lapka működött. Csúszott is a tervezett start fél évet. Azóta már körültekintőbbek a cégek is. A TSMC és az AMD a kísérleti gyártást a 28 nm-nél a Tahiti lapkán végezte. Az eredmény magáért beszél. A kihozatallal szinte mindenki elégedett, legalábbis sokkal jobb a helyzet, mint a 40 nm-es váltásnál. Pár kisebb SoC esetében volt némi gond, de a Qualcomm termékek adataira építve sikerült ezen is javítani. Valószínű, hogy a TSMC ezt a stratégiát folytatja a következő váltásoknál is. Először egy nagy és komplex lapkát vesznek elő, valamelyik új GPU-ból érdemes kiindulni, majd később a kisebb termékek alapján tovább finomhangolják a processt. Ez tűnik ideálisnak.
    Ami a TSMC-nél gond lehet az a működési hierarchia. Azért sikeres bérgyártó ez a cég, mert nagyon egyszerűen gondolkodik a verseny szempontjából. Aki az első egy váltásnál, az sokat nyer, amikor lefoglalják a kapacitást, mert még van miből. Viszont jellemző, hogy bizonyos cégek nem akarnak részt venni a kísérleti gyártásban, mert nem tartják anyagilag kifizetődőnek. Ezért volt úgy az elmúlt öt váltás során, hogy az AMD, az Altera és a Xilinx hármason kívül, senkit sem érdeket a kísérleti gyártás. Ebből a szempontból az említett hármas nyert mindig, mert elsőkét foglalhattak le kapacitást. Ennek megfelelően mindig elsőként álltak elő új lapkákkal. Talán az FPGA-k szempontjából ez lényegtelen, mert azok jóval egyszerűbb lapkák, mint a GPU-k, de az AMD-nél összehasonlítható, hogy az NV-hez képest a 65 nm-re 3 hónappal, a 40 nm-en 4 hónappal, míg 28 nm-en három hónappal hamarabb váltottak. Ugyanakkor vannak a TSMC-nél több kapacitást igénylő cégek, mint a Qualcomm és hamarosan az Apple. Ők sosem fognak részt venni a kísérleti gyártásban, mert a tapasztalatuk nincs meg hozzá, és a költekező kedvük sem magas. Az NV még az a cég, amely rögtön ráugrik az új node-okra, amint elindul rajtuk a tömeggyártás. A Qualcommra már jellemző, hogy még ehhez képest is várnak pár hónapot. Az Apple-nek ez lesz a kellemetlen a TSMC-nél. A Samsungnál a helyzetük nagyon kellemes volt, mert sok volt a kapacitás, és nagyon kényelmesen válthattak processt, amit a Samsung a saját lapkáival szépen kitesztelt és feljavított. Az Apple így mindig rendkívül jó eredményeket produkáló gyártósorokat kapott, így ebből a szempontból sosem voltak olyan döntéskényszerben, hogy mit kellene változtatni a lapkán, hogy javuljon a kihozatalt. Ezért kevés itt a tapasztalatuk. A TSMC-nél ilyen nem lesz. Ott vagy beesnek a költekezős és kockázatos kísérletibe, vagy megvárják, míg lesz elegendő kapacitás számukra. Ezért volt hülyeség beleharapni a Samsung kezébe, mivel ők a tenyerükön hordozták az Apple igényeit. A TSMC nem fogja, ott nagyon nagy a verseny, és az üzleti modelljük erre épül. Ha az Apple miatt megváltoztatják, akkor rengeteg igazságtalannak fogja érezni. Nem fognak azért gürizni, hogy az Apple-nek jó legyen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • MaUser

    addikt

    válasz MaUser #65 üzenetére

    Szerkesztésbe már nem fért bele: A szitu ugyanaz, mint az A64 esetén. Az Intel vét egy nagyon hibás stratégiai lépést, azaz nincs a kellő időre megfelelő tablet/high-end telefon x86 procija miközben az ARM rendszerek fogyasztása és ára miatt ide már simán beférne. Az AMD viszont nem tudja kihasználni, a rossz döntések miatt. Ha a Hondo-t eredetileg nem netbook procinak szánja az AMD, hanem mindenáron lejjebb szorítja a fogyasztást és mondjuk egy MS-t meggyőz, hogy csináljanak rá egy w8 non-rt referenciát, mindent vihetett volna. Így lesz egy éve, ahol mérsékelt eladásokat tud majd felmutatni és időlegesen jobban fog állni, de a fogyasztása miatt esélytelen bárki is iPad konkurenst 40nm-en készült Hondo köré felhúzni w8-ra. A két nagy gyártó lassúságának meg gondolom az Apple/Google örül a legjobban, MS már nem annyira. :)

    ''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''

  • Abu85

    HÁZIGAZDA

    válasz MaUser #65 üzenetére

    Te hoztad fel az Apple A6X-et, hogy hozzá képest mennyire keveset gyárt az AMD. Én csak erre írtam, hogy pont fordítva van.
    Az Atomból a netbookokba adtak el sokat. Most hogy erről a piacról a gyártók kihátráltak lényegében kevesebb Atom megy el, mint Brazos. Az AMD úgy ad el nagyon sok Brazost, hogy olyan piacokra is pozicionál, mint a notebook, a nettop, a HTPC és az All-In-One (a beágyazott, netbook, a DIY és a tablet mellett). Ezekhez az Intel nem kínál Atomot. Ezt a terméksorozatot az Intel beágyazott, tablet, netbook és nettop szintre szánta. Emellett ugye van DIY, de ahhoz mára csak az Intel gyárt saját alaplapot, a többi gyártó ezen a részen csak a Brazosra koncentrálnak.

    A csíkszélesség csökkentése eleve nem fog segíteni a fogyasztáson. Minél kisebb a csík annál inkább a kvantumfizika törvényei uralkodnak, vagyis képtelenek vagyunk csökkenteni a tranyó bekapcsolásához szükséges energiaigényt. A csíkszélességváltás lényegi előnye a kisebb lapkaméret marad, de ezt már a tranyósűrűséggel lehet variálni. A energiahatékonyságot az architektúrába kell beletervezni.
    Tekintve, hogy a rendszerchipek jelentős része ma GPU, így sokkal fontosabb azt kihozni elsőként az új gyártástechnológiákra. Ebből jön a legtöbb energiahatékonyság. A processzor ezen a szinten másodlagos tényezővé vált, mert arányaiban sokkal kevesebb helyet foglal el egy lapkán, mint az integrált grafikus vezérlő.
    A 28 nm-re mennek az új fejlesztésekkel, de előbb a Hondo kerül eladásra. Később ezt persze leváltja a Temash, illetve az egész Brazost egy új fejlesztés (Kabini).
    Ha a hírben szereplő Bay Trail adatok igazak, akkor ez még a Hondo ellen is kevés, szóval annyira azért nem rezeltek be, hogy a 2014Q1-ben jön egy olyan Atom, ami nagy jóindulattal tud annyit mint egy két éves alapokra épülő Brazos.
    A low power termékek piaca durván koncentrál a IGP-re. A piaci szereplők minden fejlesztése arra megy, hogy amit ma a CPU számol a weben, azt holnap energiatakarékossági szempontok miatt a GPU számolja. Az Intel küzd egyedül ez ellen, mivel a WebCL-t egyáltalán nem támogatják, és a River Trailt szeretnék terjeszteni, de azt meg rajtuk kívül senki sem támogatja. A Google lenne a fontos, de ők nagyon a WebCL mellett vannak. A Microsoft egy saját megoldáson dolgozik, mely a DirectCompute API-ra épülne. Az Apple az OpenCL miatt szintén a WebCL-t választja.

    (#66) MaUser: Az AMD nem tud ARM-os lapkát kínálni. Ezt az integráció lehetetleníti el. Az AMD-nek van ma egyedül olyan CPU és GPU technológiája, melyet egymáshoz terveztek. Senki másnak nincs ilyen, noha kétségtelen, hogy minden érintett utalt már rá, hogy az IGP-nek valós koprocesszornak kell lennie, ergo olyan fejlesztéseken dolgoznak, amit az AMD megcsinált a GCN-nel. Ha a GCN-t bepakolod az ARM magok mellé, akkor mind az az előnyt, amit az architektúra biztosít elveszik. Ezt a rendszert AMD64 magok mellé lehet bepakolni. Máshova nincs értelme, vagy előtte át kell tervezni az ARMv8 maghoz.
    Az MS egy MS_Nerd pletyka szerint épít a Temashra. Ez váltja majd a készülő Windows 8-as Intel tabletet. Nem elégedettek az idle 4 óra üzemidővel, ami érthető, viszont most már ezt kell végigvinni. Már nincs idő Hondora váltani, az Atom pedig a stabilitásproblémák miatt szóba sem jött.

    (#64) emvy: Köszi. Már megkaptam a közleményt péntek este, csak nem volt időm megírni. De holnap meglesz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #68 üzenetére

    Miért ne lennének? Minden next-gen beágyazott projektbe ők adják a hardvert, azok a cégek, akik kötődnek hozzájuk felvásárlási szerződést kötöttek velük, persze ezzel nem kötelező élni, de ha nincs más mód (némi befektetés itt még játszik), akkor megveszik őket. A többiek most a cégekkel egyeztetnek, hogy legyen még konzol a nappaliba, pl. Steambox. Túl nagy luxus az AMD-nek felkínálni azt a lehetőséget, hogy meghatározzák a fejlődési irányt. Főleg úgy, hogy már működő hardverük van az integrációra, amikor másnak erről jelenleg papírra vetett elképzelése van. Nem véletlenül néz az AMD a beágyazott rendszerek irányába. Ez egy stratégia. Egyrészt ott lesznek a nappalikban, másrészt a next-gen konzolokkal meghatározzák a PC fejlődési irányát.

    Az okostelefonok piaca egyelőre lényegtelen a cégnek. Ok, hogy sokan arról beszélnek, hogy meg kellene támadni, de ha megtámadják is, akkor mi van? Lesz egy lapka, amire a nagyágyúk úgy sem építenek, mert mindenki saját lapkával szeretné megoldani (Samsung és Apple). Aztán vannak a kisebbek, és nekik a nagyok egyre kevesebb teret hagynak. Az igazán értékes piac a középkategória lenne, de ott meg 10 dolláros áron mennek a chipek, vagyis, ha nem vagy benne szinten minden cég elképzelésében, mint a Qualcomm, akkor veszett az egész ügy. De az ARM licencpolitikája és az Artisan csomagok miatt még a kisebb cégeknek is jobban megéri saját lapkát fejleszteni. Az ARM már készre tervezi a dizájnt, így nem kell hozzá komoly gyártástechnológiai tapasztalat. Gyakorlatilag bárki képes lehet rá. A jövő üzleti modellje az lesz, hogy a tehetősebb telefongyártók (Samsung, Sony, Huawei és Apple mellett, az LG, a HTC, a ZTE és a Nokia) saját maguk megtervezik a lapkát. Még a legrosszabb esetben is nagyon combos dizájnt kapnak az ARM-tól. Ez a baj ezzel a piaccal, akik nem gyártanak telefont azoknak lényegében a maradék hely jut. Ezek persze lehetnek így is Samsung, vagy LG, vagy xy telefonok, de ott sem a reklámozott és extra odafigyelést kapó modellek. Régen ez más volt. Akkor nehéz volt chipet tervezni, de ma az ARM úgy gondolkodik, hogy nagyobb ügyfélkört akarnak, így elérhetővé szeretnék tenni a chipgyártást a tapasztalattal nem rendelkező cégeknek is. Ugyanerre reagálnak a licencből élő GPU-t fejlesztő cégek is. Az ImgTec például bevezet egy kész dizájnt, a sematikus licencek mellé. Utóbbit ugye egy cégnek le kell tervezni a gyártástechnológiához, míg előbbit csak egy blokk, amit bele kell rakni a tervezett lapkába, minden más le van tervezve és tesztelve. Ez olyan, mint az ARM csomagja, lényegében komolyabb tapasztalat nélküli chiptervezést tesz lehetővé.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #70 üzenetére

    A termékek attól, hogy más néven árulják őket, megmaradnak. Nem az AMD miatt veszik az emberek az AMD-t, hanem a termékei miatt. Ha nem AMD Radeon lenne, akkor is megvenném, mert marha gyors a hardver, nagyon sokat tud, olcsó, és hosszú a terméktámogatási ciklus.
    Ha az Intel IGP nem Intel lenne, akkor sem venném meg. Nem azért mert nem Intel, vagy Intel, hanem azért, mert egy év mainline terméktámogatás nem elég a mai világban. Persze, ha több lenne, mondjuk legalább három év, akkor már érdeklődnék. Nekem édes mindegy, hogy mi van ráírva, a terméket veszem meg. Onnantól kezdve baromira nem érdekel, hogy melyik cégnél landol a pénzem, egyik sem különb a haszonszerzés szempontjából a másiknál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • atti_2010

    nagyúr

    válasz MaUser #70 üzenetére

    Jelenleg az AMD többet ad kevesebb pénzért, ha Qualcom Richland lenne a következő APU akkor is azt venném.

    [ Szerkesztve ]

    1.Asrock FM2A88X+ Killer,A10-5800K,Kingston 2x4Gb 2400Mhz,Int X25-V SSD,SF Pro S.F.-450P14XE. 2.MSI-A75A-G55,A8-3870, Kingston 2x2GB2000, MSI R9-270, Zen 400.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #73 üzenetére

    Ez már annak a kérdése, hogy ki mennyit fizet azért, hogy építsenek rá hardvert. Én például elsőként a platformot nézem meg, aztán a terméket. Mondjuk én abban különbözök egy átlag embertől, hogy értem mi van benne és attól mi várható. Egy átlag ember maximum egy matricáig jut el.

    Gazdaságilag tudjuk, hogy mi miért van. Az Intel nem engedi, hogy az AMD piachoz jusson. Ennek az Atom ékes példája. A kamera appba belefagy a Windows 8, de 20 termék épül már rá. A gyártók ezt azért csinálják, mert az Intel nagyon sok marketingtámogatást ad. Viszont a gyártókon belül nehogy azt hidd, hogy vakok a tervezők. Viszont a vezetőség dönt a termékről. Náluk a marketingtámogatás többet nyom latban, illetve a cégek szintjén nem elhanyagolható, hogy az Intelnek nagyon gyors a termékamortizációja a 1+1 éves supporttal. Gyakorlatilag rákényszerítenek, hogy gyorsan válts. Az AMD pont az ellentettjét csinálja, hiszen minimum 3+x év supportot kínálnak, vagyis a termékamortizáció lassú. Ezt úgy gondold el, hogy ha jön egy új API vagy felület, akkor azt az Intel a termék megjelenése után egy évvel már nem építi be, még ha a hardver támogatja is. Az AMD még három évvel a megjelenés után is beépíti.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #75 üzenetére

    Van egy probléma, ami az Athlon 64 idején nem volt. A P4 az gagyi volt, de ki lehetett bírni. Ma az a probléma, hogy az Intel elindult három irányba a Dennard Scaling szabály döglődése miatt, és egyik sem működik, míg az AMD-nek sikerült elsőre működő hardvert csinálni a rendszerszintű integrációhoz. Innentől a darabolás is jobb (ami egyébként még mindig nem esélyes, mivel az AMD technológiái nagyon sokat érnek, így megveszik őket, ezzel az Intel is marad önmaga), mert az AMD már az implementációt csinálja, míg az Intelnek papírjai vannak, hogy elvben mennyire jó a Larrabee, de gyakorlati implementáció integrált szinten egyhamar nem lesz. A ZiiLabs most az új irány a Larrabee után. Azt hirtelen vették meg, mindenféle előjel nélkül. Valószínű, hogy látták, hogy a Larrabee egy bizonyos szint alá nem skálázható, míg felfelé óriási cache kell hozzá.
    Jelenleg az Intelnek a legnagyobb fenyegetés a HSA. Ez az amit nem szabad engedni, mert lehetővé teszi, hogy a fejlesztő egyszer írjon meg egy kódot és az minden hardveren optimálisan futnak. Ha ez bekövetkezik, akkor az Intelnek nincs rá energiahatékony throughput processzora. Illetve ez lenne a Larrabee, csak nem működik, a belerakott milliárdok ellenére sem.
    Igazából az Intelnek a Larrabee jelentette volna az irányt a rendszerszintű integráció elmélyítéséhez, de az egész arra volt jó, hogy az AMD lemásolja az elvet és GCN-nek nevezze el.

    Van referenciadizájn. Ezt régóta csinálják. Csak az előadások zömét a nagy gyártók adják. A kicsik azért nem tudnak kitörni, mert a vásárlások nem a termék képességei szerint történnek, hanem inkább a marka szempontjából. Egy-két példa van arra, hogy egy kicsi felnő, de sok éves szenvedéssel jár.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • DaveJr

    őstag

    válasz MaUser #75 üzenetére

    Csepegtet az Intel a kicsiknek is nem keveset! Dolgoztam egy cégnél ahol egy áruházláncnak a gépeket szerélték össze. És még mi, pontosabban a vezetőség is kapott "marketing" támogatást (ha jól emlékszem évi 100 000$-t de erre pontosan már nem emlékszem) azért hogy csak Intel procival szerelt gépet rakjanak össze. Plusz ha elértek egy évi x mennyiségű procit akkor mehettek Egyiptomba, Spanyolországba...stb nyaralni. Szóval az Intel sok mindent meg tesz azért, hogy az AMD minél nehezebben juthasson piacra. És amennyire lehet a kicsiket is erre ösztönzi.
    Az egész cégnél kb 3 db AMD proci volt 2008ban az egyik egy 2500+-s Barton...

    [ Szerkesztve ]

    Isten és a programozók versenyt futnak egymással. A programozók egyre hülyebiztosabb programokat készítenek, Isten pedig egyre hülyébb embereket.

  • DaveJr

    őstag

    válasz MaUser #78 üzenetére

    Ugyanmár....hol jelentenéd fel őket? Pláne bizonyítékok nélkül...pláne úgyhogy semmilyen törvény nem tiltja hogy "támogatást" kapjanak? Ébredj már fel....

    Na ha bárki tud gyártatni kínában és nem olyan nagy ördöngésség hajrá mutasd meg hogy kell. Olyan "okosságokat" tudsz írni :DDD

    Isten és a programozók versenyt futnak egymással. A programozók egyre hülyebiztosabb programokat készítenek, Isten pedig egyre hülyébb embereket.

Új hozzászólás Aktív témák