Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz stratova #24 üzenetére

    Gyakorlatilag minden HD 5000/600/7000 GPU tudja. A feltétel az AMD processzor. Persze menne Intel proci mellett is, csak az AMD nem engedi.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz stratova #29 üzenetére

    Hát lehet, hogy csináltak arra is egy implementációt. Igazából a Steady Video a SAD utasításra épít, ami a HD 5000-ben jött be. Az új Steady Video 2.0 pedig a GCN új utasításait használja (QSAD/MQSAD). Persze a SAD utasítás nem feltétel, csak sokat gyorsít.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Zso2 #40 üzenetére

    A DiRT-tel van szerződésük. Gondolom ez kölcsönösen előnyös. A Codemasters az AMD APU-jaira szénné optimalizálja a programkódot, cserébe az AMD agyonreklámozza a játékaikat. Ez megszokott dolog manapság. Ezért ragaszkodhatnak ennyire a DiRT 3-hoz. A szerződés megköveteli.
    A Steady Videoról vannak régebbi összehasonlítások is: [link] - itt jobban látszik. Most ugye ezt a Tbreak vette fel, így ők másképp mutatták be. Ez nem új technológia. Az előző év nyara óta minden APU, vagy HD 5000/6000/7000 szériás VGA támogatja AMD processzor mellett.
    Talán azért, mert az AMD nem engedi, hogy lemérjék a DiRT3 valós futási sebességét. Nem szeretik a cégek, ha a konkurencia idő előtt megtudja, hogy mennyit tud a termék. Hamarabb tudnak rá készíteni egy választ.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz foxxmotor #53 üzenetére

    A dev. driverekben már feltűnt a HD 7600-akkal való párosítás. Ezzel a Turks VGA-kkal mehet a Dual Graphics. Valszeg ezt nem sok meló kiterjeszteni a HD 6600-ra, hiszen a 7600 lényegében csak a matricában módosult.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz foxxmotor #57 üzenetére

    Azt.
    Benne van az OEM-eknek küldött dokumentációban, hogy a HD 7600 lesz az official társkártya. Mivel ez a Turks GPU-ra épül, így lényegében bármilyen Turks GPU-s Radeon befogható, csak a driverbe írni kell pár sort a Dual Graphics engedélyezésére.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz FireKeeper #66 üzenetére

    Most is lekapcsol. A Zero Core mellett csak hatékonyabb lesz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kNG #68 üzenetére

    Az AMD nem azért nem fejleszti a processzorokat, mert nem érdekli őket a teljesítmény, vagy a hardcore gamer réteg piaca. A gond az, hogy a homogén többmagos termékek skálázhatósága korlátozott. Ha nem lenne az, akkor mindenki a processzort fejlesztené. Majd látni fogod, hogy az Intel a következő két generációban alig nyúl a CPU-magokhoz. Ellenben az IGP-t úgy kigyúrják, hogy az brutál. Nem azért teszik ezt, mert az AMD ezt csinálja, hanem azért, mert Moore törvénye ugyan még érvényben van, de Denard skálázási szabályának vége. Ha a beépített tranzisztorok bekapcsolásához szükséges energia nem csökken értékelhető mértékben a csíkszélesség csökkenésével, akkor a skálázás egyetlen útja, hogy az operációkat masszívan párhuzamosítva, kevesebb egységnyi fogyasztás mellett végzed el. Erre a késleltetésre optimalizált processzormagok alkalmatlanok. Itt jön képbe a GPU, ami viszont pont ilyen igények mellett előnyös, csak éppen régen sokkal butábbak voltak, mint ma.
    Nem azért került bele az IGP a processzorba, mert ez most előnyös a mai szoftvereknek. Nem, igazából nem előnyös (mondjuk nem is hátrányos). Pár kivételtől eltekintve szinte úgy viselkedik a rendszer, mint egy hagyományos PC CPU-val és külső buszon hozzákötött VGA-val. A jelentős előny a fogyasztásban van jelenleg, ahol egy integrált rendszer verhetetlen. Ez manapság nem jön rosszul, ha a drasztikusan növekvő mobil eladásokat nézzük. Ami viszont fontosabb, hogy a hibrid rendszert akkor is tudod majd skálázni, ha a Denard skálázás teljesen megfeneklik, ami 1-2 éven belül eljön. Egy homogén többmagos processzort Denard elemzései szerint csak úgy lehet majd skálázni, hogy Pollack szabályához nyúlsz. Ezzel drasztikusan egyszerűsíted a processzormagokat, amivel az egyszálú teljesítmény a töredékére esik, viszont sokkal több mag fér el a lapkában.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Viktor77 #74 üzenetére

    Az A10-4600M-re 52 fps van az OEM-eknek szánt anyagban 1366x768/High-ra AA nélkül. Nem hiszem, hogy a 2xAA felezné a teljesítményt, bár azt most nem tudjuk, hogy melyik A10 APU-ról van szó ebben a videóban (csak A10-et említenek). Lesz egy 25 wattos A10 is, ami nyilván lassabb.

    Itt vannak az előzetesen megadott 3Dmaki Vantage eredmények:
    A10 mobile (35w) : ~4300
    A10 mobile (25w) : ~3600

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kNG #75 üzenetére

    Igazából az AMD és az NV nem akarja a dGPU-k végét. Ezt csak az Intel szeretné, mert nekik akkor nem kellene ezzel a területtel törődni. Az AMD és az NV egyaránt úgy gondolkodik, hogy veszel egy APU-t és ahhoz veszel egy kiegészítő dGPU-t. Természetesen az APU gyártója meghatározza, hogy a dGPU gyártója ki legyen. Ha a GeForce-ot mondjuk nem NV APU-hoz veszed, akkor számos platformszolgáltatást elbuksz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Viktor77 #78 üzenetére

    A Tbreak-nek nem is. Az OEM-eseknek, viszont muszáj megadni, mert őket érdekli. A legtöbb szivárgás a termékek startja előtt onnan van, hogy az OEM partnerektől kikerülnek ezek az anyagok. Nyilván ez még belefér, mert megakadályozni nem lehet, de az AMD nem adja hozzá az arcát. A Tbreak esetében, ha kirakták volna az adatokat, akkor az hivatalos lett volna. A szivárgás még akkor is pletyka, ha tényleges adatokra épít. Persze biztos nem örülnek ennek, de hát ez a média. Onnantól van hatalmuk a cégeknek felettünk, amikor aláírtuk az NDA-t addig szabad a pálya.
    [link] - Ezt is OEM anyagokból szedtem elő egyébként. Nem az AMD adta ide, hogy írjam meg a mostani eredményeket több hónappal a start előtt. Egyszerűen csak a kezembe jutott egy doksi a 3DMark 03-ról és 06-ról. A 05-öt egyénileg kérdeztem meg, de a lényegen nem változtat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Viktor77 #81 üzenetére

    Határozottan gondolom. Az Intel is partnere azoknak a cégeknek, amelyeknek az AMD. Ha valaki onnan kiszivárogtat valamit, akkor ő az Intel szemében is egy nem kívánt tényező, mert az Intel termékről is kiszivárogtathat bármit. Éppen ezért ilyen nehéz ezeket az anyagokat megszerezni, mert nem tudja az illető, hogy ki van a vonal másik végén. Nyilván, ha kiadja egy álcázott Intel dolgozónak, akkor annak az Intel egyszerre örül, viszont szomorú is, mert ki tudja, hogy tőlük mennyi anyag került jogtalan kezekbe az illető által. Ezzel a dolgozó aláírta a felmondólevelét. Az Intel maximum a médiában megjelent anyagokból tájékozódhat.
    Ráadásul manapság az anyagokat eléggé védik. Online hitelesítés kell a PDF-re. Még a print screenre sincs meg az infó. Szerencsére a monitor fényképezése már beválik. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #95 üzenetére

    Moore törvényéből, illetve Pollack és Dennard skálázási szabályaiból kiindulva a jövőben két eset lehetséges. Vagy rájönnek a programozók, hogy az ingyen ebédnek vége, vagy nem fognak gyorsulni kódok, mert jelen pillalantban az egyszálú teljesítmény csökkentése is erősen a levegőben lóg. Nem értük el a CMOS gyártástechnológiák határait a méret tekintetében, de a fogyasztás szempontjából már igen. Ez legalább akkora probléma a fizika törvényei szempontjából, mintha a tranyók mérete nem lenne tovább csökkenthető. Tény, hogy marha jó lenne, ha 30 GHz-es egymagos processzorok lennének fejlesztés alatt, de ezek kivitelezhetősége az aktuális gyártástechnológiákon lehetetlen.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #97 üzenetére

    A szoftverfejlesztést is a verseny hajtja. Ha a programod gyors, akkor eladható, ha van gyorsabb/jobb, akkor azt veszik az emberek. Mondom két dolog lehetséges. Vagy arra viszik a fejlesztéseket, amilyen lapkák jönnek, vagy egy helyben marad a program teljesítménye, ezzel kockáztatva, hogy egy konkurens program leelőzi azt.

    Jelenleg számos opció van fejlesztés alatt a CMOS gyártástechnológia leváltására. A probléma az hogy mindegyik út nagyon kockázatos. Az elmélet és a gyakorlat nagyon különbözik, így az is lehet, hogy az éveken át beleölt milliárdoknak nem lesz látható eredménye. A karbon nanocsöveknek lehet nagy szerepük a tokozás kialakításánál, és a 3D-s chipek elkészítésénél. Ez 3-5 éves távlatban van, de a logikai áramköröknél való alkalmazás még 10-15 éves távlat, ahogy a grafén alkalmazásának lehetősége is. Ha a legjobbat is feltételezzük az új fejlesztéseknél, akkor sem ragadhatunk le az aktuális teljesítményszinten 2022-ig. Egyrészt a hardvergyártóknak nem lenne 10 évig pénzük, mert senki sem venne új hardvert, ha az nem gyorsabb, másrészt a grafén és a karbon nanocsövek is csak esetleges megoldások. Nem tudni a buktatókat, így lehet, hogy 2030-ig nem lesz belőlük semmi.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MiklosSaS #98 üzenetére

    Az AMD tudna fejleszteni erősebb egyszálú teljesítményt is. Ez csak a tranzisztorokon múlik, és a cache szervezésen. A dolog ennél sokkal komplexebb, amit az átlag user már nem lát. Moore törvénye és Dennard skálázási szabálya vitte előre a fejlesztéseket több mint 30 éven keresztül. Moore törvénye még mindig él, de a Dennard scaling megfeneklett. Ez azt jelenti, hogy a teljesítmény skálázásának legkönnyebb módja előtt bezárult egy ajtó. Ez már mindenkit érint, mindenki reagál rá a fejlesztésekkel, csak nem mindenki ugyanolyan gyorsan. Az út persze nem ért véget, de más irány kell. Első opció, hogy figyelembe veszik a gyártók a Pollack-féle skálázási szabályt (ami a gyártástechnológiától való függetlenség hatására örök érvényű). Ez azt jelenti, hogy jelentősen butítják a processzormagokat, ezzel jelentősen visszavetve az egyszálú teljesítményt, ám eközben növelhetik a többszálú tempót, hiszen a butított processzormagokból több fér el ugyanakkora tranyóbudget mellett. Tulajdonképpen amikor véget ért az egymagos processzorok korszaka pár éve, akkor a gyártókat ez a szabály mentette ki a szarból, és egy ideje minden processzor homogén többmagos. A Pollack-féle skálázási szabály aránylag nagy játszóteret ad a throughput teljesítmény skálázására, vagyis ezen a ponton a processzorok teljesítménye akár meg is duplázható, ám ott van a kontra oldalon, hogy ehhez az egyszálú teljesítmény felezése szükséges. Nyilván valamilyen szinten ezzel lehet játszani, de a helyzet az, hogy egy bizonyos szint alá az egyszálú teljesítményt senki sem vinné. Itt jön a másik út, ami a már egy ideje lebeg a gyártók szeme előtt, de a Sony/Toshiba/IBM Cell processzorának megjelenéséig senki sem hitte, hogy járható. Ez a rendszer viszont bebizonyította, hogy a Pollack-féle skálázás mellett a heterogén módon programozható lapkák is alternatívák lehetnek a Dennard scaling becsődölése idején. Ilyenkor kezdődött el az Intelnél Larrabee fejlesztése, és az AMD is ekkor kezdte a kutakodást egy GPU-fejlesztő után. A dolog egyszerű. A GPU nagymértékben párhuzamos munkavégzésre készült, így amellett lehet egy lapkába jó throughput teljesítményt pakolni, hogy megölnéd a processzormagok egyszálú teljesítményét. Mára kiderült, hogy mindenki ezt az irányt részesíti előnyben.

    Az APU-knak sokkal nagyobb a jelentőségük, mint ahogy látszik. A skálázást biztosítják a fejlesztők számára. Aztán ezt vagy kihasználják, és a programok gyorsabbak lesznek, vagy maradnak az ingyen ebédnél és az egyszálú kódoknál, és akkor 2030-ra talán jön valami gyártástechnológiai áttörés.
    A gyártók egyértelműen döntöttek. Az AMD esetében a legnagyobb fejlesztéseket az integrált GPU kapja az új APU-kban. Az Intel esetében se számíts a processzorteljesítmény növekedésére. Ellenben az integrált GPU-t brutális pénzek beletömésével próbálják kigyúrni, mert erről az oldalról biztosítható a skálázás. Majd meglátod, hogy a következő két generáció hogyan fejlődik. A processzor oldaláról a lapkák csak kiegészítéseket kapnak az utasításkészlet szempontjából. Ezek egy része az integrált GPU-val való jobb összedolgozást is jelentik. Ami óriási fejlődés előtt áll, azok az integrált GPU-k. Az Intel a Haswellbe négyszer több vektoros shadert rak, mint amennyi ma van a Sandy-ben. Ellenben a processzormagokhoz alig nyúlnak. Az AMD a Kaveribe már GNC architektúrát rak, ami a shaderek számában nem nagy előrelépés a Llanóhoz képest, de olyan képességeket ad a rendszernek, amire nagy szükségük van a fejlesztőknek.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MiklosSaS #119 üzenetére

    Szerinted azt az IGP-t ki fejlesztette az APU-kba? Mert nem az ATI. Ők már beolvadtak elég régen. A Terascale architektúrát az ATI fektette le, de a Terascale 2 már teljesen AMD fejlesztés, ahogy az új generációs GCN is. Utóbbi egyértelmű, hiszen a GCN Radeon ugyanazokat a 64 bites pointereket használja, amelyeket az AMD64 processzorok. Nyilván a cél egyértelmű ... integrálni, hogy a skálázhatóság fenntartható legyen. A Bulldozert is ennek rendelték alá, ahogy a GCN-t is. Most, hogy az alapok megvannak össze lehet pakolni őket. Ez lesz a Kaveri (2013). Megfigyelhető, hogy mindenki ezt csinálja. NV-nél a Denver és a Kepler compute verziója, az Intelnél a Larrabee/MIC és az aktuális processzormagok. Ezeket egymáshoz tervezik, csak az integráláshoz az NV-nél még hiányzik a processzor, míg az Intelnél a GPU. De elfognak jutni az integrációig. Az NV a Maxwellnél (2014), míg az Intel a Skylake-nél (2015).

    Sempron 145 már egy ideje nincs szállítás alatt (max csak kapható még pár boltban). A4-3300 van helyette. Ennél lejjebb az AMD csak 18 wattos Brazosban gondolkodik, de az alaplapra integrált megoldás. Persze elérhető microATX méretben is, bár inkább a Mini-ITX a menő ilyen fogyasztás mellett.

    Szarnak nehezen nevezhető az A6-3410M. Négy mag 1,9 GHz-en, és ehhez egy olyan erős IGP, amit a dGPU-k képesek befogni, csak az ugye extra 30-40 watt fogyasztás mellett, ami egy notebook esetében már gond. Nem véletlenül tervezi az AMD így a lapkákat. Egyszerűen a multimédiás irányvonal mellett az IGP fontosabb lett, mint a CPU. A mobil szinten pedig a méret és a fogyasztás eddig is komolyan számított, így az integrált rendszerek kerülnek előtérbe.

    Az, hogy jól gondolkodnak-e ... az APU az AMD történetének leggyorsabban terjedő termékcsaládja. Soha semmiből nem adtak el annyit a megjelenés után mért egy éves időintervallumban mint a Brazosból. A mobil irány a piacon a döntő, és erre rendezkedik be az AMD. Már az asztalon sem azok a gépek hódítanak, amiket nagy házban összeraksz, hanem a nettopok, az apró PC-k, és az egybegépek. Ide az integráció a belépő és vitathatatlan, hogy itt az IGP szerepe masszívan felértékelődik, hiszen a webböngészők már gyorsítják a különböző tartalmakat, gyorsított a videólejátszás és gyorsított számos program. Nyilván oka volt annak is, hogy nem egy Intel IGP-vel felszerelt notit vettél.
    A processzorok fejlesztése szigorúan a szerverpiacra korlátozódik. Még idén lesz egy frissítés és az asztali piacon ennek a résznek vége az AMD-nél. Ugyanígy az Intelnél is, csak ők idén nem frissítenek. Náluk úgy néz ki, hogy a Sandy Bridge-E az utolsó asztali piacra lehozott processzor. Ezután mobil és asztali szinten csak APU-k jönnek. A szerverpiacon még nincs akkora probléma a skálázással, mert az órajellel nagyon jól lehet játszani. Ide még legalább 2 évig lesznek fejlesztések, de idővel itt is csak APU-k lesznek, mert a skálázás itt sem biztosítható a végtelenségig.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #126 üzenetére

    Ahogy írtad az alkalmazások amik szerveren futnak rendszerint jól kihasználják a több magot. Éppen ezért nem feltétlenül szükséges a magas 3+ GHz-es órajel, így 2-3 GHz közé is lehet lőni, ami a fogyasztás szempontjából belefér 8 maggal. Asztalon már ez nem ilyen egyszerű.
    A skálázhatóságnak a szerverpiacon is harangozni fognak. Csak azért lehet még játszani az órajellel mert csinálhatsz egy normál fogyasztású 2,5 GHz-es nyolcmagos procit, és akkor a szerverpiacon még jó vagy. Ugyanezt az asztalon már nem tudod megtenni, mert hiába nagy a throughput teljesítmény, az alkalmazások zöme nem profitál belőle. Itt jön elő a fogyasztás problémája. Skálázhatod tovább, csak a 125 wattból 150, majd 200, majd 250 watt lesz. Mivel ez egyértelműen probléma, így az egységnyi fogyasztás melletti skálázhatóságot kell szem előtt tartani. Erre gondra csak a GPU a megoldás. Persze nem olyanok, mint a mostanság integráltak, hanem jóval okosabbak. Olyasmik mint a GCN architektúra CU-jai. Azok már csak nyomokban hasonlítanak a hagyományos értelemben vett GPU multiprocesszorokra. Inkább olyanok, mint egy RISC processzormag, nagyon széles vektorfeldolgozókkal. A HPC-piacon főleg az ehhez hasonló hibrid rendszerek lesznek a nyerők. Másra aligha lehet építeni a fogyasztási gondokat látva.
    A web 2, cloud kiszolgálók piacán, vagy a virtualizált környezeteknél valszeg Pollack szabályát érdemes követni, egy ideig. Be kell állni egy ideális egyszálú teljesítményszintre, ami nem lassú, de nem is gyors (azaz nem zabál sok wattot), és minél több maggal meg kell pakolni a lapkát. Itt majd lehet játszani az erőforrások megosztásával. A processzorok fogyasztása valószínűleg nőni fog, de a teljes szerver fogyasztása egy jó interconnect kialakításával jelentősen csökkenteni lehet. Ez egy alternatíva ide. Összességébe a fogyasztás csökken, még ha a processzorok fogyasztása nő is.
    Az adatcenterek vannak a legnehezebb helyzetben. Ott eléggé számít az egyszálú teljesítmény a jellemzően magalapú licencelés miatt. Így viszont a fejlődés is megfeneklik. Ellenben itt komoly kutatások zajlanak az OpenCL hasznosításával kapcsolatban. Ha ez vállalható alternatíva lesz, akkor egyértelmű, hogy itt is az energiatakarékosság irányába kell menni a GPU integrálásával. Ha nem jó alternatíva, akkor marad Pollack szabálya, és akkor át kell alakítani a licencelési struktúrát.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MiklosSaS #134 üzenetére

    Már megint elfelejted az IGP-t, ami nagyságrendi eltérést jelent a Sandy és a Llano, vagy az Atomok és a Brazos között. Az Intel IGP-i jelenleg nem alkalmasak multimédiára. Ezért olcsóak a Pentiumok és a Celeronok, mert alig támogat az IGP valamit a mai API-kból, illetve a webes tartalmak gyorsításában sem remekel.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz 8th #137 üzenetére

    Kérdés, hogy az mennyire jó nekünk, ha az olcsó VGA-k értelműket vesztik. Ez a szegmens adja a VGA-piac 80%-át. A maradék résznek ezek nélkül nincs üzleti vonzata. Ergo, ha mennek az olcsó termékek megy a többi is. :(

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák