Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz ddekany #34 üzenetére

    Meg lehet csinálni, de tuti, hogy atomerőműre lesz szükség. Illetve egyes effektekre csak a Radeonok lesznek képesek. Pletyi még az egész, de kétségtelen, hogy megoldható, minőségvesztés mellett szinte bármin. Aztán aki max. minőségre vágyik, vegyen régi Xbox 360-at, sokáig köztünk lesz még, még legalább 5 évig.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #61 üzenetére

    Szerintem PC-be is, de a kompatibilitás és a megszokott windows oprendszer hiánya nagy szó.
    Az x86 eléggé elavult. Már rég dobtuk volna, ha nem lenne elvárás a legacy programok futtatásának lehetősége. Most az ARM-mal talán változik valami. Az biztos, hogy kiderül, hogy user szinten ez a legacy igény mennyire komoly, mert erre bizony nincs semmi gyakorlati tapasztalat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #65 üzenetére

    Az annyira nem nagy cucc. A fő probléma a mereven kezelt a memóriaműveletek és a koherencia. Az x86 esetében, ha egy mag kiír egy eredményt, akkor azt egy ciklussal később eléri egy másik mag. Ez jó is, de sok kommunikációt igényel a lapkán belül. A heterogén programozás mellett a kommunikáció még probléma lehet (most pár szállal dolgozik a program, de később ez megtöbbszöröződik). Persze kezelhető, de jobb lenne egy kevésbé szigorú megközelítés, mert a tranyót ennek a hardveres kezelése erősen viszi, és x86 mellett a megosztott cache bankolása is nagyon nehéz. Persze amikor az x86-ot tervezték, akkor még ki gondolt a 201x-es problémákra. :) A Larrabee első elkészült, de nem debütált megközelítése például pontosan ebbe bukott bele. Az x86 merev szabályai és megkötései akadályozták a skálázást.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #68 üzenetére

    A Larrabee elsősorban úgy jön ide, hogy később ebből lesznek az Intel procikban a vektormagok. Most egyértelműen nem jelent az hátrányt, hogy van egy 6 magos x86-od, vagy egy 6 magos PPC procid, de a heterogén érában ez óriási gáz lesz. Maga a PPC az ugyanúgy koherens, vagyis, ha kiírsz valamit a memóriába, akkor az elérhető a másik magnak, de nagyon fontos, hogy a megosztott gyorsítótár bankolása a PPC memóriaarchitektúra mellett sokkal, de sokkal egyszerűbb, és a belső kommunikáció vezérlése is az, vagy mondjuk úgy, hogy sokkal kisebb a szükséges tranyóbudget. Ez az x86 óriási hátránya. Egyszerűen a Larrabee megosztott gyorsítótárát az Intel nem tudta bankokra osztani, így egymás eredményeit írták felül a szálak. Ez egy 10+ szálas procinál aránylag kezelhető, de egy GPU-ban 1000+ konkurens szálnál már a skálázhatóság rovására megy, ha állandóan a memóriából kell újra és újra betöltögetni a cache, másik szál által felülírt részeit. Ez a rész eléggé kezelhetetlen. Mivel a next-gen konzolok APU-kra építenek, így nagyon fontos, hogy ebből a szempontból ne legyen ilyen probléma a hardveren belül. Az AMD például pontosan azért fejlesztett egymástól kvázi különálló integer és FPU magokat a Bulldozer modulba, hogy az FPU rész később gond nélkül becserélhető legyen a Radeonos CU-ra. Bukod vele az SSE/AVX-et, de legalább könnyű a cache bankolása (hiszen az új architektúrák kidolgozásánál már ezt is számításba vették), és 1000+ szál mellett is jól skálázódik a rendszer. Az Intel még nem tudni, hogy hogyan oldja meg. Valószínű, hogy ők az 1000+ szálas chpeken is bevállalják a cache bankolását x86 mellett, megoldható, de borzalmasan sok tranyóba kerül majd.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #74 üzenetére

    Magának az ISA-nak is megvan a memóriamodellje. Ez adja a különbséget. Az x86 tervezői nyilván arról nem tehetnek, hogy amikor tervezték az egészet, akkor még nem gondoltak arra, hogy 2010-től milyen problémákat kell megoldani. Alapvetően minden megoldható, de a fő kérdés, hogy miképpen ... és a fontosabb rész, hogy mennyi tranyót követel.
    Az ARM is erre megy. Valószínű, hogy náluk is egyszerűbb a bankolás, így kevesebb tranyóbudgetből oldható meg. Náluk ott van a nagy kérdés, hogy mennyire lehet majd a teljesítményt felskálázni az x86-hoz, mert a PPC-nél tudjuk, hogy a teljesítmény az megvan.
    Az AMD a fúzió GPU szintjén ódzkodik az x86-tól. Van minden cégnél hosszútávú research részleg, biztos nekik is átfutott az agyukon a Larrabee ötlete mielőtt megvették az ATI-t. Mára tudjuk, hogy az AMD az Intellel ellentétben elvetette a koncepciót, és inkább a vásárlás mellett döntöttek. A nagyon sok magos heterogén éra szempontjából csak később derül ki, hogy mi volt a jó döntés. Az első Larrabee nem néz ki fényesen, viszont meg kellene nézni, hogy milyen lesz a 2012-es második modell, ha az is gyengus a konkurensekkel (NV Kepler, AMD GCN) szemben, akkor az gáz, de ez majd kiderül.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz ddekany #78 üzenetére

    Maga az alapprobléma sok magnál is kezelhető, csak a tranzisztorigény a nagyon nagy kérdés. Az egészre akkor fogunk először értékelhető, gyakorlati választ kapni, ha a következő Larrabee vagy most már MIC lapka elkészül. Az 50+ x86-os mag vagy magocska, ha a mai CPU-magok méretéhez viszonyítunk. Jó teszt lesz, hogy mit tud a Kepler és a GCN ellen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák