Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    Kaptam a Mini-ITX lapokról adatot. Az áruk 130 és 200 dollár között lesz felszereltségtől függően. Ha jól láttam, mindenki az E-350-es APU-t használja.

    Szerk: Látom DeckardCain már előre dolgozott. :) Na majd holnapra én is átnézem a kínálatot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • DRB

    senior tag

    válasz Abu85 #100 üzenetére

    Akkor nem tudom, de nem itt van a félreértés(már ha van), a szó itt is a különbözőségre utal. Úgyhogy továbbra is marad a véleményem: az eddigi hardverekhez(CPU+ diszkrét GPU) is heterogén programozásra volt/van szűkség, így ezen a téren nincs változás, nem könnyebb az APU-t programozni mint egy CPU + diszkrét GPU kombinációt, ergo ha zsákutca a többszálú "homogén" programozás(tényleg az lenne, vagy csak a programozók maradtak le a kanyarban??) akkor a heterogén többszálú programozás mitől ne lenne az? :F
    És még egyszer hangsúlyoznám, és nem elsősorban a mobil vonalra gondolok(szóval valójában szét offolom a topikot :D), ott tényleg hasznos ez a fejlesztés, amúgy is az IGP volt többségben eddig is, és ez mit sem fog változni.

    [ Szerkesztve ]

  • DeckardCain

    senior tag

    válasz Abu85 #101 üzenetére

    Muszály. ;] Most már csak ez hiányzik a htpc-ből amit összeraknék.

  • lenox

    veterán

    válasz Abu85 #43 üzenetére

    Mar a masik topikban (link) is kertem, erre mutass mar legyszi egy linket, mert szerintem ilyen, hogy a gpu es a cpu egymassal kozvetlenul adatot cserel nincs egyelore, meg nem is latom, hogy hogyan lehetne, hiszen egy 80 shaderes (2x40) tomb akkor tud jo kihasznaltsaggal dolgozni, ha pl. 1000 threadet inditasz el rajta, akkor pedig legtobb esetben 1000 pl. 32 bites eredmenyt kapunk, ezt hova rakjak a cpuban? Mert szerintem egyelore sehova, szepen ki kell menni a memoriaig. Persze esetleg kesobb lehet majd pl. kozos levelx cache, de most nem igy mukodik.
    Nem feltetlenul kapcsolodik, csak felvetnem, hogy tudtommal egy opencl kernel launchnak tobb nagysagrenddel nagyobb a kesleltetese, mint akar a pcie akar a memoriabusznak (100 vs 1 microsec).

  • Abu85

    HÁZIGAZDA

    válasz DRB #102 üzenetére

    Igen az APU heterogén programozása az lényegében CPU+GPU, de nincs közte lassú busz, vagyis az eddigiekhez képest az adatcserével sokkal bátrabban lehet bánni. Ez adja az egész előnyét. Ez csak az első lépés az úton. Mint írtam a hírben is, még ennél is lehet jobb kommunikációs lehetőségeket biztosítani, így még többször lehet az adatokat a magok között vándoroltatni, ami még gyorsabb feldolgozáshoz vezet.

    (#104) lenox: Arra gondolj, hogy egy feladatot átadsz a GPU-nak, akkor az időbe telik. Például a flashgyorsítás jelenleg úgy működik, hogy a CPU átadja a dekódolásra váró streamet a GPU-nak, majd a feldolgozás megtörténik, és a GPU visszaadja az eredményt a CPU-nak, majd az utómunka után mehet ki a végső eredmény. Ezért hal meg az Ion 2 a Hulu weblejátszón már 720p-ben. A PCI Express x1 egyszerűen akkora késleltetéssel jár, hogy ez az út járhatatlan. Ilyen helyzetekben előny az integráció.
    Ez láthatóan minden cég számára világos, nem véletlenül van/lesz a hátuk mögött platform. Attól nem kell félni, hogy az izmos GPU-kat kiváltják ezek a rendszerek, de az egész IT ipar erre megy, és ennyi cég nem tévedhet. Nyilván dönthetnek a még több CPU mag mellett is, de az ábrából látható, hogy elértük a korszak végét. Ugyanezt az ábrát mutatta be az NVIDIA az SC10-en, ahol magyarázták, hogy miért raknak latency optimized CPU magokat a következő generációs lapkáikba. Persze ők más szempontból közelítették meg a kérdést, hiszen nekik GPU-ik voltak, de a konklúzió dettó ugyanez volt, vagyis az egyetlen út a hibrid rendszer. Azt nem tudni, hogy a latency optimized CPU az NV-nél mit jelent, de gyaníthatóan ARM architektúrát. Az lenne a leglogikusabb, mert az ARM-ra elkészül a Windows 8, vagyis az NV onnantól kezdve nem függ az AMD és az Intel processzoraitól, mert egy cGPU-val képes futtatni a rendszert.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • con_di_B

    tag

    válasz DRB #102 üzenetére

    Ez egyszerű válasz lesz. Vagy van egy összetákolt programfelületed, amiben minden hardverre külön írsz kódot (CUDA, CTM), procikra külön írsz assemblyben kódot a kritikus részekre, vagy van egy egységes, általános felületed, amiben a különböző dolgokban jeleskedő hardvereket egyszerre érheted el (OpenCL). Ez egyszerűsít a képleten. De ehhez tényleg nem kell Fusion.

    Fusion ahhoz kell, hogy ne a gépek 1%-ában legyen elég gyors OpenCL implementáció, hanem minden újonnan vásárolt gépben legyen, akár desktop, akár notebook, akár netbook vonalon => onnantól fogva máris megérni elkezdeni (ki)használni.

    (Szerk: meg az, amit Abu írt :D)

    [ Szerkesztve ]

  • opr

    veterán

    válasz DRB #102 üzenetére

    Na, mire hazaértem melóból már látom meg is válaszolták :)
    röviden, amiért könnyebb programozni:
    a kisebb késleltetés miatt nem kell annyira kínosan ügyelni az optimalizációra, kisebb adatcsomagokat is megéri küldözgetni, adott kód sokkal kisebb darabokra bontható, így amellett, hogy esetenként könnyebb, akár gyorsabb eredményt is dobhat, mint egy brutl különálló vga
    amiért ugyanolyan nehéz:
    Szintén "szét kell szedni" a programokat a megfelelő módon, mint eddig.

    Szal, tömören: ugyanolyan nehéz rá kódolni, mint eddig, csak mégsem(tudod, a veréb között semmi a különbség, mert mindkét szrnya ugyanolyan, főleg a bal :DDD), és potenciálisan gyorsabb az eredmény.

    Nagyjából ennyi. Plusz ehhez jön még, hogy a programozók is kezdenek hozzászokni a többszálban gondolkodáshoz, plusz egyre kiforrottabbak a nyelvek/fejlesztői környezetek.

    [ Szerkesztve ]

    "Programozó vagyok. Ez azt jelenti, hogy amit leírok, megtörténik." :D “The only valid measurement of code quality is What-The-F**ks/Minute.” - Robert Martin

  • jap

    aktív tag

    hülye-kérdés:
    ez nem támogatja a 64 bites dolgokat? "Bobcat x86"....

    vagy "2 x86 CPU Cores (40nm "Bobcat" core - 1 MB L2, 64-bit FPU)"? :F

    [ Szerkesztve ]

    ''minden sikeres férfi mögött egy nagyon meglepett anyós áll''

  • Abu85

    HÁZIGAZDA

    válasz jap #108 üzenetére

    Az x86-os architektúra egyébként támogatja az AMD 64 bites kiterjesztését, az SSE1, SSE2, SSE3 és SSSE3 utasításkészleteket, valamint az úgynevezett biztonságos virtualizációt. - forrás: a hír :D

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • opr

    veterán

    válasz jap #108 üzenetére

    szerk: Abu gyorsabb volt.

    [ Szerkesztve ]

    "Programozó vagyok. Ez azt jelenti, hogy amit leírok, megtörténik." :D “The only valid measurement of code quality is What-The-F**ks/Minute.” - Robert Martin

  • freeapro

    senior tag

    válasz DRB #102 üzenetére

    DRB kicsit fárasztó vagy! :)

    Eddig volt egy jó elméleti lehetőség. Azt ígérte az OpenCL, hogy tudsz CPU-n meg GPU-n is feladatokat végrehajtatni. Írtál rá egy programot ahogy elképzelted, hogy működnie kellene. Kipróbáltad: nem ment. Akkor elkezdted az elképzelést közelíteni a valósághoz, meg optimalizálni, meg guglizni, hogy hol a hiba, mások mit találtak ami működik, mik a soha nem publikált best practice eljárások stb. Nagyon sok vesződés árán csináltál valamit ami alig lett jobb mint a sima egyszálú program. Jó esetben. Rossz esetben kiderült, hogy ezt még nem lehet megcsinálni. És itt elment a kedved az egésztől.

    A heterogén felépítés pedig végre azt nyújtja mait ígért. Fut a cucc az APU-n amihez ha CPU kell akkor ahhoz nyúl, ha GPU akkor ahhoz, kicsit még mindíg rosszabb mint vártad, de lényegesen jobb mint az egyszálú program. És ekkor megszereted.

  • Zeratul

    addikt

    válasz DRB #49 üzenetére

    Úgy látszik nem figyeltél amikor Abu75 a nagy PCIE látencia okozta problémákat sorolta.

  • adalbert1

    veterán

    Teszt mikorra várható? Kíváncsi vagyok hogy az Atomra épülő megoldásokat mennyire veri el, és hogy asztali processzoroktól mennyire marad el.

  • vsvector

    csendes tag

    Sziasztok
    Kezdenek jönni a képek és a cikkek is
    http://www.bit-tech.net/hardware/motherboards/2011/01/04/amd-zacate-mini-itx-motherboards-preview/1 :C :C :C

    Eladó!INTEL CORE i7 PC,8GB DDR,HD6870,BLUE-RAY,700W mindenre van garancia ajánlatokat Püben

  • P.H.

    senior tag

    válasz DRB #102 üzenetére

    APU-n azért könnyebb programozni, mert az ember jópár dolgot, ami diszktét GPU-n lassabban megvalósítható volt, már előzetes számítások (adatcsere időigénye pl. - alapján) is eleve elvetett, megoldható.
    Igaz, nem könnyebb programozni, de kifizetődőbb. Az FPU-t sem volt anno könnyebb, aztán egyre többen használták, be is épült a CPU-ba.
    Pedig ahhoz egyetlen dolog kellett, a CPU felismerte a nem neki szánt utasításokat, és továbbította megfelelő lábain az FPU-nak. Erre pl. az Intel-nek manapság is vannak már megoldásai pl., csak ugye minek, amikor már vannak a piacon kész, platformfüggetlen megoldások.

    A heterogén megoldások jobban kiterjesztik a párhuzamosítás lehetőségeit, mint a többszálúsítás, ez a grafikai eredetükből is látszik: klasszikus példám az, hogy egy nagyméretű színes képet akarsz fekete-fehérré tenni. Ha CPU-programozó vagy, akkor egy processzoron írsz egy (minőségigénytől föggően) 5-10-15 utasításból álló ciklust, ami lefut minden pixelre, egymás után - némi átfedéssel, OoO miatt. Majd beleizzadsz, hogy jó teljesítményt nyújtva 2-4-8 magon jobban, gyorsabban fusson le ugyanez (az adminisztáció, elosztás, szinkronizáció időigénye miatt). Ugyanezt megírod egy GPU-like architektúrára, hogy fusson le minden pixelre ugyanaz az 5-10-15 utasítás, a hardware + driver pedig kezeli neked, hogy hogyan, mi módon párhuzamosítva, te csak azt látod, hogy gyorsabb, mint CPU-n (pl. OpenCL).

    Hozzátéve, hogy egy GT9500-ból vagy egy GT220-ból ily módon kihozható számítási teljesítmény kb. egy 4/6 magos CPU-éval egyezik, a CPU-többszálúsításánál könnyebben elsajátítható programozási modell mellett, akkor szerintem billen a mérleg asztalon is.

    [ Szerkesztve ]

    Arguing on the Internet is like running in the Special Olympics. Even if you win, you are still ... ˙˙˙ Real Eyes Realize Real Lies ˙˙˙

  • DRB

    senior tag

    válasz freeapro #111 üzenetére

    Senki nem beszélt itt egyszálú meg nem heterogén programozásról!
    Pont ugyan úgy kell programozni ezt is, mint ahogy eddig is kellett egy CPU(akár több magos)+ diszkrét GPU párost. Többen is leírták, hogy semmivel sem lett egyszerűbb ezt programozni mint amikor külön voltak az egységek, úgyhogy nem is értem mire írtad amit írtál, meg úgy egyébként sem túl helytálló.
    Szóval gyakorlatilag "csak" az adatbusz nem léte, vagyis inkább rendkívüli rövidsége és ezáltal megnövekvő gyorsasága az előnye. Ezt ki is fejtették a többiek, és fel is fogtam, csak ezt én nem láttam olyan óriási előnynek, de úgy tűnik ez mégis nagyon sokat számít, ergo tévedtem. És majd biztos lesznek tesztek ahol ahol össze lesz hasonlítva egy ilyen APU egy CPU + GPU párossal, ami egyébként tök ugyan olyan mint az APU, csak nem együtt laknak :D, és látni fogjuk/fogom, hogy mennyi az annyi.
    De, hogy megnyugodjatok, tényleg elhiszem, hogy ennyit számít ez közelség a két egység között és sikerült eloszlatni a kétségeimet(nagyjából ;] ).

    [ Szerkesztve ]

  • DRB

    senior tag

    válasz P.H. #116 üzenetére

    Azt hiszem félreértetted(te is). Én nem a heterogén programozás előnyeit nem értem, hanem azt nem volt egészen világos, hogy ha egy kupak alatt van a CPU a GPU-val az miért ekkora nagy lépés előre. De már megértetem, hogy még ha a proci közvetlen is tud kommunikálni a diszkrét GPU-val még annál is gyorsabb és jobb megoldás az APU.

    [ Szerkesztve ]

  • Rawulf

    őstag

    Mostantól mondhatom, hogy:
    Real Multimedia HTPC is Fusion!
    Vagy nem? :B

    "Please state the nature of the medical emergency."

  • Ayg0

    senior tag

    válasz Oliverda #67 üzenetére

    így lenne ötösöm a lottón. bár ez azt jelenti, hogy 2012-ig ebből nem lesz gépcsere...
    a beavecreek-ekben lévő gpu-ról lehet már tudni valamit? mire lesznek elegek? mint most egy hd4200 vagy azért kigyúrják őket?

    "A Celeron egy olyan gyár ami az Intelnek készít olcsó, megbízható processzorokat, ezért felesleges a Pentiumokért plussz pénzt fizetni."

  • Oliverda

    félisten

    válasz Ayg0 #120 üzenetére

    Nyár végén már meg lehet majd venni ezeket.

    A GPU rész 480 SP-t takar előreláthatólag.

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Solten

    addikt

    "A Brazos platform tehát támogatja a DirectX 11-es, az OpenGL 4.1-es, az OpenCL 1.1-es, az OpenGL ES 2.0-s valamint a DirectCompute 5.0-s API-t, továbbá az UVD 3.0 motor kezeli a H.264/AVC, az MPEG-2/4, a VC-1, a DivX és az Xvid videók gyorsítását egészen Full HD felbontásig. Ez még nem minden, ugyanis az APU-k az úgynevezett HD Internetet is támogatják, vagyis a képesek a Direct2D és a DirectWrite felhasználásával a weboldalak megjelenítését gyorsítani, továbbá támogatják a WebGL-t is, ami a böngészőablakban futó háromdimenziós animáció gyorsítását teszi lehetővé, illetve a flashanimációk gyorsítása sem jelent akadályt. További extra, hogy elérhető a 3D-s tartalmak megjelenítése is, ám a 3D-s Blu-ray lejátszáshoz olyan termékre lesz szükség, amin HDMI 1.4-es vagy DisplayPort 1.2-es csatlakozó található."

    Veri najsz... veri najsz...

    Saor Alba

  • Male

    nagyúr

    válasz Abu85 #105 üzenetére

    Arra a részére nem válaszoltál, hogy most hogy is van az adat-csere az x86-os rész és a "GPU" rész között. Ez (számomra) a cikkbeli ábrából sem derül ki sajnos.

  • Oliverda

    félisten

    válasz Male #123 üzenetére

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Abu85

    HÁZIGAZDA

    válasz Male #123 üzenetére

    Ahogy eddig történt. Feladatváltással.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • lenox

    veterán

    válasz Abu85 #105 üzenetére

    Pcie x1-en nagysagrendileg 25-szor tud a 720p-s adat odamenni majd visszamenni egy masodperc alatt. De nem x1 van a normalis rendszerekben hanem pcie 2.0 x16, azon mar akar 500-szor is tudna, szoval semmi szukseg ennel gyorsabbra. Az x1 nyilvanvaloan azert volt, hogy az ion2-t szopassa az intelt. Mert annyira felt a nem integralt gpu-tol, amit nem o ad el. Ez pont az ellen erv, amit te mondasz, nevezetesen, hogy csak az integralt, egybetokozott rendszer a nyero, ha igy lenne, akkor mi szuksege lett volna erre az intelnek?

    Igen az APU heterogén programozása az lényegében CPU+GPU, de nincs közte lassú busz, vagyis az eddigiekhez képest az adatcserével sokkal bátrabban lehet bánni.

    Ezt mar sokadjara irom, hogy nem igy van. A Fusion eseteben is ki kell menni a memoriaba, ott at kell masolni a masik memoriateruletre az adatot, es utana tudja a masik egyseg hasznalni. Lehet, hogy par szazalekkal gyorsabb lesz, mint ugyanez a pcie buszon keresztul, viszont joval lassabban fog processzalni, raadasul amikor mindket oldal processzal, akkor osztoznak a savszelessegen. Ahhoz, hogy gyorsabb legyen az adatmozgatas, ahhoz is az kell, hogy 10-12 GB/sec folotti valos memoriasavszelesseget tudjon (es akkor meg a processzalasrol nem beszeltunk). Egyelore semmelyik desktop nem tud ennyit, lehet, hogy most majd fog tudni, a mobil verzio spec joval kevesebbet tud, szoval az nem lesz gyorsabb, mint diszkret vga-val.
    Nem azzal van a baj az integralasnal, hogy egyben van a cpu es gpu es esetleg ezek kozvetlenul kommunikalhatnanak, amit a Fusion eseteben meg nem tesznek meg (tehat a Fusion is oda-vissza toltoget), hanem azzal, hogy egy mai normalis gpu-t egy mai alaplap architektura csak eheztetni tud. Ha barki (akar az nv is) felpakol egy kartyara 100-200 GB/sec savszelessegu memoriarendszert, es ehhez koti oda az akar kulon, akar egyben levo cpu magjait es gpujat, akkor az egy killer rendszer. Ha ugyenezt 10-20 GB/sec-es memoriarendszerrel teszi, akkor az semmi kulonos. Persze mobil eszkoznel ar/meret/fogyasztas szempontjabol jobb, mint ugyanez diszkret gpuval. Desktopnal is jobb, de csak gazdasagilag, mert az intel vagy az amd maguk begyujtik az osszes penzt, nem kell chipsetgyartonak adni, vagy entry levelnel gpu gyartonak (bar ez mar a chipsetbe integralt vga-nal is megvolt).
    Persze, lehet abrat mutogatni, hogy ez a cpu teljesitmeny novelesenek egyetlen utja. Abban meg az a csusztatas, hogy igen, a cpu teljesitmenyet noveled ezzel, de nem a cpu/gpu paroset. Szoval azzal lehet ervelni, hogy ez gazdasagilag nyero, az viszont tevedes, hogy ez teljesitmeny szempontjabol nyero lenne. Ahhoz meg 2 dolog hianyzik, a gyors adatcsere (ami szerinted megvan, de szerintem meg nincs), es a gyors memoriarendszer. Az elsot egyebkent nem lenne lehetetlen megcsinalni, tobb lehetoseg is kinalkozna ra (pl. chipen beluli levelx cache-en keresztul (bar ez eleg sok problemat felvet), vagy pl. hogyha masolas nelkul at lehetne adni az adatot), lehet, hogy egy kovetkezo generacioban benne is lesz valamilyen megoldas, de egyelore ezek nincsenek meg.

  • stratova

    veterán

    válasz Bogyó bá' #99 üzenetére

    A fent idézett, az eszmefuttatásom egy részlete volt.
    A lényeg az lett volna, hogy hajlandó vagyok lemondani a nagy teljesítményről netán komolyabb felszereltségről, a tartósságért cserébe.
    (Erre talán jó példa az IBM régi R sorozata, nem kerül annyiba mint a T sorozat, nincs roll cage váza, szerényebb a felszereltsége és teljesítménye, mégis tartósabb mint egy átlagos notebook bár kevesebbet nyújt annál azonos áron, de amikor ma még a ThinkPad brand-et is elbagatelizálják mit keressen az ember újonnan?
    Azért, hogy egy notebook dizájnos, bambusszal borított, Ferrari, Lamborghini nem akarok fizetni, de ha választhatnék akkor azonos árban lemondanék a plusz teljesítményről a megbízhatóság javára).
    Viszont vélt választ is írtam a problémára, marad a használt noti.

    Elnézést az OFF-ért részemről a kérdés ebben a topikban lezárva, viszont ezzel kapcsolatban szívesen hallgatok meg véleményeket javaslatokat más topikban ahol a téma aktuális. Azt, hogy fogyasztói társadalom vagyunk tervezett élettartamú termékekkel magam is tudom, a legkisebb rosszat keresem.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz lenox #126 üzenetére

    Zsír, nekünk pont 25 képkockánk van. Máris ott vagyunk a határon. Ergo 1080p-ben már nem jó koncepció a PCI Express x1. Ez a baj az Ion 2-vel, ez az amiért a Hulu vagy más webes videólejátszás 720p-n, vagy afölött már akad. Ha szerinted az jó, hogy 1080p-ben akad a flash, akkor azzal nyilván nem tudok mit csinálni, neked találták ki, akkor az Ion 2-t.

    Persze mobil eszkoznel ar/meret/fogyasztas szempontjabol jobb, mint ugyanez diszkret gpuval. Desktopnal is jobb, de csak gazdasagilag, mert az intel vagy az amd maguk begyujtik az osszes penzt, nem kell chipsetgyartonak adni, vagy entry levelnel gpu gyartonak (bar ez mar a chipsetbe integralt vga-nal is megvolt).
    Pontosan ez a lényeg. A piac durván mobil irányba tart. 2010-ben több mobil PC-t adtak el, mint asztali, ez a szám 2011-ben drasztikusan növekedni fog. Már nem a desktopra fejlesztenek a cégek, hanem mobilra és szerverre, majd ezekkel a fejlesztésekkel betömik a desktopot. Ergo a felhasználók, akik eleve mobil irányba mennek, ezzel csak nyernek, mert idézem tőled "ar/meret/fogyasztas szempontjabol jobb". Neked win, mert integrálva kapod ezt, a gyártónak win, mert olcsó, a notebook gyártónak win, mert pici és ez neki szintén olcsó a kevesebb anyaghasználat miatt. Mi a probléma akkor a koncepcióval? Nem viccből megy mindenki erre. :))

    Ha szerinted a belső 27 GB-os adatbusz lassabb, mint a PCI Express által biztosított 7 GB/s-os, akkor tényleg nincs miről beszélni. :D
    Ott van az ábrán, hogy mi hiányzik. Communication overheads. Ez meg is van említve, de ettől még a belső adatcsere majdnem négyszer gyorsabb. Ez tény. Sok feladatra ez sem elég, de valahol el kell kezdeni. Nyilván szakaszokra kell osztani a fejlesztést, az AMD most elhozta az első heterogén módon programozható PC-s lapkát. Majd legközelebb továbbmennek. Ez mind benne van a hírben. Más cég még ennyit sem csinált meg. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Male

    nagyúr

    válasz Oliverda #124 üzenetére

    Szerk: Nem olvastam el egy részét :B ...így OK, akkor tényleg jó ez a kapcsolat a kettő között.

    [ Szerkesztve ]

  • Oliverda

    félisten

    válasz Male #129 üzenetére

    :F

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • Ł-IceRocK-Ł

    addikt

    válasz Oliverda #50 üzenetére

    Normálisabb és használhatóbb újítás mint a 20 mag egy processzorban, mert minél több mag annál "jobb".... jobb a fenét. Van egy határ ahol a plusz mag már fölösleges, és csak "átverés" szaga van.

    Az sem elhanyagolható dolog, hogy rágyúrnak a platform fogyasztásának együttes szabályozására. Főleg most hogy az energiarák az egekben és még most fog emelkedni. A multimédiás képességek támogatása és hardveres gyorsítása rendszerszinten, egy nagyon jó dolog. Én személy szerint örülök neki, hogy végre van valami amit az AMD igen jól csinál, és haladnak a fejlesztéssel, és beintenek az intel keszeg Szandi hídjának.... :K

    "lol, rock, te egy kib*szott médium vagy. mit médium, HARD " by FireKeeper

  • Ayg0

    senior tag

    válasz Oliverda #121 üzenetére

    amd-ék nem a percre pontosságról ismertek, de legyen igazad és akkor karácsonyig esik annyit az áruk, hogy magyar halandó is meg tudja majd fizetni.
    480sp? az minek felel meg? hd 4770/4850? nem mellesleg ha már a gpu is az uma-t használja majd, az - a dedikálthoz képest - nem fogja vissza a teljesítményt? ha igen, akkor kitörölhetem mind a 480sp-vel...

    "A Celeron egy olyan gyár ami az Intelnek készít olcsó, megbízható processzorokat, ezért felesleges a Pentiumokért plussz pénzt fizetni."

  • Oliverda

    félisten

    válasz Ayg0 #132 üzenetére

    Igen, néha hónapokkal a tervezett dátum előtt, néha meg hónapokkal később sikerül kiadni a cuccot de ez benne van ebben a pakliban.

    ~5550-5570 szint mondjuk.

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • CrAck69

    senior tag

    kíváncsi leszek egy ilyen netbook árára már várom... hajrá AMD :)

    Egyszer fenn....

  • Ayg0

    senior tag

    válasz Oliverda #133 üzenetére

    az nem valami huszáros, bár az is igaz, hogy más esetben meg a diszkrét tesókat nyírná ki. no sebaj, jó lesz az butított 1680*1050-re...
    kösz az infót

    *mod: utolsó kérdés: ezek még mindig dc-t fognak használni vagy lekövetik (végre) a konkurenciát?

    [ Szerkesztve ]

    "A Celeron egy olyan gyár ami az Intelnek készít olcsó, megbízható processzorokat, ezért felesleges a Pentiumokért plussz pénzt fizetni."

  • Ayg0

    senior tag

    válasz Oliverda #133 üzenetére

    dupla...

    [ Szerkesztve ]

    "A Celeron egy olyan gyár ami az Intelnek készít olcsó, megbízható processzorokat, ezért felesleges a Pentiumokért plussz pénzt fizetni."

  • erdoke

    titán

    válasz Gergosz2 #11 üzenetére

    Az én laptopom első generációs Core2 2,8 GHz-en, 14,1-es 1440x900-as kijelzővel, de a 6 cellás normál akksival 4 órát simán elnetezek rajta, miközben nem melegszik. Ehhez képest az újabbakból egy LV változat biztosan érezhetően kevesebbet fogyaszt hasonló teljesítmény mellett, és akkor még az igazán alacsony fogyasztású laptopokról nem is beszéltünk (kisebb méretű és felbontású kijelző, ULV proci, stb). Olcsó (90 ezres) AMD-s Acer persze 2 órát megy... Szóval a teljesítmény/fogyasztás mutató az érdekes, és nem hinném, hogy a Sandy Bridge szegmensében van hasonlója az AMD-nek. Talán még az idén lesz, de eddig minden évben ezt hittük.

    Viszont az egész hír nem erről szól, nem az asztalival együtt említhető teljesítményű laptopokba szánják a Fusion-t.

    A legjobb aláírás a héten

  • Abu85

    HÁZIGAZDA

    válasz erdoke #137 üzenetére

    A Brazost nem oda szánják pontosabban. A Fusion az egy projekt, így az idén tartalmaz majd egy Llano kódnevű fejlesztést is, ami már nem ilyen alacsony fogyasztású, következésképpen gyorsabb is.
    Egyébként igaz amit írsz.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Zyelor

    aktív tag

    Bocsi, hogy ilyen tudatlanul itt közbe kérdezek... De mi értelme van ennek? Frankó új platform, meg IGP, de miért van erre szükség? Annak mi haszna lesz belőle aki nem akar hiperszupervékony Notebookot, vagy hasonló eszközt? Szvsz. semmi... Asztali PC-k-be nem érzem szükségesnek az ilyet, max. irodai, vagy netes használatra.... Valagi elmeséli nekem, hogy ez miért jó, és miért van hasraesve tőle mindenki?
    Én ebben nem látok akkora potenciált, mint anno. a többmagos rendszerekben.... Lehet velem van a baj...

  • Abu85

    HÁZIGAZDA

    válasz Zyelor #139 üzenetére

    Mert erre van tömeges igény. Durván alacsony fogyasztású lapka, ami mindent tud, amit most tudni lehet. Nyilván az AMD mint cég a tömegek igényét szeretné kielégíteni, mert a pénzből élnek.
    Aki nagyobb teljesítményt szeretne, és nem számít neki a fogyasztás, az nem ezt fogja vásárolni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Oliverda

    félisten

    válasz Ayg0 #135 üzenetére

    Nem mert az jelentősen megdobná a költségeket ráadásul megfelelő RAM órajellel ki lehet váltani a háromcsatornás vakítást olcsóbban.

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • lenox

    veterán

    válasz Abu85 #128 üzenetére

    Ne ferdits, te jottel elo az ion2-vel,hogy ahhoz kepest mekkora haladas. Pont azt mondom, hogy persze, ahhoz kepest haladas, csak kar, hogy a nem mestersegesen lekorlatozott es szivatott platformokon x16 van, raadasul 2.0, ahol annyival tobb a bandwidth, hogy nem korlatoz semmit.

    Mobil iranyban mar lattam benchmarkot, olyan 3-4 GB/sec-et tud memoria teren, ezt tehat jol elveri a pcie x16. Desktop benchmarkot meg nem lattam, de az vilagos ugye, hogy az elmeleti meg a valos sebesseg az nem ugyanaz, ezert is irtam, hogy valos. Eddig nagysagrendileg 50-60%-at tudtak hozni az elmeleti sebessegnek, nem latom, miert ne felteteleznem, hogy ezutan is ennyit fognak tudni, szoval a valos lesz mondjuk 13-16 GB/sec desktopon, es mivel ugyanonnan olvasod az adatot, ahova irod, ezert ez 6.5-8 GB/sec-es pcie sebessegnek felel meg. A pcie buszon valos 5-6 GB/sec adatot lehet atvinni, tehat ez mondjuk 25-30%-os novekedes a transzfer speedben (de ennel joval nagyobb hatrany processzing kozben, szoval nemigen eri meg). Persze csak akkor, ha olyan programot futtatunk, ami csak egy iranyba kommunikal, mert a pcie full duplex, tehat ott visszafele is tud menni kozben ugyanez, akkor spec 30% hatranyban van ez rendszer a pcie--hez kepest. Ugyhogy szerintem ezt a 'Ha szerinted...'-et kicsit elhamarkodtad. Nem vagy alig gyorsabb az adatcsere, es nem belso.

    Az a bajom amugy a cikkel, hogy azt sugallja, hogy ez mekkora performance elonyokkel jar az eddigi rendszerekhez kepest. Pedig valojaban csak az eddigi integralt rendszerekhez kepest jar performance elonnyel, a diszkret gpu-val ellatott rendszerekhez kepest nem. Persze az igaz, hogy az elso integralt lapka, ami heterogen processinget is tud. Csak ettol nem lesz gyorsabb, mint egy korabbi lapka diszkret gpu-val. Ez hianyzik belole.

  • Abu85

    HÁZIGAZDA

    válasz lenox #142 üzenetére

    És szerinted egy Atom méretű holmiban lehetséges volt akkor PCI Express x1 kapcsolatnál többet kiépíteni? Az Intel csak azt tette, amit tenni kellett. Adott a vezérlőbe négy PCI Express csatornát, mert nem volt többre lehetőség. Az AMD sem ad többet a vezérlőben. A proci ad plusz négyet, ha szeretnél mellé még egy Radeont. Ergo a haladás gyakorlatban kimutatható, és miért? Mert ott az IGP a prociban. Eleve arról sem szabad megfeledkezni, hogy az Ion 2 megnöveli az Atom platform méretét, mivel három lapkád lesz. A Brazos esetében marad kettő. Megint kézzel fogható az előny. Arról meg senki sem tehet, hogy az NV-nek nincs PC-s platformja. Nyilván erre az NV is rájött, és szarják is le a PC-t, mivel ott az ARM, amire építettek is platformot. :)

    És a dedikált GPU fedélzeti memóriájába Panni néni majd bevarázsolja az adatokat ugye? :) A másik dolog, amiről megfeledkezel az a késleltetés. Minél több buszt használsz, annál több időd megy "kárba".

    Ha megnézed, akkor a cikk két részből áll. Az egyik a fejlődést és a jövőt mutatja be, ami az AMD ábrája alapján készült, de ugyanilyen az NV ábrája is, amikor a saját elképzelésüket mutatták be a heterogén korszakról. Ez mutatja azokat az előnyöket, amit egy hibrid processzor jelenthet a hagyományos processzorokhoz képest. Hasonló a dolog ahhoz az időszakhoz, amikor az FPU bekerült a CPU-ba. Ugyanez történik meg, csak a GPU-val. Ez a folyamat első lépcsője. Illetve, ha nem ragaszkodunk a PC-hez, akkor például a Tegra 3 is ilyen. Sőt lényegében szinte az összes 2011-ben bemutatandó SoC ilyen lesz.
    Ettől függetlenül megértettem a mondandód, és nyilvánvaló, hogy azért megy minden vállalat ebbe az irányba, mert nem jár előnyökkel. :)
    A második rész a Brazos platformról szól. Ott nincs is benne, hogy ez az integrálás előnyt jelent a diszkrét kártyákhoz képest. Csak az van taglalva, hogy az APU minden egyes gyártófüggetlen ipari szabványt képes gyorsítani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • con_di_B

    tag

    válasz lenox #126 üzenetére

    1) Heterogén számolás közben nem kizárólag adatmozgatás van, hanem egyszerű eseményalapú szinkronizáció is. Ez pedig nagyon érzékeny a késleltetésre, effektíve sok adatmozgással azzal nem jár.

    2) A késleltetés nem a sávszélesség reciproka, szóval más a diákon is marhaság ez a 7GBps vs. 27GBps dolog, mert valószínűleg nem ez a nagyobb ugrás.

    3) Nem kötelező semmit sehová másolni. Ha tudjuk, hogy nincs önálló memóriája, mint egy diszkrét VGA-n van, akkor shared host memory-t is lehet használni. Úgy meg máris elég nyerő a dolog, mert ír valamit a CPU valahová, aztán házon belül szól a GPU-nak, hogy ott van, nesze, mire ő tökugyanazon a memóriavezérlőn keresztül el is éri egyből. (Igen, RAM-ból, de másolni nem kell. És RAM latency << PCI-Express latency.)

    Ha meg még a cache-ben is ott van az adat, az pláne nagyon jó lenne, de mint azt megvilágítottad, ez nem a Sandy Bridge. Majd legközelebb.

    (Azt mondjuk nem tudom, hogy az L3 az az IMC szintjén van-e, mert ha igen, aminek lenne értelme, akkor mégiscsak nyert ez is.)

  • lenox

    veterán

    válasz Abu85 #143 üzenetére

    És szerinted egy Atom méretű holmiban lehetséges volt akkor PCI Express x1 kapcsolatnál többet kiépíteni?

    Nvidia Ion? X16 + 4*X1.

    És a dedikált GPU fedélzeti memóriájába Panni néni majd bevarázsolja az adatokat ugye? :) A másik dolog, amiről megfeledkezel az a késleltetés. Minél több buszt használsz, annál több időd megy "kárba".

    Nem tudom, hogy ertetted-e az elozo hozzaszolasomat. Amikor a transfer speedrol beszeltem, az neked nem azt jelentette, hogy az adatok bemennek, vagy kijonnek a gpu fedelzeti memoriajabol? Erted, apu vs pcie, egyiknel ennyi a transfer speed, a masiknal annyi... A kesleltetes alatt a latency-re gondolsz? Mert ugye azt mar irtam fent, hogy egy opencl kernel launch kesleltetese tobb 100-szor annyi, mint a pcie busze, tehat tul sok jelentosege nincs. Ha csak arra gondolsz, hogy ki kell varni, mig odaernek az adatok, akkor meg az a transfer speedel fugg ossze, lasd fent.

    Ettől függetlenül megértettem a mondandód, és nyilvánvaló, hogy azért megy minden vállalat ebbe az irányba, mert nem jár előnyökkel. :)

    A masodik felebol ugy tunik nem erted, hogy tobb szempont van, amiben ez a mostani Fusion jobb a diszkret gpu-knal, a sebesseg spec. nincs koztuk. Pl. SoC-nal neveben is benne van, hogy az integraltsag a fo tenyezo, nem a sebesseg, hogy ezt milyen megfontolasbol hoztad fel peldanak??? Na majd meglatjuk a teszt eredmenyeket, ha lesznek, vajon egy csucs amd vagy nv kartyaval lesz-e nagyobb a teljesitmeny, vagy anelkul...
    Azert meg egyszer megprobalom. Ennek az APU design-nak a bottleneckje a memoriabusz. A gpu-t etetni kell adattal. Vajon ez hogy fog jobban menni, ha a cpu/gpu parosnak osszesen van elmeleti 27 GB/sec-je, vagy ha osszesen 180 GB/sec-je van. Szerintem a masodik esetben, szerinted az elsoben... Emlekszel, mi volt felirva az nv abrajara amire hivatkozol? 1.4 TB/sec. Na ok etetik adattal rendesen. Mondjuk ezt mar tobb, mint egy eve mondjuk neked emlekeim szerint, es meg mindig nem hiszed el.

  • lenox

    veterán

    válasz con_di_B #144 üzenetére

    1. Igen, de kivancsi vagyok, hogy az alkalmazasok hany szazalekaban kell masodpercenkent tobb ezerszer szinkronizalni es megis gpu-t hasznalni, mert akkor lenne ennek jelentosege. Szerintem elenyeszo, de mondd, ha tevednek.

    2. Igy van, azert is irtam, hogy a pcie latency microsec nagysagrendu, vagyis a 7GB/s-nek ez nem reciproka. Es ennek megint csak akkor lenne jelentosege, ha masodpercenkent sok ezer egymastol fuggetlen transzfert kene inditanod, ami megint csak az alkalmazasok elenyeszo reszeben van.

    3. Diszkret gpu-nal is lehet, es megint ismetelni tudom magam, hogy mikor van jelentosege a pcie nagyobb latencyjenek.

    Ettol fuggetlenul en elhiszem, hogy lehet olyan alkalmazast irni, hogy gyorsabb lesz ezen a platformon, mint diszkret gpu-val, pl. latency benchmark, csak azt ketlem, hogy az atlagos, de jol megirt alkalmazasoknal igy lenne.

  • con_di_B

    tag

    válasz lenox #146 üzenetére

    1) Bizonyos értelemben mindegyikben, mivel a GPU-kban nincs és nem is lesz normális folyamatvezérlés. Szóval ha te nem adod meg explicite event-ekkel, akkor is kell.

    Pl. ha kitalálod, hogy te 16536*16536*16536-os párhuzamos rácson akarsz dolgozni, simán lehet h az implementáció hagyni fogja neked, de a GPU maga erre nincs felkészítve, ezért a CPU fogja neked felosztani a feladatot kisebb blokkokra szekvenciálisan végrehajtható formában. És akkor máris nem vezérlési idő, hanem vezérlési idő*K.

    Pl2. vannak alapból blokkoló utasítások. Az sem feltétlenül GPU-n belül történik.

    Ha megnézel egy profiler-t, akkor láthatod, hogy bizonyos esetekben a CPU-time a GPU-time akár kétszeresét is elérheti. Magyarán a CPU-nak majdnem annyit kellett szarakodnia a vezérléssel, mint amennyit a GPU effektív (?) munkavégzéssel töltött.

    2) -||-

    3) Lehet, csak az utána nem IMC-n, hanem PCI-Expressen keresztül fogja elérni, az meg fáj. Annyira fáj, hogy még a másolgatással is jobban jársz.

    Egyébként a késleltetés maga az fontosabb probléma, mint gondolnád, a GPU-kban pl. azért van úgy megoldva, h van kismillió végrehajtóegység és kismilliószor*N kezelt szál, hogy az éppen éhező work-item végrehajtását gyorsan le lehessen cserélni azéra, amelyik éppen kapott adatot. Így el van rejtve a késleltetés.

    A gond ott kezdődik, hogy egy komolyabb kernelnek akkora a regiszter/lokális memória igénye, hogy nem tudsz belőle túl sok szálat "tárolni", ugyanis a GPU-n nem kifejezett verem oldja meg a szálváltást, hanem akkora baromi nagy regisztertömb van benne, hogy konkrétan mindegyik szálnak megvannak a saját regiszterei, a szálváltás meg csak annyi, h éppen melyik regiszterkupacból zavarjuk be az adatokat a végrehajtókba.

  • con_di_B

    tag

    válasz lenox #146 üzenetére

    "Ettol fuggetlenul en elhiszem, hogy lehet olyan alkalmazast irni, hogy gyorsabb lesz ezen a platformon, mint diszkret gpu-val, pl. latency benchmark, csak azt ketlem, hogy az atlagos, de jol megirt alkalmazasoknal igy lenne."

    Nyilván a csúcs az, ha van külön NYÁK-on egy 300W-ot evő szörnyed 4GHZ-es GDDR5-el, de itt most az a kérdés, hogy ha ugyanennyi pénzből/TDP-ből/méretből kell kihozni egy megoldást, ami tudja azt amit az APU, akkor szóba jön-e a diszkrét megoldás.

    - Ekkora helyen sztem még csak a RAM-ja se férne el.
    - Ekkora fogyasztással az sem lenne erősebb, mint GPU.
    - Viszont külön lapka-nagyobb méret stb.

    Értelemszerűen, ha építeni akarnának egy "szörny" APU-t, amibe beletokoznák a Cayman-t, akkor borulna az egész, mert bejönne az amit mondasz, hogy ugyanúgy éhen hal, csak neki meg a sávszélesség lenne kevés. Még ennek is az, mondjuk tisztán grafikai felhasználásnál, csak kárpótolja az alacsony latency. De ez nem ökölszabály. Az se véletlen, h az első, kizárólag felső-kategóriában megjelenő Bulldozerben nincs is integrált GPU. Meg a felsőkategóriában később sem lesz, jó eséllyel.

    Ui: ennél a latency vs. bandwith dolognál gondolj csak arra, hogy a diszkrét GPU-kra jobban hasonlító, alaplapi chipkészletbe integrált GPU-kon mennyit dobott mondjuk egy 1333MHz-es SidePort a közelébe építve, az akár 2GHZ-es DDR III rendszermemóriához képest az alacsonyabb késleltetés miatt. (Ugyanúgy 64 bit volt a sávszélesség, amivel elérte.) Ez meg ahhoz képest is nagyságrendi ugrás. Persze nem ezt demózták az AvP2-vel, hanem a LLano-t. :D

    [ Szerkesztve ]

  • lenox

    veterán

    válasz con_di_B #147 üzenetére

    1-2. Dontd el, hogy azt allitod, hogy bizonyos extrem esetben, vagy leggtobbszor igy van. Elobbi eset szamomra nem erdekes, utobbi esetben ezek szerint te azt allitod, hogy barmely gpu-s feladatban a szinkronizacio miatt ez a platform tobbszor gyorsabb lesz, mint barmely diszkret gpu. Arra meg akkor fogadjunk.

    3. Ha jobb a masolgatas, akkor nyilvan masolgatni kell. De ez erosen feladatfuggo, hogy mennyire lehet elfedni a kesleltetest, es hogy mennyi adatot, milyen gyakran kell elerni.

    Szerintem nem erdemes nagyon talalgatni, hogy mit gondolok, meg szerintem gpu temaban is eleg jo tapasztalatom van. A konkret esetben pontosan azt gondolom, hogy ezt a platformot es egy eros diszkret gpus platformot osszehasonlitva atlagos feladatnal ennel komolyabb bottleneck lesz a bandwidth, mint a diszkret gpus esetben a kesleltetes.

    #148 Na ne kezdj el visszakozni, szo sem volt ugyanannyi penzrol meg tdp-rol vagy helyrol, pontosan a felsokategorias gpu-krol volt szo. Latom vegiggondolva mar kezded atlatni, es igy probalsz kihatralni, de resen vagyok. Mar evek ota errol van szo egyebkent, Abu szerint az integracio miatt a diszkret gpu-k kihalnak, szerintem es meg neha mas is egyetert a diszkret gpu-k addig mindig nagyobb teljesitmenyt fognak hozni, amig nem lesz az integralt chipnek olyan memoriarendszere, mint amit a vga-kon csinalnak (egyebkent a ket allitas nem teljesen ellentetes, hiszen hiaba gyorsabb valami, ha uzletileg nem tud megelni). Nyilvan nem az entry level vga-krol van szo, hanem az erosebbekrol, legutoljara 100 dollar felettieket emlegettunk. Ez a platform is egyelore a 40-50$ koruli vgakig er csak fel. Mondjuk az tisztesseges, nem azt mondom, de nem nagyon latom, hogy merfoldko lenne altalaban, csakis az integralt megoldasok kozott.

  • Abu85

    HÁZIGAZDA

    válasz lenox #145 üzenetére

    Remélem megnézted, hogy az első generációs Atom mennyivel nagyobb kiterjedésű, mint a második generációs. Főleg az Ion platformmal. :) A Pine Trail és a Brazos ennél kevesebb helyet követel. Mindez ugye feltétel, mert a gyártók is csökkentik a termékek tömegét, és vastagságát, következésképpen kisebb dizájn is kell az alaplap területén. Lehet, hogy még nem vetted észre, de 2011-ben az a cél, hogy az eddig bemutatott netbook és notebookoknál vékonyabb termékek lássanak napvilágot. Akár extrém vékony Macbook Air stílusúak. Ehhez elengedhetetlen egy apró alaplapi dizájn, amire elfogadható fogyasztás mellett egy mód van. Gondolom kitalálod, hogy mi. :)

    Konkrétan az események szinkronjára gondolok. Az egy buszon keresztül nagyon fáj. Eddig ezért nem használták a fejlesztők, mert olyan késleltetések mellett, ami van a buszon értelmetlen. A rendszerszintű integráció értelmet ad ennek.
    Én nem a Fusionról beszéltem, amikor az integráció értelmét elemeztem, hanem a konkrét előnyökről, amiért minden vállalat erre megy. Bár szerinted minden cég idióta mérnököket alkalmaznak. :))
    Nem, nem arra az ábrára gondoltam. A bemutató csak egy elméleti dolog volt. Az NV azt vizsgálta, hogy mire jó a CPU (más néven latency optimized core) és a GPU (throughput optimized core). Külön külön fel voltak sorolva az előnyök és a hátrányok, vagyis egymás kiváltására nem jók. Itt jutott el az elmélkedés oda, hogy miért alkalmazzunk a gépekben CPU-t és GPU-t. De a köztük lévő kommunikáció lassú, és a buszok fejlődése sokkal lassabb, mint ahogyan a lapkák fejlődének, vagyis találni kell valamit, amitől gyorsabban kommunikálhatnak. Konklúzió: megoldás az integráció és heterogén módon programozható lapka. A chipben van latency és throughput optimized core, vagyis a programozó dolga sokkal szabadabb, és természetesen közös memória. Nyilván itt kérdés volt, hogy mi lesz a latency optimized core, amire nem érkezett válasz, de én feltételezem az ARM-ot, mert a Windows 8 futni fog rajta. Ergó az NV egy olyan platformot kínál, amin fut majd a Windows 8, ami elég nagy szó. A hírek szerint a Kepler már ilyen lesz, de a Maxwell biztos. Arról nincs szó, hogy lesz-e belőlük hagyományos grafikus kártya PC-be. Elképzelhető, mert kivitelezhető dolog, de a platform fontosabb, sőt a NV integrációja nem zárja ki, hogy ne rakj mellé pár NV GPU-t. Ezekkel a módosításokkal a cGPU operációs rendszert tud majd futtatni, és ez az NV célja, komplett platformot kínálni, és elszakadni az Intel akaratától.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák