Hirdetés

Keresés

Hirdetés

Új hozzászólás Aktív témák

  • dezz

    nagyúr

    válasz Jack@l #78 üzenetére

    Én itt valaki másnak az állandó, tudatlanságból eredő és/vagy alapvető ismereteket szándékosan figyelmen kívül hagyó erőlködését látom.

    (#80): Olyan nincs, hogy csak CPU-n megvalósítható (már a számítások terén, nem OS kernel futtatásban), legfeljebb kevéssé hatékony GPU-n, de még ezt sem hiszem, mert elég jól skálázodik sok magon.

    Melyik perpill legszebb path-tracing renderelő?

    (#79) a_n_d_r_e_w: Értem, amit mondasz, de úgy tűnik, te nem érted, amit mások mondanak: túl kevesen vennének meg egy ilyen procit, hogy megérje a ráfordítást. Már a 8xxx szériát is kevesen vették.

    Az egyedüli kitörési lehetőségük most az APU-k, a HSA, stb. Szponzorálnak is néhány fejlesztőt. Persze elég nagy szembeszélben vannak egyelőre. Az Intel könnyen rájuk tud licitálni, de már ők sem nyomhatják sokáig a CPU-only politikát.

    Nem vagyok biztos benne, hogy 8db 2 GHz-es Jaguar annyira lenyom 4db 4 GHz-es Steamroller magot. De még ha erősebbek is valamennyivel, az eltörpül a GPU számítási teljesítménye mellett.

  • pakriksz

    őstag

    válasz Jack@l #78 üzenetére

    persze az intel meg a fejlődés netovábbja: mindenre használjunk CPU-t, azon is 1 szálat... Innen indult az egész... a 70-es években és még mindig ugyanott tartanak.

    [ Szerkesztve ]

    Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"

  • dezz

    nagyúr

    válasz Jack@l #88 üzenetére

    Értettem, de jobb kijavítani a pontatlanságaidat, mielőtt megragad a fejekben.

    "tudniillik a gpu nem mindenható, hanem célhardver"

    Ma már sokkal kevésbé célhardver, mint korábban. A GCN-t kimondottan computingra fejlesztették (ami grafikai számításokra ugyanolyan jó). A Nvidia új generációs GPU-ival is hasonló a helyzet.

    "Még mindig több a csak cpu-n futó renderelő pl, mint a gpu-s"

    Lásd alább.

    "és gpu-sok általában feature/minőség terén gyengébbek."

    Szerintem kevered a OpenGL alapú leképzéssel, az más történet.

    "Viszont olyat még egy ember szájából se hallottam, hogy kivágom a dgpu+cpu párost a gépemből, mert apu-n jobban fut a cucc, szerinted mikor fogok ilyet tapasztalni/hallani a jövőben?"

    Most ugye csak tetteted a hülyeséget és beszélsz teljesen félre? Erről nincs szó. Arról van szó, hogy a CPU helyét az APU veszi át (számításigényes, eddig a CPU magokat terhelő feladatok átkerülnek az IGP-re), miközben a grafikára ott marad a dGPU. Vélhetően a PS4/XBO játékok egy részét (amik az említett gépeken kihasználják ezeket a lehetőségeket) is így fogják PC-re portolni. Ennél fogva könnyen felzárkózhat a Kaveri egy i7-eshez, adott esetben be is előzheti.

    "6-7éve lehet a dgpu-t is használni "mindenre", mégse használod, miért? 10-20-50x gyorsabban futnak rajta a dolgok mint sokmagos cpu-n."

    Látod, ez a nagy kérdés, amire már válaszoltam is: #76, #77.

    Erre a kérdésre viszont te elfelejtettél válaszolni: "Melyik perpill legszebb path-tracing renderelő?"

    Olyan kérdéseket teszel fel, amire már érkezett válasz, hozzád intézett kérdésekre viszont elfelejtesz válaszolni és közben jól félrebeszélsz. Ez számodra a konstruktív vita, vagy ez nem is célod egyátalán?

    (#108) Tomcat: Opteron vonalon sincs (még?) Steamroller alapú 8-magos. Csakis asztalra meg nem fognak "összedobni" egyet. Hiszen nem lenne versenyképes, teljesítményben még csak-csak, sokszálas alkalmazásban, de telj./fogy.-ban semmiképp és a kis volumen miatt árban sem. Túl kevesen lennének, akik így is megvennék.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #117 üzenetére

    Ha kiröhögöd az APU-t a ray-tracing esetében, akkor nem érted a ray-tracing legnagyobb gondját.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #119 üzenetére

    Én nem látom rajtuk a gondot. Arról viszont nem egy ray-tracinget fejlesztő cég írt, hogy a legnagyobb problémájuk, hogy a sugárkövetésre a mai GPU-k nagyságrendekkel hatékonyabbak, mint a CPU-k, de egy komplexebb jelenet a gyorsítóstruktúrával akár 2 GB is lehet (kb. 1,5 GB-os gyorsítóstruktúrával). És akkor ez még lightos a többi komplex jelenet között, ami ennél jóval több memóriát is igényelhet. Ha most azt a gyorsítóstruktúrát átmásolod, akkor az helyből 48 ms-os időbünti. Akármennyire gyors egy GPU, soha az életben nem hoz be ennyit. Nem véletlen, hogy sokan inkább hagyják a sugárkövetést a CPU-n, mert még így is gyorsabb, mint a GPU-ba másolgatni.
    Dinamikus jelenetnél a gyorsítóstruktúrát folyamatosan frissíteni kell, vagyis folyamatosan egy állandó adatmásolást jelent.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Laja333

    őstag

    válasz Jack@l #116 üzenetére

    Érdekes, hogy egy korábbi hozzászólásodban nyilatkozol ki, hogy szerinted a NV megoldása jobb, ráadásul még mennyire előre tekintenek, aztán meg lehívőzöd a többieket.
    NV-t pont nem érdekli a előretekintés, a fejlesztés. Nekik csak akkor számít a jövő, ha a jelenlegi megoldásuk pénzbevétele veszélybe kerül. Lehet hogy az AMD is csak előre menekül, de legalább fejleszt. Amit te jövőbe tekintésként tüntetsz fel zöld oldalon, azokat már megcsinálta az AMD.
    Ugyan úgy csak a jelenben élsz, mint az Intel/NV páros: most még nem támogatják a szoftverek, akkor ne fejlesszük, most még nem lehet kihasználni = ne fejlesszük. Pont emiatt a felfogás miatt kerülöm a zöldeket meg a kékeket. (Persze ha nem csak játékokra és minimál solidworksre használnám a gépet, most kénytelen lennék én is nagy kéket venni.)

    Egyébként már megfigyeltem, hogy bármilyen cikk készül egy AMD innovációról (csak arról), te majdnem az elsők közt vagy a "ez nem jó mert a másik oldal az akkorisjobbéskész" hozzászólásoddal. Ezek után már kénytelen leszek figyelmen kívül hagyni bármit amit írsz, és remélem teszi ezt mindeni, aki maga mögött tudja hagyni a szűklátókörűségét. :)

  • SylverR

    senior tag

    válasz Jack@l #101 üzenetére

    "Van ahol használhatók lehetnének akár, de akinek power kell(kb mindenkinek aki nem filmezésre meg netezésre használja a pc-t), oda esélytelenek lesznek cpu és gpu oldalon is"

    Nekem tökéletesen megfelel játékra is a Trinitym. Jó, lehetne gyorsabb, egy-két játékban. De semmi bajom vele. :N

    Nem!

  • dezz

    nagyúr

    válasz Jack@l #116 üzenetére

    A szintén a legjobbak közé tartozó LuxRendert meg kimondottan GPU-ra fejlesztik. [link] Akkor hogy is van ez?

    Szerinted mást vagy magadat járatod le, ha konkrét érvekre korrekt válaszok helyett nekiállsz félrebeszélni és személyeskedni? Egyébként meg nem vagyok hívő, csak a tudásod fehér foltjaira azt hiszed, ott nincs is semmi.

    (#117): Nagyszerű, én meg speciel ASM-ben írtam ray-tracert még a '80-as évek végén, ami tudott olyat, amit az akkori legelső ray-tracerek még nem. És úgy vélem, egy APU IGP-je nagyon is be tud segíteni ray-/path-tracingnél is. Ez be is fog bizonyosodni, amint az Intel is letesz az asztalra használható megoldásokat.

    (#120) Abu85: Ezt bizonyára a dGPU-s megvalósításra írtad. APU-k esetén nincs ilyen gond. Legfeljebb olyan tekintetben, hogy jó lenne egy több GB-os belső cache/eDRAM - ami előbb-utóbb lesz is.

    (#122) Laja333: Vannak a hülye trollok, azokra simán rá lehet hagyni a hülyeségüket, mert mindenki átlátja, hogy hülyeséget beszélnek. Aztán vannak a körmönfontabbak. Ott nem árt rámutatni a valótlan állításokra. Utána úgyis leleplezik magukat és akkor már nem kell tovább foglalkozni velük.

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz Jack@l #126 üzenetére

    Mondja a Verolex. ;]

    És megint félrebeszélsz. Lásd amit Laja333 írt a #122-ben!

    Moderálva

    [ Módosította: crey ]

  • dezz

    nagyúr

    válasz Jack@l #130 üzenetére

    Ez inkább fogható a fiatal voltára és talán a fejlesztők sem a terület mesterei, mint a GPU-s gyorsításra. (Ne keverjük ide a GPU-k hw-es, fixfunkciós videoenkódereit, amik nem minőségre optimalizáltak.)

    De már megint kikerülöd a korrekt válaszadást.

    Moderálva

    [ Módosította: crey ]

  • dezz

    nagyúr

    válasz Jack@l #134 üzenetére

    Csak a következőket nem fogod fel:
    1. Egy mai GPU már nem az a GPU, mint évekkel ezelőtt volt. A mostaniak sokkal inkább computingra tervezettek.
    2. Egy APU-nál a CPU és a GPU szoros együttműködése is megvalósítható, hatékonyan. Eddig ennek a PCIe busz volt a gátja. Ez egész más eset, mint amikor GPU-only környezetben kellene jól teljesítenie valaminek.
    3. Abból, hogy ma milyen a CPU-only és GPGPU-s (alapvetően kétfelé bontott, CPU-only és GPU-only részekre, amik keveset kommunikálnak) szoftverek (akár pl. rendererek) aránya, nem következik, hogy ez így is marad.
    4. Eddig az Intel a CPU-only megoldásokban volt érdekelt és ismerjük az Intel érdekérvényesítő képességét. A fizikai törvényeket azonban még ők sem tudják felülírni, ezért ők is nyitottak a GPU-s computing felé, ma már az ő PC-s procijaik is lényegében APU-k, még ha nem is úgy nevezik. A Kavari új képességeit is igyekeznek átvenni. A továbbiakban ők is a GPU-val való gyorsítás elterjedésében lesznek érdekeltek, és ez meg is mutatkozik majd a sw-fejlesztésben.

    Mondj valós ellenérvet, ha tudsz, vagy maradj csöndben! Félrebeszéléssel ne rabold mások idejét!

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz Jack@l #134 üzenetére

    "Lesz jó sok kontext switch, meg mégtöbb egymást blokkoló szál majd."

    Na nem ilyen badarságokra gondoltam.

  • ukornel

    aktív tag

    válasz Jack@l #134 üzenetére

    "nem fogjátok igazán fel, hogy mire jó és mire nem az a nyamvadt gpgpu, azt koherens memóriával se lesz több vagy jobb, max gyorsabb."

    Max gyorsabb lesz, na bumm, kit érdekel? Nagy kaland! :))
    (Bocs, én azt hittem, az a lényeg, hogy gyorsabb legyen a számítás, de ha nem, akkor nem. Szerintem szép öngólt lőttél :D )

    Ha már dezz a computingot említette, hadd idézzek az egy hét múlva, a Wignerben megrendezendő "The Future of Many-Core Computing In Science" konferencia (amit korábban GPU-napnak hívtak!) meghívójából:
    >> [...] a konferencia célja, hogy a masszívan párhuzamos programozásban jártas kutatók és ipari szereplők megosszák egymással tapasztalataikat, idén több más cél is fókuszba kerül. Egyfelől az "új generációs hardverekként" emlegetett konzolok és más radikálisan újnak mondható hardver megközelítések miatt szeretnénk a választ keresni arra, hogy a tudomány számos területén mely szoftveres és hardveres megoldások lehetnek a legalkalmasabbak a tudomány művelésére [...]<<
    Szóval, a szervezők már készülnek az APUkra, mert a compute-ba nagyon is beleférnek.

    Emlékeztetnék továbbá arra is, hogy az nVidia tervei szerint (Echelon) 3-4 év múlva már nem lesz dGPU-s gyorsító, csak integráció. Az Inteltől a Knights Landing 14 nm-en LGA socket-be (is?) jön, hogy a PCI-E ne korlátozza a teljesítményt.
    Most akkor az AMD a hülye, mert előbb valósította meg az integrációt? :F

    [ Szerkesztve ]

  • ukornel

    aktív tag

    válasz Jack@l #138 üzenetére

    "Kis adatmozgatásos dolgokban viszont nem változik szinte semmit(dgpu sokkal gyorsabb lesz még mindig)."

    A compute területen a "kis adatmozgatást" elég súlyos megszorításnak érzem.

    "Folytathatjuk az elmélkedést, majd amikor az igp-k kiváltják a 3-4-sok kártyás compute rendszereket."

    Mindennek eljön az ideje.
    Egyrészt, amint elterjednek a koherens memóriára építő programok, a diszkrét kártyák hátrányba kerülnek számos feladatban, és ezt nem lehet nyers krafttal kompenzálni.
    Másrészt,a gyártástechnológia fejlődésével egyre kisebb kompromisszum lesz azt a négy-nyolc "CPU" magot (ARM/x86) besuvasztani a munka oroszlánrészét végző sok-sok kis "GPU" mag mellé.
    Harmadrészt, a dVGA szegmens folyamatosan szűkül, és a dGPU relatíve egyre drágább lesz.
    A több kártyát pedig egy jó fabric segítségével az APUk egymás mellé pakolászásával váltják ki.

  • dezz

    nagyúr

    válasz Jack@l #138 üzenetére

    Mi nem változik? Miről beszélsz egyátalán? Esetleg befejezhetnéd a megalapozatlan, se füle-se farka kijelentéseket, akkor nem ingerelnél másokat válaszadásra.

    Te magad írtad korábban, hogy bármilyen erős is egy GPU, nem minden feladatra optimális. Főleg önmagában. Ezért előbb-utóbb a nagy GPU-k mellé is integrálásra kerülnek CPU magok. Ez a konfiguráció olyan feladatokra megfelelő, ahol továbbra is a GPU végzi a munka oroszlánrészét, miközben a CPU magok olyan részfeladatokat látnak el, amiben ők a jobbak.

    Lassan nem lesz olyan proci sem, amiben ne lenne több-kevesebb parallel compute unit. Sok feladat van, ami összességében a CPU-n fut jobban, de részfeladatokat át tud venni a GPU, mégpedig sokkal gyorsabban elvégezve.

    Figyelmedbe ajánlanám, hogy ezek itt tényállítások. Ha mond ez a fogalom valamit, mert egyre inkább úgy érzem, hogy nem.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #145 üzenetére

    Először is érdemes lenne ránézni, hogy egy GPU miben különbözik egy CPU-tól. Igazából a logikai felépítést vizsgálva semmiben. Amit rá tudsz rakni egy SIMD-re a CPU-n azt sokkal hatékonyabban rá tudod rakni a GPU-ra. A gondot mindig az jelenti, hogy a host és a device memória között másolni kell adatot, ha ez eltűnik, akkor minden hátrány megszűnik. Effektíve a GPU-t még egyszerűbb is programozni, mint a CPU SIMD-et, mert nem kell manuálisan vektorizálnod és a szálakkal sem foglalkoznod. A párhuzamosítás főleg azért nehéz, mert mi tesszük azzá azzal, hogy menedzseled szálakat és a szinkronizációt, illetve a SIMD kihasználásánál kezeled a függőséget. Ezek egy SIMT GPU-nál nem létező gondok.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #148 üzenetére

    Ami meg van írva SSE, AVX, SIMD-akármire az GPU-ra is megírható. Még hatékonyabban és jobban is. A gondot az adatmásolás jelenti, mert hiába a gyorsabb GPGPU-s munkavégzés, ha az adatmásolás olyan sokáig tart, hogy végül inkább lassulás lesz belőle.

    A szálpárhuzamosság az nagyon nehéz programozási forma. Sokkal egyszerűbb a SIMT (ne törődj a szálakkal, majd a hardver megoldja). A SIMD egyébként szintén adatpárhuzamos és az is van a programokban (SSE, AVX).

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • ukornel

    aktív tag

    válasz Jack@l #145 üzenetére

    "a kompúterrel végzett feladatok, igen csekély fajtája végezhető el érdemben gpu-val, a felépítése/programozhatósága miatt. Nem fogja a windowsod, programjaidat betölteni, kitömöríteni a filejaidat,kezelni a hálózatos dolgokat, perifériákat, programkódot fordítani és sorolhatnám végtelenségig..."

    A Win betöltését, perifériákat, hálózatot stb szerintem más is hagyná a CPU magokra. Nem is ezekhez kell a brutálnagy kraft, hanem a masszív FPU igényes számításokhoz, amik jelentős részben párhuzamosíthatók.
    Itt nem is a GPU istenítése folyik, hanem a heterogén programozás dícsérete, ahol mindegyik fajta mag azt csinálja, miben a legjobb.

    "Ti nagyon sokan abban a tudatban éltek, hogy az majd mindere jó lesz, cpu rész nem is fontos majd, mert mennyi mips meg mag van benne."

    Na erre kíváncsi lennék, hogy honnan veszed.

  • dezz

    nagyúr

    válasz Jack@l #145 üzenetére

    Na hát erre mondják, hogy "elmész a fenébe!". Ennyire sík hülye nem lehet valaki (tehát valójában te sem vagy az), hogy még csak itt tartson, ennyi szájtépés után és úgy egyátalán. Ergo most biztonyítottad be, hogy csak egy troll vagy, aki azt élvezi, ha másokat idegesíthet, húzhat, rabolhatja az idejüket, miközben a figyelem középpontjában van.

    Ez cseppet sem vicces, ugyanis:
    Itt a bizonyíték: a netes trollok pszichopaták

    Keress fel egy jó orvost, amíg nem késő!

    ui. és nem kompúter, hanem kompjúter, ha már így írod.

    [ Szerkesztve ]

  • Reggie0

    félisten

    válasz Jack@l #165 üzenetére

    Nincs itt semmi savanyu. Kb. olyan vagy, mint az egyszeri Jozsi bacsi a viccben: Nem hiszi el, hogy letezik zsiraf, ezert elviszik az allatkertbe. A zsiraf kifutojahoz erve meglatja az allatot, majd felkialt, hogy "Marpedig ilyen allat akkor sincs!"

    [ Szerkesztve ]

  • dfdfdf

    őstag

    válasz Jack@l #168 üzenetére

    Akkor a gondolkodás módodat felhasználva : Ha valaki csinál egy működő szárazföldi vizibiciklit ami tökéletesen működik akkor az nincs is mert csak egy embernek van? rossz már olvasni. Leírták hogy egy GPUn akár egy oprendszer is eltudna futni. Tessék felfogni.....

  • ukornel

    aktív tag

    válasz Jack@l #168 üzenetére

    Nocsak, jól értem, hogy az "APUk kiröhögésétől" eljutottunk odáig, hogy magad kezded összeírni, hogy hol lesz gyorsabb az APU a dGPUnál?
    :C

    A listádból már önmagában csak a nagy mátrixokkal végzett műveletek miatt is megérné az APUkba fektetni, hiszen az erős vasat igénylő ipari és tudományos számítások (végeselem-szimulációk, Monte Carlo, időjárás-modellezés stb) mind ezen alapulnak.
    Az sem véletlen, hogy az AMD az APU13 rendezvényen a Berlin APUt (szóval a Kaverit) olajkutatásokkal is reklámozta.
    Ezekhez kell a póver, nem a perifériákra meg a win bebútolására...

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz Jack@l #168 üzenetére

    "Nem trollkodást kérek, válaszokat."

    :))

    Mondja ezt (az eddigiek mellett) egy olyan indítással, hogy "vagy teszemazt felhasználó programok mennyi részén használható az adatpárhuzamos implementáció.", amire nyilván azt a választ akarja hallani, hogy csak egy kisebb része. Ami igaz is, csakhogy ezek fontos programok. (Közben azt sem tudja, hogy nem "felhasználó programok", hanem felhasználói programok.)

    Fel kellene fogni, hogy egy APU sokkal több helyen alkalmazható, mint egy dGPU, aminek át kell tolni az adatokat egy relatíve lassú buszon, hogy aztán nekiállhasson (a mai rendszerben ez a nekiállás is lassú) szüttyögni vele, majd az eredményeket tolhatja vissza ugyanazon a buszon, és így tovább. Az APU-nál akár egy időben dolgozhat ugyanazokon az adatokon a kettő és nagyon gyorsan csereberélhetik az adatokat. Ennél mélyebbre nem megyek, úgysem értenéd (mint azt eddig bizonyítottad).

    Kb. mindazokban a programokban bevethető az APU, amik viszonylag jól skálázódnak több/sok CPU magra. Főleg, ha még eleve SIMD-esítettek is. Renderelés, tömörítés, videoszerkesztés és enkódolás, képszerkesztés és -feldolgozás, networking, víruskeresés, játékok (most csak úgy végigszaladtam a szokásos teszt-meneten).

    Ebben a teszt-cikkben láthatsz egy pár példát láthatsz arra, amikor már a Llano is sokkal gyorsabb volt (értsd: 20-50x gyorsulás!), mint ugyanazt CPU-ból elvégezve. (Némely esetben a mellé tett HD7950-nel sem teljesített jobban.) És hol volt ekkor még a HSA?

  • Reggie0

    félisten

    válasz Jack@l #168 üzenetére

    Mivel a problemak szama nem veges, igy nem egyszeru valaszolni a kerdesre. Az biztos, hogy a nem parhuzamosithato problemak aranya elegge alacsony. Meg a pascal haromszog szamitasat is sikerult parhuzamositani, pedig latszolag egy abszoluit szekvencialis feladat.
    Lenyegeben minden olyan alkalmazas, ahol vannak tombmuveletek mar nagy valoszinuseggel gyorsabban futnanak gpgpun. Marpedig ez nem egy ritka dolog.

  • dezz

    nagyúr

    válasz Jack@l #174 üzenetére

    Kaptál tippeket, sőt még konkrét példákat is. A vezetőedzősködést hagyd másra.

    (#176) Abu85: "a jellemző GPU kihasználás nincs 40-60% felett"

    Ez ugye átlagértékként értendő? Azaz, pl. az idő 60%-ában 100%-on teker, egyébként meg pihen.

  • ukornel

    aktív tag

    válasz Jack@l #174 üzenetére

    "Félreérterrrél ,azt írtam, hol lehet gyorsabb. nem azt hogy konkrétan gyorsabb is lesz... :) (inkább ilyen van esélye gyorsabbnak lenni feltételezés)"

    Számos alkalmazásban már bebizonyosodott, hogy jóval gyorsabb. Nem csak a jövőről beszélünk tehát, hanem a jelenről is.
    Van amiben biztosra lehet venni, hogy gyorsabb lesz. Van amiben pedig jó az esély, hogy gyorsabb lesz.

    "Időjárást meg nem egy csóró apu-n fognak modellezni, ezt azért te is tudod."

    Egy??!??!!? Inkább száz, vagy ezer!
    Az időjárás-modellezéshez egy Xeon, egy Power7+, vagy akár egy Tesla is "csóró". Sok ilyet rendeznek fürtökbe, hogy értékelhető sebességet és pontosságot érjenek el. Nyilván a Berlin APU kapcsán emlegetett geológiai számítások sem egy árva APUt vennének igénybe.
    Ugye, hogy a PowerPC A2 is milyen "csóró" kis proci. Mégis ebből épültek a Blue Gene szuperszámítógépek - például időjárás modellezésre.
    Különben, nagyon beszédes ez a "csóró" elszólásod, és kezdem sejteni, honnan fúj a szél. Úgy tűnik, hogy a te fejedben az APU = AMD, ami úgymond egyenlő a max négy maggal, gyengébb IPC-vel, alacsonyabb egyszálas teljesítménnyel (Bulldozer széria), illetve a korlátozott órajelekkel és IGP-vel (Kabini széria). Ez egy vérpistikének vállalhatatlan kategória. Pedig az APU nem a magok számától, az órajelektől, vagy a benchmark eredményektől az, ami.
    Valójában az Intel is APUkat ad el, csak nem használja ezt az elnevezést, mint marketingeszközt.
    A különbség, hogy az AMD előrébb jár az integrációban, hogy a sok kis grafikus mag valóban a procit gyorsítsa, és ne csak integrált grafikus egységként szolgáljon. Egyelőre érlelik a koncepciót és igyekeznek megteremteni a szoftveres beágyazottságot. Ha ez megvan, és beválik, és főleg, ha ráharap a piac, akkor előrukkolhatn(án)ak akár 4-500 mm2-es lapkafelületű, lehengerlő teljesítményű APUkkal is, de addig minek? Addig marad a "csóró", 100-250 mm2-es lapkákon való kísérletezés, ami előreviszi a koncepciót, mélyíti az integrációt, fejleszti a feature-öket. Még ha ettől vérpistikének le is lohad az e-pénisze.

    "Látom azóta se nagyon gyülnek a tippek, pedig kiváncsi lettem volna ki mennyire merész."

    Azok után, hogy elengeded mások mondadóját a füled mellett és mellébeszélsz, ne csodálkozz, hogy ignorálnak. Épp eléggé rászolgáltál. Ahhoz képest elég sok példát összegyűjtöttek.
    Figyelmen kívül hagytad azt is, amit én írtam a nagy mátrixokkal végzett műveletek kapcsán. Az én részemről is érik az az "IGNORE".

    morgyi
    "Pont ezért ha már csak egyedül az összes professzionális program közül a Matlabot és a Toolkitjeit átírnák HSA-ra (álom édes álom...) sok kutató és műszaki ember imákba foglalná az AMD nevét"

    Jónak mondod, mert én pont Matlabot használok napi szinten; nyígtam is már emiatt a fórumon :-)

  • dezz

    nagyúr

    válasz Jack@l #187 üzenetére

    Vedd észre, hogy az Intel iránya is ez a mainstreamben. Őket is szorongatja az energiatakarékosság és a fizika, így ők sem tudnak már túl sokat felmutatni a CPU erő növelésében. Pár százalék teljesítménytöbbletért senki sem vesz új procit, így ha nem akarnak visszaeső eladásokat, más irányban kell javítaniuk a teljesítményt, és ez a computing.

    Azt is vedd észre, hogy kétféle felhasználói program van: 1. aminek nem vagy alig számít a számítási teljesítmény, 2. aminek nagyon is. Az utóbbiak nagyobb része már ma is többszálúsított és/vagy SIMD-esített (SSEx/AVX), azaz párhuzamosítottak, így jelentős részüket át lehet vinni GPU-ra is.

    Azt értsd meg, hogy egy mai GPU nagy részét sok egyszerű processzor-mag teszi ki (GCN esetén Compute Unit - mellesleg az AMD a CPU modulokat is így hívja), széles SIMD egységekkel. (Mindez ki van egészítve pár célorientált egységgel és dGPU esetén több memóriavezérlővel.)

    Valami hasonló már egyszer megtörtént, amikor nem lehetett gazdaságosan nagyobb mértékben növelni az egyszálas teljesítményt, és ezért bevezették a több magot. De CPU magok számát sem érdemes sokáig növelni, akkor már jobb egy GPU.

  • ukornel

    aktív tag

    válasz Jack@l #187 üzenetére

    Az Intel a maga óriási büdzséjével generációnként 7-12%-okat tudott előrelépni az utóbbi időben. Az AMD-nek ennél jelentősen nagyobb lépésekben kellene fejlődnie, hogy megelőzze, de bebizonyosodott, hogy a hagyományos módon ez nem megy.
    Én magam is kíváncsi lennék, mit tudnának kihozni a Vishera utódjaként, 8 Steamroller maggal, mondjuk 28mm-es FD-SOIn. Lehet, hogy összehoznának megint egy procit, ami a csúcs 4 magos Haswellt veri bizonyos programokban, átlagban azonban inkább az Ivy szintjén lenne, egy szálon meg a 2500K szintjét ütné meg. Borítékolható lenne egy ilyen proci fogadtatása - és hatása az AMD üzleti eredményére. Egy ilyen komplex, nagy és drága rétegtermék kifejlesztése jókora szeletet kihasítana büdzséből, az AMD-fanok örülnének, de magukban talán kételkednének, hogy tényleg ezt akarták-e? A többség meg megállapítaná, hogy az AMD-nek most se sikerült, és a veszteségek tovább nőnének.
    Erről az irányról le kellett térni.

    Nem igaz, hogy egy négymagos APU visszalépés egy négymagos korábbi procihoz képest. A magok számának feltornászása pedig nem jött be.

    A heterogén irányban benne van a nem 10%-os, hanem akár 10x-es gyorsulás is potenciálisan.
    Igen, kompromisszumokat igényel a lapka tervezése során, mert a sok grafikus számoló nagy helyet foglal. De könyörgöm, mire nem elég négy mag? A felhasználók által használt programok 5%-ára?
    Egy Richland, Kaveri a HT-s i3-ak szintjén van és a legtöbb otthoni felhasználó igényeit jócskán túlszárnyalja - arra egy Bay Trail vagy egy Kabini is elég, sokkal kedvezőbb fogyasztási- és költségkarakterisztikával. Ezek a maguk helyén mind előrelépésnek számítanak. Teljesítményre meg a HSA-val készül az AMD.
    A benchmarhuszároknak átmenetileg biztosan csak az Intel marad. Meg persze az AMD-s topikok telefikázása.

    [ Szerkesztve ]

Új hozzászólás Aktív témák