Keresés

Hirdetés

Új hozzászólás Aktív témák

  • CPT.Pirk

    Jómunkásember

    válasz Abu85 #9 üzenetére

    Köszi!

    Nincs más - csak egy szál gitár - szidom a rendszert - forradalmár. - Én vagyok egyedül 88 telén. (Auróra)

  • Dave™

    nagyúr

    válasz Abu85 #22 üzenetére

    Amennyiben a böngésző támogatja. Na de a gpu az tiszta, nem az a kérdés, hanem hogy a számítási teljesítménye az 1GHz-es Ontarionak hozza-e a másfélszer akkora órajelű Atom N550 teljesítményét. Azzal tisztában vagyok, hogy az órajel megtévesztő lehet (lásd atom), de nem tudom erősebb-e az Ontario az Atomnál ezen az alacsonyabb órajelen. Normál, hétköznapi felhasználás szempontjából (gördülékeny multi tasking meg hasonlók).

  • DBob

    őstag

    válasz Abu85 #22 üzenetére

    Én kicsit tartok ezektől a gpus gyorsításos jövőtől. Ugyanis a rendelkezésre álló erőforrások nem arra fognak elmenni hogy az eddigi megoldások gyorsabban, jobban működjenek, hanem hogy legyen mivel kitölteni azt megint a működés határáig.

    Amíg a 90-es évek közepén-végén az animgifes "eyecancer" oldalakkal töltődött meg a memória, ezredforduló elején a flash megjelenése vitte el a sávszélességet, ami addigra már egészen megfelelő volt, utána a flash elvitte a maradék erőforrásokat megint, lassan már kevés volt a p2 az átlag böngészéshez. Majd elkezdődött a videók flashbe ágyazódása, aminek köszönhetően már a p3 se volt elég a "felhőtlen böngészési élményhez". Mára eljutottunk oda, hogy szinte bármilyen lap főoldalának a hasznos információ csupán töredéke az egyébként jelen lévő adat mennyiségnek, mert úgy nézz ki minden mint 10-15 évvel ezelőtt, csak az animgif szerepét átvette a villogó, zenélő, videós flash bannerek tömkelege (valaki vette a fáradtságot, nem tudom már ph-n vagy valamelyik levlistán, és megnézte mennyi az index főoldala adblockkal és anélkül..előbbivel 400-500kB, majd több mint 6MB).

    Személy szerint én azt prognosztizálom, hogy a böngészőgyorsítás ha beválik, pár éven belül megint kötelező lesz váltani akár az igp-s p4ekről is, nem csak az atomokról, mert használhatatlan lesz a web ha nincs egy legalább aktuális viszonylatok közt alsókategóriás, játékra is korlátoltan alkalmas gpu a gépben / cpuban....pedig én (és sokan mások) beérném egy rendes html/css kombóval :U

  • Dave™

    nagyúr

    válasz Abu85 #29 üzenetére

    Én még mindig úgy érzem, hogy ez nem a kérdésemre válaszol :D

  • DRB

    senior tag

    válasz Abu85 #29 üzenetére

    Nem értem a mi a különbség ahhoz képest ami eddig volt(most tíz centivel közelebb került a GPU a CPU-hoz), ettől mi lett "heterogénebb"? Persze sok minden egyszerűbb, ez tény, de nem ez lett mint cél megjelölve, hanem a programozhatóság, de az pedig nem változott. Eddig is lehetett CPU+GPU-ra írni programot, eddig is volt OpenCL, tehát a lehetőség adott volt, de mégsem lelkesedett túlzottan ezekért senki. Most ettől a lehetőségek nem lettek jobbak, így pont nem vágom mitől lenne nagyobb a "lelkesedés".

  • DBob

    őstag

    válasz Abu85 #36 üzenetére

    Ez szép és jó alapvetően. Az én gondom ott gyökerezik, hogy ezzel sajnos nem nő arányosan a fellelhető információ mennyisége, minősége, értéke hanem épp ellenkezőleg.

  • Zanik

    addikt

    válasz Abu85 #36 üzenetére

    Ha jól sejtem, akkor ez a WebGL jól fog jönni a HTML5-höz, ill. ha pl. teret nyer egyszer a Cloud-ban való játszás, nem igaz?

    Origin/Steam: PaJKoS PSN: PaJKoS82

  • Zanik

    addikt

    válasz Abu85 #46 üzenetére

    Igen, de tegyük fel hogy egy webes felületen keresztül játszok egy cloud-ban renderelt játékkal, akkor még ha nem is az én gépem számolja ki a megjelenítendő képet, magában a megjelenítésben nem segíthetne be a APU-ban lévő gpu egység? :F

    [ Szerkesztve ]

    Origin/Steam: PaJKoS PSN: PaJKoS82

  • DRB

    senior tag

    válasz Abu85 #43 üzenetére

    Ezt is értem amit mondasz, sőt egyértelmű is volt számomra eddig is, de még midig nem világos, hogy ez mitől hozza meg a lelkesedést. Sőt az is felmerült bennem, hogy rendben, hogy az adatok nem kerülik meg a "fél földet" mire a GPU-tól elérnek a CPU-ig(meg vissza), de azért pl a diszkrét VGA-n lévő rengeteg saját memória, ami ráadásul igen gyors is, vagy a 10x(vagy még több) nagyobb GPU teljesítményt a csökkentett késleltetésekkel sem lehet utolérni, legalább is jelenleg semmiképpen, de hogy a jövő mit hoz azt nem tudni, viszont ahogy fejlődik az integrált GPU úgy fejlődik a diszkrét is, már ha akarják. Így hiába nő a APU teljesítménye, úgy nő a diszkrété is.
    Nade nem én irányítom a világot, pedig ha rajtam múlna akkor biztos lenne ilyen is, de nem mint egyetlen járható út, csak mint egy estleges lehetőség. Igazából ebben az egészben azt érzem, vagy inkább úgy fogalmazok: azt is érzem, hogy valaki(k) megmondja(mondják) mi a jó nekünk és mi meg vadul bólogatunk hozzá.

    [ Szerkesztve ]

  • DRB

    senior tag

    válasz Abu85 #53 üzenetére

    "az Intel-Radeon páros nem tetszik neki"
    :DDD

    Nekem full AMD-s a gépem, és használnám is az olyan progikat amiket írsz, de évek óta(nagyjából a HD38xx óta) fennáll a lehetőség, hogy írjanak ilyet de alig teszik.
    Én multimédia fejlesztő vagyok, lelkes is vagyok, de a programozó kollégák valahogy nem azok, de majd rugdosom őket kicsit, sőt bele is kontárkodok a munkájukba ha kell, mint ahogy ők is az enyémbe. :D

    (#55) CPT.Pirk:

    Azért akad olyan konvertáló program ami kihasználja a CPU+GPU párost, de nagyon kevés.
    Lehet, hogy most több lesz majd(remélem), és azt is hogy nem kötelezően csak APU-n fognak menni.

    [ Szerkesztve ]

  • Zanik

    addikt

    válasz Abu85 #53 üzenetére

    Értem, kössz. Én azt hittem hogy van lehetőség a kliens oldali gép erőforrásait is hasznosítani valahogy, bár így jobban belegondolva csak feleslegesen túlbonyolítaná a dolgot. Valahogy úgy vagyok vele, hogy nem szeretem ha valami feleslegesen kihasználatlanul marad, bár azt se, ha valami feleslegesen energiát fogyaszt! :DDD

    Origin/Steam: PaJKoS PSN: PaJKoS82

  • Oliverda

    félisten

    válasz Abu85 #53 üzenetére

    Tapasztalataim szerint általában addig nem nagyon foglalkoznak komolyabban egy API támogatásával az sw fejlesztők ameddig nincs megfelelő minőségű és mennyiségű hardveres támogatása. Lásd multicore és társai.

    "Minden negyedik-ötödik magyar funkcionális analfabéta – derült ki a nemzetközi felmérésekből."

  • con_di_B

    tag

    válasz Abu85 #88 üzenetére

    Egy "mezei" 8 szálú prociban is ugyanúgy vannak lappangó SIMD képességek, pláne most, hogy jön az AVX is. Az új, heterogén programozási felületeket ezekre is lehet implementálni, és akkor máris "gyorsítva" van. Készülgetnek is vele.

    he7edik barátunknak abban nincs igaza, hogy egy CPU mag felépítése feleslegesen komplex stream jellegű feladatok megoldására, szóval a mostani irányvonal arról szól, hogy hogyan tudnánk performance/watt alapon nagyobb elméleti hatékonyságot elérni ezekben a gyakran használt feladatokban.

    [ Szerkesztve ]

  • DRB

    senior tag

    válasz Abu85 #100 üzenetére

    Akkor nem tudom, de nem itt van a félreértés(már ha van), a szó itt is a különbözőségre utal. Úgyhogy továbbra is marad a véleményem: az eddigi hardverekhez(CPU+ diszkrét GPU) is heterogén programozásra volt/van szűkség, így ezen a téren nincs változás, nem könnyebb az APU-t programozni mint egy CPU + diszkrét GPU kombinációt, ergo ha zsákutca a többszálú "homogén" programozás(tényleg az lenne, vagy csak a programozók maradtak le a kanyarban??) akkor a heterogén többszálú programozás mitől ne lenne az? :F
    És még egyszer hangsúlyoznám, és nem elsősorban a mobil vonalra gondolok(szóval valójában szét offolom a topikot :D), ott tényleg hasznos ez a fejlesztés, amúgy is az IGP volt többségben eddig is, és ez mit sem fog változni.

    [ Szerkesztve ]

  • DeckardCain

    senior tag

    válasz Abu85 #101 üzenetére

    Muszály. ;] Most már csak ez hiányzik a htpc-ből amit összeraknék.

  • lenox

    veterán

    válasz Abu85 #43 üzenetére

    Mar a masik topikban (link) is kertem, erre mutass mar legyszi egy linket, mert szerintem ilyen, hogy a gpu es a cpu egymassal kozvetlenul adatot cserel nincs egyelore, meg nem is latom, hogy hogyan lehetne, hiszen egy 80 shaderes (2x40) tomb akkor tud jo kihasznaltsaggal dolgozni, ha pl. 1000 threadet inditasz el rajta, akkor pedig legtobb esetben 1000 pl. 32 bites eredmenyt kapunk, ezt hova rakjak a cpuban? Mert szerintem egyelore sehova, szepen ki kell menni a memoriaig. Persze esetleg kesobb lehet majd pl. kozos levelx cache, de most nem igy mukodik.
    Nem feltetlenul kapcsolodik, csak felvetnem, hogy tudtommal egy opencl kernel launchnak tobb nagysagrenddel nagyobb a kesleltetese, mint akar a pcie akar a memoriabusznak (100 vs 1 microsec).

  • Male

    nagyúr

    válasz Abu85 #105 üzenetére

    Arra a részére nem válaszoltál, hogy most hogy is van az adat-csere az x86-os rész és a "GPU" rész között. Ez (számomra) a cikkbeli ábrából sem derül ki sajnos.

  • lenox

    veterán

    válasz Abu85 #105 üzenetére

    Pcie x1-en nagysagrendileg 25-szor tud a 720p-s adat odamenni majd visszamenni egy masodperc alatt. De nem x1 van a normalis rendszerekben hanem pcie 2.0 x16, azon mar akar 500-szor is tudna, szoval semmi szukseg ennel gyorsabbra. Az x1 nyilvanvaloan azert volt, hogy az ion2-t szopassa az intelt. Mert annyira felt a nem integralt gpu-tol, amit nem o ad el. Ez pont az ellen erv, amit te mondasz, nevezetesen, hogy csak az integralt, egybetokozott rendszer a nyero, ha igy lenne, akkor mi szuksege lett volna erre az intelnek?

    Igen az APU heterogén programozása az lényegében CPU+GPU, de nincs közte lassú busz, vagyis az eddigiekhez képest az adatcserével sokkal bátrabban lehet bánni.

    Ezt mar sokadjara irom, hogy nem igy van. A Fusion eseteben is ki kell menni a memoriaba, ott at kell masolni a masik memoriateruletre az adatot, es utana tudja a masik egyseg hasznalni. Lehet, hogy par szazalekkal gyorsabb lesz, mint ugyanez a pcie buszon keresztul, viszont joval lassabban fog processzalni, raadasul amikor mindket oldal processzal, akkor osztoznak a savszelessegen. Ahhoz, hogy gyorsabb legyen az adatmozgatas, ahhoz is az kell, hogy 10-12 GB/sec folotti valos memoriasavszelesseget tudjon (es akkor meg a processzalasrol nem beszeltunk). Egyelore semmelyik desktop nem tud ennyit, lehet, hogy most majd fog tudni, a mobil verzio spec joval kevesebbet tud, szoval az nem lesz gyorsabb, mint diszkret vga-val.
    Nem azzal van a baj az integralasnal, hogy egyben van a cpu es gpu es esetleg ezek kozvetlenul kommunikalhatnanak, amit a Fusion eseteben meg nem tesznek meg (tehat a Fusion is oda-vissza toltoget), hanem azzal, hogy egy mai normalis gpu-t egy mai alaplap architektura csak eheztetni tud. Ha barki (akar az nv is) felpakol egy kartyara 100-200 GB/sec savszelessegu memoriarendszert, es ehhez koti oda az akar kulon, akar egyben levo cpu magjait es gpujat, akkor az egy killer rendszer. Ha ugyenezt 10-20 GB/sec-es memoriarendszerrel teszi, akkor az semmi kulonos. Persze mobil eszkoznel ar/meret/fogyasztas szempontjabol jobb, mint ugyanez diszkret gpuval. Desktopnal is jobb, de csak gazdasagilag, mert az intel vagy az amd maguk begyujtik az osszes penzt, nem kell chipsetgyartonak adni, vagy entry levelnel gpu gyartonak (bar ez mar a chipsetbe integralt vga-nal is megvolt).
    Persze, lehet abrat mutogatni, hogy ez a cpu teljesitmeny novelesenek egyetlen utja. Abban meg az a csusztatas, hogy igen, a cpu teljesitmenyet noveled ezzel, de nem a cpu/gpu paroset. Szoval azzal lehet ervelni, hogy ez gazdasagilag nyero, az viszont tevedes, hogy ez teljesitmeny szempontjabol nyero lenne. Ahhoz meg 2 dolog hianyzik, a gyors adatcsere (ami szerinted megvan, de szerintem meg nincs), es a gyors memoriarendszer. Az elsot egyebkent nem lenne lehetetlen megcsinalni, tobb lehetoseg is kinalkozna ra (pl. chipen beluli levelx cache-en keresztul (bar ez eleg sok problemat felvet), vagy pl. hogyha masolas nelkul at lehetne adni az adatot), lehet, hogy egy kovetkezo generacioban benne is lesz valamilyen megoldas, de egyelore ezek nincsenek meg.

  • lenox

    veterán

    válasz Abu85 #128 üzenetére

    Ne ferdits, te jottel elo az ion2-vel,hogy ahhoz kepest mekkora haladas. Pont azt mondom, hogy persze, ahhoz kepest haladas, csak kar, hogy a nem mestersegesen lekorlatozott es szivatott platformokon x16 van, raadasul 2.0, ahol annyival tobb a bandwidth, hogy nem korlatoz semmit.

    Mobil iranyban mar lattam benchmarkot, olyan 3-4 GB/sec-et tud memoria teren, ezt tehat jol elveri a pcie x16. Desktop benchmarkot meg nem lattam, de az vilagos ugye, hogy az elmeleti meg a valos sebesseg az nem ugyanaz, ezert is irtam, hogy valos. Eddig nagysagrendileg 50-60%-at tudtak hozni az elmeleti sebessegnek, nem latom, miert ne felteteleznem, hogy ezutan is ennyit fognak tudni, szoval a valos lesz mondjuk 13-16 GB/sec desktopon, es mivel ugyanonnan olvasod az adatot, ahova irod, ezert ez 6.5-8 GB/sec-es pcie sebessegnek felel meg. A pcie buszon valos 5-6 GB/sec adatot lehet atvinni, tehat ez mondjuk 25-30%-os novekedes a transzfer speedben (de ennel joval nagyobb hatrany processzing kozben, szoval nemigen eri meg). Persze csak akkor, ha olyan programot futtatunk, ami csak egy iranyba kommunikal, mert a pcie full duplex, tehat ott visszafele is tud menni kozben ugyanez, akkor spec 30% hatranyban van ez rendszer a pcie--hez kepest. Ugyhogy szerintem ezt a 'Ha szerinted...'-et kicsit elhamarkodtad. Nem vagy alig gyorsabb az adatcsere, es nem belso.

    Az a bajom amugy a cikkel, hogy azt sugallja, hogy ez mekkora performance elonyokkel jar az eddigi rendszerekhez kepest. Pedig valojaban csak az eddigi integralt rendszerekhez kepest jar performance elonnyel, a diszkret gpu-val ellatott rendszerekhez kepest nem. Persze az igaz, hogy az elso integralt lapka, ami heterogen processinget is tud. Csak ettol nem lesz gyorsabb, mint egy korabbi lapka diszkret gpu-val. Ez hianyzik belole.

  • lenox

    veterán

    válasz Abu85 #143 üzenetére

    És szerinted egy Atom méretű holmiban lehetséges volt akkor PCI Express x1 kapcsolatnál többet kiépíteni?

    Nvidia Ion? X16 + 4*X1.

    És a dedikált GPU fedélzeti memóriájába Panni néni majd bevarázsolja az adatokat ugye? :) A másik dolog, amiről megfeledkezel az a késleltetés. Minél több buszt használsz, annál több időd megy "kárba".

    Nem tudom, hogy ertetted-e az elozo hozzaszolasomat. Amikor a transfer speedrol beszeltem, az neked nem azt jelentette, hogy az adatok bemennek, vagy kijonnek a gpu fedelzeti memoriajabol? Erted, apu vs pcie, egyiknel ennyi a transfer speed, a masiknal annyi... A kesleltetes alatt a latency-re gondolsz? Mert ugye azt mar irtam fent, hogy egy opencl kernel launch kesleltetese tobb 100-szor annyi, mint a pcie busze, tehat tul sok jelentosege nincs. Ha csak arra gondolsz, hogy ki kell varni, mig odaernek az adatok, akkor meg az a transfer speedel fugg ossze, lasd fent.

    Ettől függetlenül megértettem a mondandód, és nyilvánvaló, hogy azért megy minden vállalat ebbe az irányba, mert nem jár előnyökkel. :)

    A masodik felebol ugy tunik nem erted, hogy tobb szempont van, amiben ez a mostani Fusion jobb a diszkret gpu-knal, a sebesseg spec. nincs koztuk. Pl. SoC-nal neveben is benne van, hogy az integraltsag a fo tenyezo, nem a sebesseg, hogy ezt milyen megfontolasbol hoztad fel peldanak??? Na majd meglatjuk a teszt eredmenyeket, ha lesznek, vajon egy csucs amd vagy nv kartyaval lesz-e nagyobb a teljesitmeny, vagy anelkul...
    Azert meg egyszer megprobalom. Ennek az APU design-nak a bottleneckje a memoriabusz. A gpu-t etetni kell adattal. Vajon ez hogy fog jobban menni, ha a cpu/gpu parosnak osszesen van elmeleti 27 GB/sec-je, vagy ha osszesen 180 GB/sec-je van. Szerintem a masodik esetben, szerinted az elsoben... Emlekszel, mi volt felirva az nv abrajara amire hivatkozol? 1.4 TB/sec. Na ok etetik adattal rendesen. Mondjuk ezt mar tobb, mint egy eve mondjuk neked emlekeim szerint, es meg mindig nem hiszed el.

  • erdoke

    titán

    válasz Abu85 #150 üzenetére

    Várjuk meg, mit mond a MS ezzel kapcsolatban. Nem vagyok benne biztos, hogy a CES folyamán részletes információkkal szolgálnak arról, hogy pontosan milyen lesz a Windows 8, illetve hogy külön lesz ARM-es változat, vagy egybegyúrják az egészet. Program oldalról is kérdéses az egész, virtualizációval pont a hely- és energiatakarékosság veszik el.

    A legjobb aláírás a héten

  • lenox

    veterán

    válasz Abu85 #150 üzenetére

    Nem, nem neztem meg, mert nincs jelentosege, az egesz amiatt jon fel, hogy lehet-e a mobil eszkozben x16, igen lehet. Es igen, jol latod, hogy a meret a lenyeg, erted, nem a maximalis teljesitmeny. Eddig is ezt mondtam.

    Konkrétan az események szinkronjára gondolok. Az egy buszon keresztül nagyon fáj. Eddig ezért nem használták a fejlesztők, mert olyan késleltetések mellett, ami van a buszon értelmetlen. A rendszerszintű integráció értelmet ad ennek.

    Ez szerintem tevedes, pl. en is hasznaltam. Nyilvan en csak egy vagyok, de ettol meg lehetett hasznalni, aki akarta hasznalhatta, nem tulzottan valtozik semmi azzal, hogy most joval kisebb latency van, illetve annyi valtozik vele, hogy bizonyos algoritmusok ezzel hatekonnya valhatnak, kar, hogy csak limitalt teljesitmeny mellett van igy, ha nagyobb teljesitmeny kene, akkor nincs kis latency opcio, mert muszaj diszkret gput hasznalni, azzal ugyanis gyorsabb a rendszer.

    Én nem a Fusionról beszéltem, amikor az integráció értelmét elemeztem, hanem a konkrét előnyökről, amiért minden vállalat erre megy. Bár szerinted minden cég idióta mérnököket alkalmaznak. :))
    Nem tudom mire velni, hogy tovabbra is ugy teszel, mintha nem ertened, hogy nem csak egy cel lehet, pl. a max teljesitmeny biztos nem volt cel 2011-re, nem is ertek el, ettol meg uzletileg ennek van ertelme. En a mernokoket biztos nem idiotaztam le, de a mernokok tul szoktak latni a marketing rizsan. Spec en mar 2006-ban is kerdeztem az amd-seket, amikor jottek fusion-t prezentalni, hogy jo, de mit csinaljak vele, ha nem raknak ala gyors memoriabuszt, akkor ez tul gyors nem lesz. Mondjuk ok nem is ertetlenkedtek ennyit, mint te, hanem mondtak, hogy igen, de nem is az a celja.

    De a köztük lévő kommunikáció lassú, és a buszok fejlődése sokkal lassabb, mint ahogyan a lapkák fejlődének

    Igy van. Ezzel egyutt ha kiherelt memoriarendszert raksz az integralt chiped ala, akkor nem gyorsulni fog, hanem lassulni. Ahhoz, hogy gyorsuljon kell nagy memoriasavszelesseg is. Ezt kene mar felfogni. Persze sejtem, hogy valojaban mar reg egyetertesz, csak kotod az ebet a karohoz.

    #151:

    A késleltetés érzékenységnél meg maradok annál amegfogalmazásomnál, hogy sokkal többször, mint gondolnád.

    Ahogy tetszik, nyugodtan lenezhetsz, szerintem van mar akkora szakmai elismertsegem, hogy ebbe ne halljak bele :).

    #153:
    Bocs, de ezek nem összehasonlítható dolgok. A PCIe busz latency-t a belső adatbusz latency-vel hasonlítsd össze, az opencl API hívás idejét meg egy DX API hívás végrehajtási idejével.

    Ok, majd elgondolkozom rajta. De szerintem nincs igazad, mivel a vegrehajtasi ido nem csak pcie latencybol all, tehat erdemes tudni, hogy ennek a latencynek mekkora jelentosege van az egesz processing szempontjabol, tehat hogy hogy viszonyul a tobbi idohoz. Pont ezert erdekes, hogy mar pl. az opencl kernel launch overheadjehez kepest is elhanyagolhato, ugyhogy erre hivatkozva allitani, hogy a diszkret gpu-s rendszerek annyival lassabbak, mint az integraltak, hogy foglalkozni sem erdemes veluk, eleg erdekes.

    #155:
    Mit keverek szerinted? Pontosan mit mivel? Amugy abban egyetertunk, hogy a high-end gpu-k erosebbek, nem pont ezt mondom mar sok hozzaszolason keresztul?
    Kulonben pont most portolok fizika szamitast gpu-ra, szerintem kepben vagyok.

  • lenox

    veterán

    válasz Abu85 #157 üzenetére

    Erdekes, hogy pl. a #128-ban tudtad meg idezni tolem, hogy szerintem milyen elonye van az integracionak, de mostanra meg mar ugy tudod, hogy szerintem nincs elonye, es nyomatod, hogy kit hulyezek le ezzel mar tobb hozzaszolas ota. Terelesnek jo, de amugy nem tartom melto hozzaallasnak, gondolkozz el ezen szerintem. Legyszi a nevemben mostantol ne hulyezz le senkit, majd en megteszem, ha ugy latom jonak, koszi.

    És mégis ki mondta, hogy a második vagy a harmadik generációs Fusion alatt már nem lesz combos memóriaalrendszer?

    Egyelore nem tudok senkirol, aki mondta volna, de azt, hogy mi hianyzik meg az igazi fejlodeshez, azt spec. en mar pont mondtam, ez az egyik. Ugyhogy en varom is, hogy lesz, teljesen logikus lepes lenne. Aztan arrol lehet otletelni, hogy ez azert draga lesz entry level alaplapra tenni, de kell, ezert fel lehet rakni a memoriarendszert a gpu/cpu integralt chippel egy kartyara, es azt bedugni az alaplapba, vagyis hogy idovel az en tippem szerint nem a gpu fog lekoltozni a cpuba, hanem a cpu fog felkoltozni a 'grafkartyara', legalabbis a desktopon. De monduk ez csak egy tipp.

    [ Szerkesztve ]

  • Bogyó bá'

    nagyúr

    válasz Abu85 #164 üzenetére

    Mi lehet az oka, hogy a processzorgyártók nem a chipkészletektől próbálnak "megszabadulni", a processzorba integrálva azt? Néha nagyobb fogyasztású, mint maga a processzor (pl. Intel Atomos chipkészletek...) Korszerűtlen gyártástechnológiájuk miatt (65nm - 90nm) a fizikai méretük is túl nagy, sőt többnyire még az alaplapi "hang-kodek" is külön IC. Miért nem ezeket a viszonylag egyszerű áramköröket építik egybe a processzorral?

    Galilei halott! Már Einstein sem él! ...és én is nagyon szarul érzem magam...

  • Bogyó bá'

    nagyúr

    válasz Abu85 #166 üzenetére

    Tudom, hogy a fizikailag kialakítható lábak száma korlátozó tényező, de pont egy netbook/nettop kategóriájú (ahol leginkább számítana a méret és fogyasztás) gépet amúgy sem szokott az ember ezernyi perifériával bővíteni. 1 db SATA port, sztereó hang, 3-5 db USB (3 db külső + 1 db a beépített kártyaolvasónak + 1 db a webcamnak)
    a legtöbb esetben elegendő lenne...

    [ Szerkesztve ]

    Galilei halott! Már Einstein sem él! ...és én is nagyon szarul érzem magam...

Új hozzászólás Aktív témák