Hirdetés

Új hozzászólás Aktív témák

  • ddekany

    veterán

    Lehetne bennetek annyi szakmai gerinc, hogy a előre megfontolt aljas szándékkal nem 0-ával kezdő grafikonokat (a JavaScript-es... hogy mutassa, hogy ott is kb 2x olyan gyors, 0.5-ről kezd) kihagyjátok...

  • Abu85

    HÁZIGAZDA

    válasz ddekany #1 üzenetére

    Akkor még két grafikont ki kellett volna hagyni. Egyszerűen nézni kell a tengely kezdőértékét és kész. Ez a kezdőérték már a marketing része, nem tudunk vele mit csinálni. Az oszlop mögött/fölött, viszont ott a valós érték, amit csak le kell olvasni. A cikkben is benne van, hogy a valós alkalmazásnál 50%-ot gyorsult, vagyis jelezni próbáltam, hogy a 100%-ka több mag, nem jelent 100%-kal nagyobb teljesítményt, ahogy azt a grafikon mutatja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • eXodus

    őstag

    Szóval hol van az 5x teljesítménynövekedés, ami a régi grafikonokon volt?

  • mghltm

    addikt

    válasz eXodus #3 üzenetére

    azon meg dolgoznak a marketingesek ;]

    still 4 sale https://hardverapro.hu/aprok/hirdeto/mghltm/index.html || http://www.youtube.com/watch?v=85VErvTqgWc

  • Abu85

    HÁZIGAZDA

    válasz eXodus #3 üzenetére

    Az elméleti érték volt. A CPU-rész tisztán számítva 2x, míg a GPU GFLOPS teljesítménye 3x gyorsabb. 2+3=5x-ös GFLOPS teljesítmény elméletben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • eXodus

    őstag

    válasz Abu85 #5 üzenetére

    Ez már megint bullshit. ;]
    Mint amikor összeadták a 2 mag órajelét és hirdette vmelyik gyártó h 1GHzes telefon....

    Mellesleg csak procitesztben sem tudott még csak a 2x közelébe érni, és GPU teszten sincs 3x közelében... Erre vmi?

  • Abu85

    HÁZIGAZDA

    válasz eXodus #7 üzenetére

    Nyilván az, én csak az elméleti leveztetéssel szolgáltam. A gyakorlat más.

    A fotós tesztben például duplázott a Tegra 3, ha sok a számítás, akkor nem lehetetlen. A játékokban valóban nincs meg a 3x, ez valószínű ezért van, mert a memória 32 bites buszsávszélessége már szűkös a Tegra 3-nak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • fatallerror

    addikt

    és mikor fog ez nagy felbontáson max graffal 60 fps-t produkálni? mert ugye azt állítják h ezek az integrált cuccok a jövő és nem lesznek külön vga-k

    meg hogy is lenne ez? lesz x processzornak 5 fajtája, egyikbe gyenge gpu rész lesz a másik jobb stb majd a legerősebb..
    mert ha 1 fajta lesz akkor akkor 1 irodai gépbe kifizettetik veled azt a vga teljesítményt is ami nem is kell oda meg fogyasztást is, ezekkel az integrált cuccokkal az a baj h elvész a szabadság, a választás lehetősége... ezért kell h a jövőben is legyen különálló komponensek h aki bika procit akar közepes vga-val az választhasson... bár nem sokat tudok ezekről az APU-król, anyuci párti vagyok ;]

    elnézést a gyenge fogalmazásomért

    don't tell me what i can't do!

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #9 üzenetére

    Ha program feldolgozásából kiveszed az API+driver korlátjait.
    A külön VGA csak a jövőben probléma a jelenben nem. Az új generációs xbox-ra például azt mondják, hogy egy Odeb nevű lapka, amiben van egy IBM CPU és a AMD GPU. Ezek közös címtartományt és teljesen koherens memóriát használnak. A nextgen konzoloknál ezt kellene átportolni PC-re, CPU+dGPU konfigurációra. Nem lehetetlen, csak durván le kell butítani a játékot (nem feltétlenül csak grafikailag). Ha a konzolok erre mennek, amerre az új Xbox, márpedig eléggé nyilvánvaló, akkor a rendert egy lapkára kell bízni, ami szintén közös címtartományt és teljesen koherens memóriát használ a CPU és a GPU részre. A dGPU szerepe maximum post-process effektek szinten maradhat meg, ahol már önállóan is képes dolgozni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • ddekany

    veterán

    válasz Abu85 #2 üzenetére

    "Ez a kezdőérték már a marketing része, nem tudunk vele mit csinálni. Az oszlop mögött/fölött, viszont ott a valós érték, amit csak le kell olvasni."

    ??? Mi haszna egy diagramnak, ha csak a számot kell rajta nézni, és az oszlopoknak nincs személtető szerepe (csak negatív értelemben)? Azaz, ha csak nem azért kellenek a cikkbe, mert szép színesek, egyszerűen ki lehetne őket hagyni, mivel hasznuk nincs, persze a figyelmetlenebb olvasók félrevezetésén kívül. Ha nem adná le minden újságíró ezeket mint valami zombi, már rég kihaltak volna ezek a szarok.

  • Armagedown

    őstag

    És ez miért jobb mint a többi ugyanilyen ARM prcoci ?
    Számomra mind egyforma

    “If you don't read the newspaper, you're uninformed. If you read the newspaper, you're mis-informed.”

  • fatallerror

    addikt

    válasz Abu85 #10 üzenetére

    az rendben h jó lesz de mi lesz a szabad választási joggal? jó tudom azt veszem ami lesz...

    don't tell me what i can't do!

  • Abu85

    HÁZIGAZDA

    válasz ddekany #11 üzenetére

    Félrevezetve nincs senki, mert a számok világosak a trükk létezik, de ennyi.
    Nem azért kellenek a képek, mert színesek, hanem azért, mert a sajtóanyag részei. Kapcsolatápolás a gyártóval, stb. Nyilván sokan örülnek annak, hogy ha van teszt egy termékről, és ez akkor lesz megoldható a leghamarabb, ha nem nekünk kell rohanni a kereskedőhöz a cuccért, hanem kapunk egyet a gyártótól. A gyártó pedig elvárja, hogy az anyagokat lehozd. Nyilván, ha nem valami orbitálisan nagy baromság, akkor képekkel linkeljük. Jelen esetben csak egy elterjedt marketingtrükkről van szó, és a képeken ott a tényleges érték is. El lehet ítélni, de az eredmény szempontjából lényegtelen. Az adott termék képességeiről pedig úgyis független teszt dönt.

    (#13) fatallerror: Mi lenne? Az ami most, csak nem konfigot veszel, hanem egy lapkát, de ettől még egy csomó gyártó azért lesz, hogy az ő termékét vedd meg.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • kerelo

    senior tag

    Itt nagyobb volt a marketing,mind a teljesítmény növekedés sajnos. :K

    Lássanak hát csodát,kicsik és nagyok,a becsületes ember én magam vagyok "bendeguz"

  • erdoke

    titán

    válasz ddekany #11 üzenetére

    Egyetértek, a táblázatot pont arra találták ki, hogy nézegessük egymás mellett a számokat...

    A legjobb aláírás a héten

  • fatallerror

    addikt

    válasz Abu85 #14 üzenetére

    mondjuk így akkor telejsítményben is totál összhangban lenne a cpu meg a gpu, végülis mind1 h mivel játszom csak játsszak :D de szerintem 10 év múlva is lesz még külön vga is

    de ha nem akkor a csak vga-t gyártókkal mi lesz? megszűnnek v mást gyártanak?

    don't tell me what i can't do!

  • Abu85

    HÁZIGAZDA

    válasz fatallerror #17 üzenetére

    Ha megnézed, akkor már nincs olyan anyavállalat, aki csak VGA-t gyárt. Leányvállalatok vannak, de ott is keresik az új piacokat. Rendszerint az alaplapgyártás a sláger, de nem kötelező ezt a vonalat követni. Nyilván a VGA-gyártásról az alaplapra a legkönnyebb átállni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • DemonDani

    addikt

    már bocsi de van itt bárki abun kívül aki nem azért van itt mert nv és lehet kötekedni butaságokon? :DDD
    hihetetlen hogy lehet lenézni valamit, ami ilyen gyorsulást produkál :U cpu piacon mikor duplázott sebességben egy processzor?

    arról nem is beszélve hogy jó fél évig biztos nem lesz piacképes konkurenciája az nvidiának, mivel senki nem vállalta be a 40nm-t és mivel az nv elég sokat dolgozott azon, hogy ellensúlyozza a 40 nm hibáit, gondolok itt a companion LP magra pl... szóval egyáltalán nem érzem úgy hogy bármi okunk is van most itt höbörögni.

    trükkös a grafikon? hol nem? hülye lenne nem próbálkozni, a spárban is átvernek, mert aszonyák ott a jó döntés...
    vicc az eddigi összes komment, mivel azokra reagálok így ez is az.

    NEM FIZETETT REKLÁM! >>armegoszto.hu<< Folyamatosan friss akciók.

  • fatallerror

    addikt

    válasz Abu85 #18 üzenetére

    jé tényleg :D nem is figyeltem erre fel :D
    végülis csk annyiban fog változni a dolog h berakok 1 procit (apucit) és vga-t nem és hasít, bár nekem még mindig hihetetlen h mikor jut el oda a dolog h lead 1 6990 teljesítményt kisebb hővel 1 ilyen kis pici hardver

    don't tell me what i can't do!

  • erdoke

    titán

    válasz DemonDani #19 üzenetére

    Mobil eszközökben nem önmagában az abszolút teljesítmény a legfontosabb mutató, hanem a fogyasztás/teljesítmény. Talán nem véletlen, hogy ezzel kapcsolatban nem láttunk semmit, csak egy gyenge célzást a "nem sokkal több" szinten. Telefonokban és tabletekben (átlagos felhasználással) még legalább egy évig alig profitálsz majd a négy magból, viszont érezhetően csökkenhet az üzemidőd, amíg azonos csíkszélességen gyártanak, és az órajel nem esik vissza drasztikusan. Akkor lesz majd ebből a virtuális pénisz nagyobbításnál több, ha a mobil OS és a futtatott alkalmazások többsége egyaránt hatékonyan kihasználja az architektúrát. A két mag lassan egy éve piacon van, és amit azon műveltek optimalizáls címen, az is igen harmatos, pedig a lépés (a lehetőség) ott sokkal nagyobb.
    A WP 7.5 jól mutatja, hogy mekkora lehetőség van még az egyetlen magra való optimalizálásban is.

    A legjobb aláírás a héten

  • Exelsior

    senior tag

    Mobil-ba ez már felesleges. üzletpolitika ez már. Eladható azt annyi.

    Samsung galaxy fold 4 12/256 gb ,- Samsung Odyssey G6 S32BG650,ROG STRIX B550-A GAMING Lian Li Galahad AIO 240mm ARGB White,Ryzen 3600, Corsair RM850\Corsair Vengeance RGB PRO 2X16GB,GeForce-RTX-3080-GAMING-TRIO-PLUS-12G-LHR/Lian Li LANCOOL 216 RGB White,keychron k8,ROG Pugio II/Logitech G935

  • Abu85

    HÁZIGAZDA

    válasz erdoke #22 üzenetére

    Először adjuk már meg a Tegra 3-nak a lehetőséget, hogy megjelenjen, és majd akkor ítéljük meg az értékét, ha a független tesztek is megérkeztek. Egyébként a vSMP-ről szóló hír be van linkelve, ami pont arra vonatkozik, hogy az NVIDIA az optimális üzemidő/teljesítményre törekszik. Ebből a szempontból szerintem nem kell aggódni. Igen, a nagy terhelésnél (4 mag+IGP) többet fog fogyasztani, mint a Tegra 2, de az átlag terhelésnél már nem hiszem, sőt valószínű, hogy a jelentősen továbbfejlesztett energiamenedzsment miatt jobb értékek várhatóak. Idle állapotban a társmag miatt például jóval kevesebb fogyasztás várható.

    A kisebb csíkszélesség nem mindig előny. Az optimalizált gyártástechnológia, és a jó energiamenedzsment az. Az Intel is azért vált később gyártástechnológiát az Atomon, mert először optimalizálni kell azt, hogy jó legyen. Ez az első lapkáknál nem biztos, hogy sikerül. Azzal, hogy az NV a 40 nm-nél maradt, megkímélte magát a 28 nm-es szopástól, ami a TSMC-nél várható. Mire a többi gyártó elintézi a node jó állapotát, akkorra az NV berakja tömeggyártásba az új Tegrát. Ez teljesen logikus gondolkodás. Az NV már csak tudja, hogy mekkorát lehet szívni egy gyártástechnológiai váltásnál pár rossz döntés után, lásd GF100+40 nm. A 28 nm sem egyszerűbb. Ott a HKMG, ráadásul gate last, és a HP node-on a SiGe cap. Mindkettőn nulla tapasztalattal bírnak, de lényegében más is.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • banhammer

    veterán

    Kár ezen erőlködni és jól megmarketingolni.
    Kétszeres a növekedés és egyelőre nincs tovább.

    \m/ Minden lehetséges, kivéve forgóajtón átsíelni... \m/

  • ddekany

    veterán

    válasz Abu85 #14 üzenetére

    "Nem azért kellenek a képek, mert színesek, hanem azért, mert a sajtóanyag részei. Kapcsolatápolás a gyártóval, stb"

    Na, hát ez már lényegre törőbb válasz, mint az "oda vannak írva a számok" nonszensz...

  • DemonDani

    addikt

    válasz erdoke #22 üzenetére

    nem igen tudod miről van itt szó, abu jól vázolta, értetlenség és tájékozatlanság ellen pedig nincs gyógyszer. eleve a Tegra 3 magkezelése olyan mint a prociknál a turbó, ami nincs kihasználva 1 mag addig nem megy több. hülység hogy többet fogyaszt, na meg a wp7 ;] most még jól mutatja...

    meg persze nézz már meg wp7 alatt mit ad majd egy program, ne a rendszer sebességét vesd össze. mert azon a téren annyiból áll, hogy megoldották olyan amerikaiasan, mint a fordokban, nem ventillátor ikon van hanem ventillator felirat :DDD nem is nevezném GUI-nak jóformán... de a böngészőt néz már meg android ellen :B béka feneke. baromi rezisztiv maga a rendszer, de ha program kell vége, és a rendszer is olyan mint egy bot, esetleg egy komolyabb husáng az iOS és az android ellen... inkább az iOS mellett kardoskodnék ha már 1 magnál járunk.

    NEM FIZETETT REKLÁM! >>armegoszto.hu<< Folyamatosan friss akciók.

  • cqr

    aktív tag

    Ezen eredmények alapján elég jó esély van rá, hogy az sgx543mp2 még csak meg sem lesz a t3-nak, figyelembe véve a megjelenések közötti időkülönbséget ez elég durva.

    Remélhetőleg a mag fejlődött triangle throughput-nál 'komplexebb' mérőszámokat tekintve, általában a shader-heavy környezetekben az sgx540-adreno205 is közel tudott kerülni a t2-höz.

    Nameg pontos fogyasztási adatok is jól jönnének, mert ha a t3 képes lesz annyit fogyasztani, mint amennyit egy korábbi cikk feltételezett (4-5w) akkor az izgalmas lesz (főleg telefonokat tekintve, de még tabletben sem épp kevés).

    [ Szerkesztve ]

  • erdoke

    titán

    válasz DemonDani #28 üzenetére

    A Tegra 3 magkezelése egyelőre duma, de számodra már készpénz, ahogy elnézem. Amit látunk, hogy nincs kihangsúlyozva a jobb üzemidő. Szerinted véletlen?

    Azt hiszem, ideje kézbe venned egy új generációs WP7.5 készüléket, a böngésző is full GPU gyorsított (már amennyiben HTML5 tartalomról van szó), ellentétben a kétmagos androidos csodákkal. Nézz meg egy Optimus 2X-et, lélekmelengetően akadozik a görgetés böngészés közben. Ja, hogy 0,2 másodperccel előbb tölt be az oldal a bika procival, de ha folyamatosan böngészel, egy órával előbb lemerül a készülék? Az tényleg nagy fegyvertény...

    [ Szerkesztve ]

    A legjobb aláírás a héten

  • Abu85

    HÁZIGAZDA

    válasz cqr #29 üzenetére

    Azért vegyük figyelembe, hogy a Tegra 3 IGP-je nem éppen akkora, mint az SGX543 MP2 konfigurációban. Az extra tranyó főleg a proci részre ment el, ami öt fizikailag beépített maggal nem csoda. Gyakorlatilag az ULP GeForce csak a pixel shaderben javult, meg a szokásos optimalizálásban, de ez nem olyan sok. Az NV ezen a szinten a programozható blenddel próbál előnyt kiépíteni, de kétségtelen, hogy a SGX543 MP2 sebességben előrébb tart. Persze lesznek kivételek, de többnyire a Power VR a jobb.

    A shader-heavy környezet miatt lett megduplázva a pixel opciós rész. A triangle throughput nem hiszem, hogy sokat változott. Ebben óriási előnyük van a konkurens architektúráknak (PowerVR, Mali, Adreno), ilyenkor megéri inkább oldalra fejleszteni, ha érted mire gondolok. Az NV a szoftvereket elviheti olyan irányba, ami pont, hogy az ULP GeForce-nak előnyös.

    Annyira nem nagy az a 4-5 watt. Az Apple A5 is 4 watt fölé lő max. terheléssel. A Tegra 2 is 3,5 watt fölött fogyaszt maxon. Itt az energiamenedzsment minősége döntő. Az átlagos terhelés mellett kell jót alkotni. Itt szokott kijönni az ARM előnye. Ugye ott az Intel Lincroft lapka, ami max fogyasztásban 3,7 watt kimérten. Alatta van több ARM SoC-nak is, de amíg az ARM SoC-ok képesek 1-1,5, vagy az erősebbek 2 wattos átlagos fogyasztásra, addig a Lincroft 2,5-3 watt között dolgozik, ami nyilván átlagos terhelés mellett sok. Az, hogy a lapka 5 wattot fogyaszt max, nem jelenti, hogy általánosan sok, mert az energiamenedzsment lehet örült jó, és akkor mindjárt semmi probléma.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • cqr

    aktív tag

    válasz Abu85 #31 üzenetére

    Azért vegyük figyelembe, hogy a Tegra 3 IGP-je nem éppen akkora, mint az SGX543 MP2 konfigurációban.
    Minden bizonnyal, bár a tech oldalak nem erre fognak koncentrálni. : ) Mekkora lehet a fogyasztásbeli különbség a kettő között (az eltérő process ellenére)?
    Én spec nem nagyon örülök neki, hogy négy magba ölték a tranzisztorokat (az lp processzen készült ötödiknek még könnyebb elképzelni, hogy értelme legyen). Sok dolog baromi nehezen párhuzamosítható, az elő-háttér processzek és a gui pedig 2 mag + gpu párosból megoldhatóak, ez pedig az átlagfelhasználók tevékenységeinek jelentős részét lefedi.

    A triangle throughput nem hiszem, hogy sokat változott. Ebben óriási előnyük van a konkurens architektúráknak (PowerVR, Mali, Adreno)
    Lehet, hogy csak félreértelek, de azt mondod hogy épp triangle throughput-ban van előnye a többieknek a tegrához képest? Ezt még sehol sem tapasztaltam/láttam még.

    A számokért pedig köszönet. ('megterhelőbb' játékok futtatása (networking nélkül) közbeni performance/watt értéket tekintve kíváncsi lennék, hogy hol lesz a t3 az a5-höz képest. Egy komolyabb interneten keresztül játszott 3D-s játék vehető normál felhasználás közbeni maximumnak, az eddigi információk alapján nekem nem úgy tűnik, hogy ilyen tekintetben megverné az sgx543mp2+ca9 párost.)

    Vannak egyébként neked szupertitkos tdp/kimért adataid a tegra2-igp/adreno-xxx/sgx540-543 magok fogyasztásáról? : )

  • Kotomicuki

    senior tag

    válasz Abu85 #10 üzenetére

    Azaz, amíg a PC-n a PCI Express késleltetése és az API-k (és egyéb, fölös rétegek) erőltetése a monopólium részéről, megfog minden komolyabb adatforgalmat a CPU és dGPU között, ami a valósidejű képalkotáshoz kell, addig a bokszoson mindent úgy alakítanak és törekednek optimalizálni, hogy fele-negyedannyiból is megoldható legyen ua (ua-on monopólium részéről!!!)?!

    - Az AMD milyen szintű memórialicencekkel bír - mármint: l3 cache helyett lehetne-e "rendes" RAM az APU-iban (netán nem kéne é e, még idejekorán megvásárolnia/fúzionálnia egy ilyenekkel (és gyártókapacitással) bíró céget/céggel) - , ki(k)nek és mennyit kéne ezért fizetnie? (4 Bull mag (még nem modul) + Juniper (még nem Barts) + 8-16 GB RAM egy lapkán, 28 nm-n gyártva (Llano + 2-4x erősebb GPU rész + rendszermemória): a jelenlegi játékkonzolokat keresztbe-hosszába lenyelné és a játékosok - otthoni PC-felhasználók - 80%-nak igényeit kielégítené...)

    - PCI Express helyett volna-e más, sokkal kisebb késleltetéssel dolgozó kapcsolódási felület a dGPU-k számára, aminek a PC-ben való alkalmazásáért nem kéne (jelentősen) többet fizetni? (Ha van, akkor annak gyakorlatban való elterjedését mennyiben akadályozná segítené a zintel (és a M$)? (költői kérdés))

    Vagy marad az alaplapra integrálom és spéci busszal összekötöm a CPU-val (amíg a TSMC/GF nem "hajlandó" egyben gyártani ezeket) egyedüli alternatívája az AMD részéről, ha ki akar végre bújni az őt (is) ellehetetlenítő, jelenlegi helyzetből?

    [Ha mindezt, vagy csak az egyiket ezek közül, meg merészelné lépni, akkor kapna támogatást a hardvere a picipuha vindóza részéről, netán találna-e üzleti partnert a forgalmazásához, vagy csak a perek tucatjait a winteltől és az általuk megfélemlített partnereiktől? Hány, eddig (esetleg) ismeretlen cég jelentkezne, hogy az ő, többév(tized)es szabadalmait sértette meg az AMD-ATI? ;] ]

    A regisztrációdat véglegesen kitiltottuk a következő ok miatt: III.10.8 Üdvözlettel: PROHARDVER!

  • decibel

    aktív tag

    válasz Kotomicuki #33 üzenetére

    Te egy álomvilágban élsz. Jobb esetben.

    "you are a monkey poo-poo"

  • Abu85

    HÁZIGAZDA

    válasz cqr #32 üzenetére

    Természetesen így van, a lapkaméreten belül az IGP kiterjedése sok embert nem hat meg. :) A vásárló lényegében csak az ár/érték viszonyt nézi, de ez teljesen normális. A programozót is hidegen hagyja ez a rész, ami szintén normális.
    Én úgy gondolom, hogy a négy mag erőltetése stratégiai jellegű. Egyrészt a 40 nm-es node-ra Cortex-A15-öt rakni nem kedvező. Megoldható, de az ARM a 28 nm-es processekre tervezte. A Cortex-A9 van 40 nm-re alakítva. Ha az NVIDIA úgy döntött, hogy maradnak a 40 nm-en, ami utólag látva nem volt rossz döntés, akkor a teljesítmény növelése a magok duplázásával a legértékelhetőbb megoldás. Az órajel növelése is opció, de az magasabb általános fogyasztást jelentene átlagos terhelésű helyzetekben, és ez nem jó. A másik alapja ennek a szoftveres fejlesztések. Az NVIDIA a PhysX-et átültette már Androidra. Gyakorlatilag a rendszer fejlődése a PC-n megállt egy szinten, miközben Androidon komolyan fejlődik. A GPGPU-ban viszont a Google rendszere le van maradva, így a hagyományos utat kell járni, vagyis a központi processzormagokon kell számoltatni. Ez a másik oka a magok duplázásának. Nyilván az NV-ről tudjuk, hogy sokat fektetnek a játékokba, ott pedig előny a több mag. Van is lehetőség a többszálú feldolgozás kialakítására.

    A Tegra egy immediate render. A háromszögek feldolgozása más, mint a konkurens architektúráknak. A különböző kivágási technikák mellett a Tegra biztos több feladatot végez ezen a ponton, mert nem választja ki a látható háromszöget előre, hanem minden rendereléi, és utána, a mélységteszt alapján lesz a látható pixel kiválasztva. A konkurens architektúrák sorba rendezik a háromszögeket, és csak a legelsővel dolgoznak. Ebből a szempontból a Tegra számára a triangle setup sok veszteséggel jár, és a memóriával sem takarékos ez a megoldás. Nyilván ez valamennyire architekturális örökség. Az ULP GeForce alapjai a GeForce 7-ből származnak. Amikor az NV partnerprogramján belül készül egy alkalmazás, akkor mindig ügyelnek arra, hogy ez ne legyen komoly gond. Alapvetően nem is az, de a hatékonyság tekintetében a PowerVR, Mali, Adreno trió a Tegra előtt jár. Persze ez ellensúlyozható, mert a Tegra meg másban jár a konkurensek előtt.

    Hát a teljesítményről majd a tesztek fognak árulkodni, egyelőre az előzetesek jól mutatnak.

    Sajnos a IGP-kre nem nagyon adnak meg fogyasztást. Az ULP GeForce és az Adreno esetében ez lényegtelen, mert egyik sem licencelhető IP, vagyis senkit sem érdekel, a mi kíváncsiságunkon kívül ugye. A PowerVR esetében pedig a licenc csak terveket tartalmaz, vagyis a valós implementálás a gyártó feladata (az Img Tec ajánlásokat tesz, de nyilván nem kötelező követni). Ezzel a fogyasztás erősen függ a beállított órajeltől, az MP konfigtól és a gyártástechnológiától. Ez amúgy jó, a fogyasztás ezzel nagyon széles spektrumon mozoghat, ami egyfajta szabadság a licencelőknek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Kotomicuki #33 üzenetére

    A fele-negyedannyi rész sokkal kisebb. Egyelőre nem a hardverrel van a baj, hanem azzal a hosszú szoftveres feldolgozórutinnal, amíg a DirectX API-val elért driver és az OS kiadja a valós parancsot a hardvernek. Ez rossz esetben több tízezerszeres időigénnyel is rendelkezhet, mint a direkt elérés.
    A PCI Express késleltetése addig nem gond, amíg a konzolt is CPU->GPU feldolgozási irányban programozzák, vagyis nem csak a PC-n van minimalizálva az összekötő busz használata. A nextgen konzoloknál változik ez meg, mert elmennek heterogén irányba. Ha az új Box Odeb lapkája tényleg olyan lesz, amilyennek az előzetesek leírják, akkor nem csak a CPU->GPU feldolgozási irány lehetséges, hanem erősen keverhető az egész, hiszen az az időigény, amíg a magok az adatokat átadják egymásnak gyakorlatilag órajelciklusok szintjén ns-okban mérhető. PC-n CPU+VGA párosítás mellett már nem, mert a busz nagyon lassú.

    Gyorsítótárat biztos nem alkalmaznak DRAM-mal. Túl lassú. Lapkán belül nem a méret a legfontosabb, hanem a gyorsaság. Az AMD egyébként az architektúrával pont arra készül, hogy a CPU és a GPU integrációja értékelhető legyen. Ezért lesz a Bulldozer olyan amilyen.
    Nem kell olyan erős rendszer, ha direkten programozol. Egy Sandy Bridge-ből kihozhatsz annyit, mint egy SB+HD 6990 kombóból. Azzal, hogy eldobod a driver+API modellt, jelentősen gyorsulhat a feldolgozás. Persze ezzel eldobod a kompatibilitást is, ami jelenleg ennek a gátja. Itt megint a nextgen konzolok fognak dönteni. Nyilván a gyártóknak semmiképp sem opció, hogy a PC-re butítani kelljen a játékokat, így a driver+API modellel már senki sem ért egyet, még ha nem is kürtölik világgá. Valaki a felhőben látja a megoldást, míg más a hardver low-level elérésének biztosításában.

    Tök mindegy, milyen buszt raksz a CPU+VGA összekötésre, annyira gyors soha sem lehet, mint a lapkán belüli kapcsolat. Még csak meg sem fogja közelíteni a sebességét. Ha a nextgen konzolok elmennek az egybeintegrálom irányba teljesen koherens memóriával és közös címtartománnyal, akkor a PC-knek is követni kell ezt a vonalat. A VGA-k megmaradhatnak post-process effektek szintjére, mert az egyszerűen megoldható feladatátadás, és egyirányú is lényegében.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Kotomicuki

    senior tag

    válasz Abu85 #36 üzenetére

    #34 decibel: Köszönöm, a kezelőorvosaim is ebben bíznak! ;)

    #36 Abu85:

    A fele-negyedannyi rész az esetleges "régi" szoftveres környezet emulációjával lehetne annyi: a tényleges munka a hardver direkt elérésével történik, csak a kompatibilitás megőrzése céljából menne a külső kommunikáció az elavult módokon, ha egyáltalán szükséges volna még az. Persze, ha jól megírják, akkor valóban lehetne kisebb is az: kb. mint DOS esetében a 640kb-tól a 4GB virtualizációjáig való eljutás (minden, komolyabb erőforrás igényű program elindította a maga futási környezetét, ami a régi szabvány felületén át kapcsolódott a rendszerhez, mert ott is túlnőtt már a hardver képessége és a felhasználói igény a monopólium akkori op.rendszere által nyújtott lehetőségeken).
    [Az ehhez, vélhetően szükséges jogi lépések, ha picipuha is úgy akarja, az már más kérdés...
    A jelenleg fennálló rendszer (már) megint a fejlődés útjában áll.]
    Ha valóban ennyit lehetne gyorsítani a munkavégzésen, akkor, szerintem, meg kéne ezt lépni. Felőlem lehetne a Linux is "A" PC-s játékplatform, ha a M$ nem hajlik az együttműködésre.
    Persze, amíg az AMD-ATI szállítja a konzolokba a GPU-részt (úgymond le van kötelezve ezzel), addig valóban csak szép álmok ezek. Nem hiszem, hogy a konzollal járna jobban, amikor a PC-be több részegységet is tudna szállítani, ha "önállóvá" vál(hat)na e téren.
    Van már néhány élő példa előtte, pl. Cyrix, nVidia, hogy a mások által kimért úton való haladás, ebben a piaci szegmensben (is), előbb-utóbb a süllyesztőbe vezet.
    [Az nVidiát is aprópénzért kitessékelték a hosszú évek alatt megszerzett pozíciójából, minden addigi felhalmozott tudásával együtt - a nem túl fogyasztóbarát lépéseik miatt szánni nem tudom a zöldeket ezért - és most, sátáni kaján mosollyal az arcukon, utána vetik magukat arra a piacra is, amire "száműzték" őt.]

    Az l3 cache helyett a RAM (nem feltétlenül DDR, ha ez "drága" - licenc - , vagy lassú - lapkán belüli sávszélesség növeléssel ez még áthidalható lenne - a processzorba) is amiatt merült fel ötletként, mert a végrehajtás és a tárolás közti lépcsők sokaságán már komoly teljesítménypotenciál (idő, a késleltetések miatt) veszik el. De igazad van: amíg az op.rendszer ennél sokkal többet "töpreng" azon, hogy éppen mit is kéne csinálnia, addig ez másodlagos kérdés.
    [A felhő egyedül az internetszolgáltatóknak jövőkép és jelent hasznot, esetleg még az olyan cégeknek, mint pl. a zintel, akik saját, sikeres ötletek és azok megvalósítása híján terelnék ilyen ködös területre a jövőt - vagy a monopolhelyzetüket védenék ilyen, direkt kerülőutakkal (intel: a már a megszületésekor sem túl korszerű x86 erőltetése, M$: API, driver, DX, stb..]

    A (virtuális) festett papírimádat miatt valóban csak most jutott el oda a technika, hogy az eddig különálló végrehajtó egységek sikeresen egy lapkára költözhessenek. Ha csak az idáig szükséges és most már fölösleges hardveres kapcsolattartó rendszerek tűnnének el, vagy gyorsulnának fel jelentősen az integráció miatt, már akkor megérné a dolog. De ha ezzel együtt jár(na végre) a szoftveres oldal revíziója is (minimum API+driver kombó karcsúsítása, DX futószalag terjedésének "megfékezése" - de inkább egy végre normális, szakmai- és nem haszonelvű és a monopolhelyzetet foggal-körömmel védeni próbáló op.rendszerre való váltás), akkor valóban elegendő volna az eddigi munkavégzéshez a mai negyedénél is kevesebb(et fogyasztó) erőforrás is.
    A konzoltól meg nem féltem a PC-t, ha végre valóban azt a teljesítményt tudná leadni, ami benne rejlik és nem volna állandó jelleggel és mesterségesen visszafogva - ha a picipuha az élni és élni hagyni elv mellett garázdálkodna az általa kisajátítottnak vélt játszótéren, a zintel nevű játszótársával egyetemben, akkor tán nem rühellenék annyira, mint most.
    Már csak azért is sürgető volna a gyökeres szemléletváltás, minden területen, mert az óceánok és Afrika-Ázsia (Kelet-Európa) területe fizikailag véges és lassan, de biztosan megtelik a "minden kis (vélt, vagy valós) szarságra külön hardvert" elv szemetével...

    A regisztrációdat véglegesen kitiltottuk a következő ok miatt: III.10.8 Üdvözlettel: PROHARDVER!

  • julius666

    addikt

    válasz Abu85 #5 üzenetére

    Jézusom, ezt az összeadós képletet ki a búbánat találta ki? Még csak nyomokban sincs köze a valósághoz... :U

  • max-pain

    senior tag

    válasz cqr #29 üzenetére

    "Ezen eredmények alapján elég jó esély van rá, hogy az sgx543mp2 még csak meg sem lesz a t3-nak, figyelembe véve a megjelenések közötti időkülönbséget ez elég durva."

    Mondjuk az Apple reszerol az SGX543MP2 eleg overkill huzas volt az A5-hoz.
    Amikor kisebb node-ra valtottak es 4x-5x nagyobb lett a felbontas (tavaly), akkor basztak egy jobb GPU-t belerakni az A4-be. Iden ezek kozul egyik se valtozott, erre beleraknak egy 5x-6x gyorsabb GPU. Az A5 SoC eleve nagy meretu valamint ilyen teljesitmenyt rendesen ugysem hasznal ki par programon kivul semmi.

  • cqr

    aktív tag

    válasz Abu85 #35 üzenetére

    [első bekezdés]
    Igen, a 'big picturet' tekintve érthető, hogy miért erre ment az nv, sőt elméleti teljesítményt tekintve nagyon kézenfekvő megoldás.. csakhát. Játékokat tekintve lehet generálni olyan igényeket amikkel meg lehet próbálni eladni a négy magot (physx . d) de azért nem a játékok a zászlóshajói a több cpu magon való skálázódásnak (pc-n is milyen hosszú időbe telt amíg érezhetővé tudták tenni).

    [második bekezdés]
    A (tb)dr-direct rendering az valamennyire nekem is megvan : ), de biztos vagy abban, hogy a direct render arányaiban jobban szenved triangle throughput-ot tekintve, mint shader heavy tartalom esetén? Biztos van olyan setup, amikor a tbdr előnybe kerül, de legalább is a gyakorlati háromszög áteresztő képességet mérő tesztek sztem nem részesítik igazán hátrányba a direct rendert. Mindenesetre tegra esetén szinte bármely tesztre igaz, hogy a pvr,adreno arch-okhoz képest folyamatosan veszít az előnyéből amint az effektek/árnyalók szerepe nő.

    [negyedik bekezdés]
    Kár, hogy nincsenek ilyen adatok, pedig nem lenne olyan lehetetlen kimérni (egy dev boardból pláne).

    #39: Miután mostanában az apple csak két évente fejlesztette a gpu-t, ezért lehet hogy nem annyira elrugaszkodott a választás. Az hogy nem akkor csinálták mikor növelték a felbontást az persze nem tűnik logikusnak, de hát valószínűleg nem akartak mindent egyszerre.. : d

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz julius666 #38 üzenetére

    Persze, hogy nincs, de a marketingben sosem a valóság közelítése a cél. Ugyanezek más gyártóknál is megvannak. Az NV-nél azért maradt köztudatban, mert a roadmapra volt ez a gyorsulás rakva.
    Mondok én más példát, amivel én sokszor találkozom. Az AMD-nél az APU-k megjelenése óta van egy computional GFLOPS paraméter, ami hozzá van mérve minden marketinganyagban az SB procik GFLOPS értékéhez. Nyilván az IGP teljesítményének a hozzáadásával a grafikonon a Llano elhúz nagyon. Szerencsére ez csak egy-két dián jelenik meg, és azok nem hordoznak értékes infót, vagyis ki lehet őket hagyni. Na de az értelmi része ugyanaz, mint a Tegra 3-nál, vagyis a CPU és a GPU rész teljesítményének direkt összeadása. Igazából nem lepődnék meg azon, ha az öltetett az NV innen vette volna. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cqr #40 üzenetére

    Itt azért valamivel egyszerűbb lesz a dolog, mármint a program támogatását tekintve. A több cpu magon való skálázódással már aránylag sok az elméleti tapasztalat, ami a PC-s bevezetésnél nem volt általános. A másik dolog, hogy nem csak az NV megy erre. Ez egy fizikai kényszer, mert van egy dark silicon jelenség, amit több maggal kezelni lehet. Nem végtelenségig, de aránylag jól kizárható a probléma. 2013-ra eléggé általános lesz a négy ARM mag a SoC-okban, és ez elsősorban a dark silicon miatt történik. A fejlesztőknek pedig le kell követni.

    Félreértettél, vagy csak rosszul fogalmaztam, mindegy. Megpróbálom még egyszer. A Tegra esetében mindkét általad felvázolt esett külön probléma. A triangle throughput direct render miatt, míg a shader heavy környezet azért, mert a Tegra IGP-je a fragment shaderekkel emulálja a blendinget. Ha növeled a programodban a fragment shader terhelést, akkor az nyilván több erőforrást követel, de eközben a Tegra számára még a blending emulálása is szükséges ugyanazokon az erőforrásokon. Ez okozza a visszaesést a többi architektúrákhoz képest, amelyek amúgy a blendinget direkt ROP-okkal kezelik emuláció nélkül. Az NVIDIA választása egyfajta kényszer is. Azért a mobil IGP-k esetében kell a tapasztalat. Az NV-nek ez az asztali szintről van meg, vagyis a mobil megközelítésük is eltérő. Ez természetesen bizonyos helyzetekben előny, míg máskor hátrány (a hátrány részét azért érzed jobban, mert a konkurensek jó ideje itt vannak ezen a piacon, és a programokat ezekre írják ... a Tegra IGP-jét nemrég ismerték meg). De ezt te is látod, hogy a Tegra IGP-je a működés szintjén mennyire eltérő. Nem mondom, hogy az NV kiváló munkát végzet, de azt sem hogy rosszat. Nem egyszerűbb a nulláról összerakni egy mobil igényekhez igazodó IGP-t. Sokkal kifizetődőbb volt elővenni a GF 7-et és mobilosítani amennyire csak lehet. Az eredmény tekintetében jónak mondható a rendszer. Nem kiváló, de nem is rossz.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák