Keresés

Hirdetés

Új hozzászólás Aktív témák

  • juzer78

    tag

    válasz Abu85 #2 üzenetére

    "egyedül az új Tegra ragadt le. Igazából nem tudom, hogy miért."

    Az ok egyszerű, az nvidia nem szereti az innovációt, elvannak a maguk kis világában. Ha az nvidián múlna még mindig csak DX9-es vezérlők lennének az asztali gépekben...

    Amikor jött a DX10 csináltak egy tessék-lássék megoldást (igaz bejött nekik, de csak azért mert senki nem épített rá) jött a DX10.1 az nvidia válasza az volt, minek az? Jött a DX11 nagy kinlódásra jött a Fermi, ami ha jól tudom, nem is teljes egészében támogatjaa Dragon Age 2-be használtak valamit, amikor is ez kibukott... itt a DX11.1 amit meg valójában nem is támogat egyetlen nv hardver sem, persze a vezérlőpultban ott virít, hogy DX11.1...

    Arról nem is beszélve, hogy OpenCL1.2 támogatás még mindg nincs sehol...

    A sebességgel meg mehetnek a levesbe, amikor a fejlődést gátolják, és erre akarnak kézi konzolt építeni, na ne már, ki a fene fog rá fejleszteni, amikor mindenki más újabb jobb megoldásokat támogat?!

  • juzer78

    tag

    válasz Abu85 #6 üzenetére

    Na ez az, nincs indok ellene, mégsem építik be... ráadásul a a konzol akármin Androidot akarnak használni, idéznék egy másik cikkből, talán ismerős lesz! :D

    "Az Imagination Technologies példájából látható, hogy a Google és az Apple nem véletlenül szeretné beépíteni az OpenCL támogatást a mobil operációs rendszerekbe, továbbá nem véletlen a WebCL irányába mutatkozó komoly támogatás, hiszen a legtöbb okostelefont és tabletet böngészésre használnak, és jól párhuzamosítható megterhelő tartalmak mellett az IGP-vel való feldolgozás sokkal energiahatékonyabb a központi processzornál, vagyis jelentősen nőhetne a termékek üzemideje."

    Andoidot akarnak használni, de OpenCL nélkül? Amikor ezeknek a fejleszéseknek a célja, hogy növeljék a rendszerek teljesítményét, csökkentsék a fogyasztását... akkor most mi is van? Gyorsabb és kevesebbet fogyaszt, most... de mi lesz holnap amikor már elkészül a megfelelő támogatás a hardverekhez nem lesz letiltva és jönnek azok az alkalmazások amik már a IGP erejét is képesek kihasználni... Akkor meg ugyan úgy le fognak maradni, mint ahogy a Tegra 3 lemaradt... pont azért mert egy buta hardvert tettek le az asztalra... bárhogy is közelítjük meg az nv részéről hosszútávon ez mellényúlás... persze lehet azt mondani ott a CUDA, de amikor a fejlesztők mindenhol OpenCL-t használnak, akkor az nv kedvéért piszkosul nem fognak kivételezni...

    Ami a DX11.1-et illeti, a Tahiti előbb jött ki, és van DX11.1 támogatása, hogy is van ez??? Az opciós dolgokról meg csak annyit, hogy a TIR (target independent rasterization) nem opciós, mégis azok közé a dolgok közé tartozik, amit a 6xx széria nem támogat... amúgy meg az nv-re jellemző, hogy ami opciós, azt nem kell támogatni, majd fizetünk a fejlesztőknek, hogy ne használják... jó példa erre pl assassins creed első darabja, és a DX10.1 esete... (bár ez nem opciós cvolt, de nem volt nv dx10.1-es hardver, és jött a javítás, ami el is tűntette ezt a játékból örökre)

    Az Android esetében viszont sok más gyártó is van, akiknem nem ellensége az innováció, itt a pénzzel nem mennek semmire sem... Ahogy már az asztali szegmensben sem, elég megnézni hány Gaming Evolvedes játék jött ki és hány nv partner programos tavaly...

    smkb: "Egy mobil eszköz életciklusa jelenleg jó ha egy év..."

    Szerinted azt az nv féle konzolt 1 évre tervezték??? Mert akkor abból nagy ....ok lesznek a jövőben...

    [ Szerkesztve ]

  • juzer78

    tag

    válasz Abu85 #12 üzenetére

    "A hardvergyártók már két-három éve megkapták, hogy milyen hardvert kell tervezni. Szóval az NV is tudott volna ilyet, csak nem akartak. "

    Ha, de miért nem akarják???

    "A TIR speciel nem lenne számukra probléma."

    Valahol olvastam, hogy ezt pont nem képesek használni a 6xxx sorozat tagjai. De sok mást igen.

    "Szerintem a Kepler esetében eleve a compute herélésére mentek."

    De miért is? Amikor minden ebben az irányban halad? És az új konzolok fejlesztései is valószínűleg ebbe mutatnak...

    "Az opciós dolgok olyanok, mint a SAD4 utasítás. Ezt nem kötelező támogatni. Valszeg később szabványos opció lesz, de ma még csak a Radeonok tudják használni. Sőt, meggyőződésem, hogy az AMD beszélte rá az MS-t, hogy építsék már be az opciós támogatást."

    Ahogy olvasom ez annyira nem is baj, elég sokmindenre használható, és ha több gyártó is támogatja, akkor már akár be is lehet építeni alkalmazásokba... Bár ezt kis pénzzel meg lehetett volna már oldani! :D Ebben mondjuk még nincs gyakorlata az AMD-nek,:) de majd ráéreznek :D

  • juzer78

    tag

    válasz Abu85 #30 üzenetére

    Igen, de alkalmazható objektum felismerésre, illetve felderítésre így akár egy élsimító algoritmus is kreálható lenne rá, amely nem fut végig az egész képen csak azokon a területeken ahol az élt érzékeli, így pl a teljes kép elmosódása is kerülhető lenne, és valszeg gyorsabb is lenne, mint az MSAA, kisebb erőforrásigénnyel...

    "A gyártók elsősorban azért vizsgálják az OpenCL-t, hogy a tabletekre kerüljön egy szenzor, ami a fényviszonyoknak megfelelően állítja a megjelenített kép kontrasztját."

    Na ez az, oda kerül egy szenzor, az OpenCL-el számítani egyszerűbb, és megint mi történik? Az okosabb hardver miatt lényegében azonnal beépíthető, nem kell új hardvert tervezni, mindössze egy szenzort kell beépíteni.... A buta hardver miatt pedig ott is a lemaradás, mert most hiába jobb a fogyasztása, ha később amikor jönnek a szenzorral felszerelt ilyen fényerő állítgató takarékoskodó szoftverek, akkor már is az okosabb hardver kerül előnybe, javulnak a fogyasztási és használhatósági mutatói. És nem történt nagy fejlesztés, csak a meglévők képességeit használják ki. És ezzel az az előny amira az nv épít, el is veszett, örökre...

  • juzer78

    tag

    válasz Abu85 #12 üzenetére

    "Szerintem a Kepler esetében eleve a compute herélésére mentek."

    Ezzel kapcsolatban még annyi, hogy az nv igyekszik intenzíven használni a GPU-s fizikát, ott is szükség van rá, ha egyre több és komplexebb effekteket akarnak létrehozni. Akkor mi értelme van ennek az iránynak? Vagy netán a Maxwellel már nem a shader processzorokra fogja bízni ezeket a feladatokat, hanem az abba integrált ARM magokra? Ekkor fogja a fél világ fogja körberöhögni őket, hogy csapkodják az asztalt, hogy igen is GPU fizika mindenek felett... bla-bla-bla... és utána külön magokra bízza azt, mert a shader processzorok nem bírják az egyéb feladatok mellett...

Új hozzászólás Aktív témák