Keresés

Hirdetés

Új hozzászólás Aktív témák

  • dezz

    nagyúr

    válasz Enszuke #10 üzenetére

    Az a 4., hogy az ilyen kis gépecskékbe eléggé kicsi kapacitású akkut tesznek...

    Az, hogy viszonylag közel áll egymáshoz a két szám (Blu-ray és 3DMark), éppen azt jelzi, hogy a CPU és az IGP (stream procik) fogyasztása hasonló nagyságrend, mint az UVD+SAMU (+ x% proci). Mondjuk vélhetően az a SAMU benyel egy pár wattot... Vagy az is lehet, hogy most valójában prociból dekódolja a Blu-ray védelmet, mert "nem nagyon" ismerik még a playerek/codecek ezt a SAMU-t... MKV esetén mindenesetre jóval közelebb lesz szerintem a 7 órához (már DXVA [HW-gyors.] komp. anyagoknál, de ma már szinte mindegyik ilyen)...

    (#12) FireKeeper: Tudod, összetartanak... Főleg, mióta az AMD-t és főleg a GF-et az arabok pénzelik. :DDD Ha érted, mire gondolok... (Ne mondd ki!) És nem, nem vagyok anti-akármi. Bár mi lennénk ennyire összetartóak... :(

    (#16) julius666: Úgy tudom, ez a 3x10 bites dolog már most is megy videólejátszáskor, de csak trükkösen. Kérdezd erről janos666-ot! (Win7-en megy, én még bizonyos okokból WinXP-n vagyok, különben magam is utánajártam volna a dolognak.)

    (Az már alap, hogy a videokártya LUT-jából kimegy a 3x10 bit DP-n, ill. 3x10+ bit HDMI-n, ha a megjelenítő is támogatja. Sőt, AMD-n [ill. lehet, hogy újabban NV-n is] 3x8 bites kapcsolaton is effektíve 3x10 bit megy ki, 8 bit natív + 2 bit din. dither alakjában. Bár ez azért nem teljesen ugyanaz, mint a natív 10 bit, de így is jobb, mint a sima 8. Nem (lenne) rossz, ha a 3x10 bitesen feldolgozott videó kép akár csak az utóbbi alakban átmehet...)

    Persze azokon a ripeken ez nem segít, amik olyanok, mintha a 8 bit/csat. sem "lenne ki"...

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz julius666 #53 üzenetére

    Valószínű, hogy ez a videólejátszásos 10 bites dolog jelenleg csak az YUV->RGB konverziótól él.

    Abból 3x8 bites megjelenítőn is profitálhatunk, ha a videós +2 bitek a hw-es kimeneti ditherelővel ki tudnak menni.

    "Ellenben az a +2 bitnyivel nagyobb pontosság igen komoly tömörítési boostot tud adni (kevesebb ditherzaj szükséges a banding elkerüléséhez a tömörített anyagba, illetve kisebb maga a kvantálási zaj is)"

    Hmm, tekintve, hogy a +2 bit 25%-os kiinduló adat többlet, gondolom, a ditherelés hanyagolása többet hoz a konyhára, mint 25%. Érdekes. De mindezt a banding elkerülése érdekében? Mármint, ugye így is 0 az alsó két bit (mert ugye a forrás 8 bites, per csat.), de legalább a felső 8-at jobban "békén hagyja" az enkóder? Izé, akkor már jobb lenne erre egy opció ('cartoon switch'), tehát, hogy alsóbb bitek hiányában se "bántsa"... Nem?

  • dezz

    nagyúr

    válasz Abu85 #65 üzenetére

    Szerintem több tévé is támogatja a HDMI-s DeepColort, valamilyen szinten (10-12 bit/color). Több ilyen nem-profi monitor is van (DP-ről is).

    (#74): "Minden egyes Blu-ray tartalom 23,976 fps-re van kódolva"

    Nem egészen, csak a mozifilmek, de abból is van 24fps-es. Tévés/videós forrású anyagok az eredeti fps-sel kerülnek a lemezre.

    (#76): Éppenséggel a DeepColor 16 bit/színcsatornája (amit a HDMI 1.3 1920×1200p60-ig támogat) már összesen 281 trillió árnyalat... A 28 milliárd még 12 bit/színcsatorna sincs (az 68 milliárd).

    A normálisabb tévéknél a belső feldolgozás általában 12 bit/színcsatornás és legalább 10 bit/színcsatornás (jobb esetben natív, de legalább effektív) a megjelenítés! Mint ahogy a normálisabb monitorok is ilyenek.

    (#79): Nem éppen, ez nagyon is fontos dolog! :U

    Bocs, de legközelebb talán egy kicsit átgondoltabban, Abu... Csak nem másnapos vagy? ;)

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz Abu85 #86 üzenetére

    Vagy csak nem tudtál róla... A középkategóriás TV-s IPS panelok már 3x10 bitesek és a feldolgozás sem áll meg 8 bitnél szinte egyik tévénél sem, mert annak nagyon tré eredménye lenne.

    A DeepColort is sok tévé támogatja ma már. Az mondjuk számomra sem teljesen tiszta, hogy a 8 bit/csat. színmélységű Blu-ray mellett hol van ennek jelentősége. Talán a dekódolásnál, esetleges kép-effekteknél (lejátszón belül értem).

    Természetesen szerintem is nagyon fontos a 23,976 fps normális támogatása és valóban a Blu-ray lemezek többsége is ilyen, csak az nem felelt meg a valóságnak, hogy nincs is más.

    Az utolsó is téves (pedig egy másik topokban a részvételeddel éppen tegnap volt erről is szó, gondoltam, valamilyen hatásra kiment a fejedből :) ), ugyanis egyrészt a normál videokártyák kimeneti LUT-jának csatornánkénti 16 bitjéből DP-n 10, HDMI-n 12+ bit mehet át, ha a megjelenítő támogatja. Másrészt szintén normál kártyákon is megjeleníthető a video overlayon 10 bites kép (csak asszem nem RGB-ben, hanem YUV). Ha nem vagy tisztában a dolog jelentőségével, szívesen elmagyarázom, megmutatom... Koránt sem bullshit, annyit mondhatok.

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz Abu85 #89 üzenetére

    "Ok lehet, hogy van ilyen tévé, és csak én nem láttam." :)

    Több éve láttál utóljára LCD TV-t? ;)

    "DeepColor támogatást csak pár drágább terméknél aktiválnak."

    Negatív. :) Amit a kimeneti LUT-ról és a video overlayről írtam, az az átlag kártyákra vonatkozik! (Az LUT-osat első kézből mondom, meg tudom mutatni, a videooverlayesről kérdezd pl. janos666-ot a "videó részlegen".) Különben szinte használhatatlan lenne pl. a "sw-es" kalibráció is... Amit nem tudnak (le van tiltva), az a 3x10 bites frame-buffer támogatás, ahol tehát úgy alakítod a 30 bites képet, ahogy akarod.

    (#91) attiLANte: A videódekódoláshoz elég igen alacsony órajelen működnie a GPU-nak.

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz attiLANte #94 üzenetére

    Itt most nem IGP-kről beszélünk? A 925 MHz több HD stream dekódolásához kell.

  • dezz

    nagyúr

    válasz Abu85 #96 üzenetére

    Nem. Az első esetben csak a LUT-tól kezdve él a dolog (tehát a 3x256 elemű LUT-ban tárolt 16 bites értékekből megy ki adott számú bit). A video overlayes dolgot nem ismerem közelebbről, de azt hiszem, valamilyen oknál fogva nem egyenértékű azzal, mint ha 3x10 bites frame-buffered lenne, de mégis 3x10 bites.

  • dezz

    nagyúr

    válasz huskydog17 #66 üzenetére

    Úgy tűnik, juliusnak nem volt kedve, törelme vagy ideje ezt kifejteni, így hát nekiálltam (pár mondat után én is megbántam :D ).

    Szal, feltételezem, "meg van" a bit fogalma. Ha esetleg nem, akkor egy kis gyorstalpaló: egy bit két értékkel bírhat, 0 és 1, más szóval két variációt jelent. Két bitnek már négy variációja lehet (00, 01, 10, 11), nyolcnak pedig 256. Így a 3x8=24 bites képeken színcsatornánként (vörös-zöld-kék) 256 világossági fokozat lehet, és tiszta szürkeárnyalatokból is. A szem ennyi fokozatot még könnyen meg tud különböztetni, ha egymás mellett helyezkednek el és egyenként néhány pixelnél nagyobb területet foglalnak el, látja a határokat közöttük. (Pedig milyen soknak hangzik az a 16,7 millió színárnyalat, amit ezek összesen kiadnak...) 10 bit 1024 variációt ad ki, ennyi fokozat között már ilyen körülmények között is nehezebb meglátni a határokat. (Ez már összesen több, mint 1 milliárd színárnyalat.) És ez még mindig nem a vége.

    Megjegyzem, a videók általában nem RGB alakban tartalmazzák az árnyalatokat, hanem YUV, azaz világossági és színkülönbségi jelek alakjában (mégpedig az utóbbiakat általában kisebb geometriai és adott esetben szintfelbontással, mint az elsőt).

    A szükséges szintek számát csökkenthetjük a dithering (színthatárok súlyozott megkeverése egy színátmenetben) bevezetésével, de ez némileg ront a minőségen és a tömöríthetőségen.

    Ide tartozik még a képfeldolgozás is: 3x8 bites képet 3x8 biten feldolgozva az eredeti tartalom precizitása lecsökken 3x6-7 bitre. Ez a megjelenítésre ugyanúgy vonatkozik. Ezért a normálisabb megjelenítők belső feldolgozása és (effektív [ditherelt] vagy valós) megjelenítése minimum 3x10 bites.

    Az eredetileg 3x8 bites anyagok 3x10 biten történő H.264 enkódolásának, mint elhangzott, az az értelme, hogy így a tömörítés folyamán jobban megmarad legalább az a 256 szint, plusz jó adag dithering nélkül is elkerülhető a(z árnyalatok számának lecsökkenésével megjelenő) banding ("árnyalatrétegződés"), ami a tömöríthetőségen is ront (mármint a jó adag dithering). Vélhetően többet, mint a plusz 2 bit(ek) jelentette többlet.

    Hátránya, hogy valószínűleg egyátalán nem támogatja a videodekódolási hw, így azt prociból kell elvégezni.

    Remélem, kielégítő és kellően érthető volt a válaszom. :)

    (#109) huskydog17: Könnyen lehet, hogy igaz, az én nemrég eladott középkat. LCD tévém panelja is 3x10 bites volt például. Megjegyzem, tudomásom szeint csak IPS-ből létezik ilyen, vagy több bites, a VA-kból még csak 3x8 biteset láttam, de azok a tévék is több biten dolgozzák fel a képet és a plusz biteket ráditherelik a megjelenített képre.

    "még egy belépőszintű konzumer VGA esetén is van lehetőség alkalmazni a 30 bites megjelenítési módot"

    Csak az említett korlátokkal!

    Így hirtelen nem tudok ilyet. Nálam az elméleti alapok a munkám része, a többi pedig személyes tapasztalat.

    (#107) Armagedown: Nálam nem volt gond az NF2-vel, inkább egyes VIA chipsetekkel, de azzal is inkább csak ilyen szuperolcsó Acorp és más efféle lapokon. (Nálam konkrétan egyetlen lap okozott ilyen fagyásos problémát jópár év alatt, azt lecserélve megszűnt a dolog, ugyanazzal a procival.) A többi inkább propaganda...

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz Enszuke #121 üzenetére

    60 Hz-es frissítés mellett jejátsztva egy ~24 fps-es anyagot nem 1-1 ugrás van, hanem folytonos "ricegés", amit pl. az oldalazó mozgásokon elég könnyű észrevenni (bár darabos, de egyenletes mozgás helyett akadozás [ha máshol nem, legalább a film végi stáblista scrollon csak észreveszed te is]). De a lényeg talán az, hogy az agy folyamatosan érzékeli és egyszerűen kellemesebb élmény enélkül filmezni, azaz "24p" módban.

  • dezz

    nagyúr

    válasz Enszuke #101 üzenetére

    "Azt hiszem az a gond, hogy az 1.3-as hdmi keves a 3d-hez."

    PS3-on is 1.3-as HDMI-vel megy a 3D. Csak nem minden 3D mód támogatt, amit az 1.4 tud. (Ez nem azt jelenti, hogy egyes 3D tévékkel nem megy, csak nem 2xFull-HD-ben, hanem pl. line-sequential módban, de a passzív szemüveges megoldások [LG, Philips, Panasonic, stb.] jelenleg amúgy is ilyenek.)

    PC-n még jobb a helyzet, pl. a PowerDVD-ben lejátszva tudtommal a HDMI 1.3 sem feltétel.

    (#136): Itt is kihúzhatod a 3D-t. (A 10 bitet meg az Intelnél is feltüntetheted. Bár nem tudom, milyen Intel, de szerintem a 10 bites anyagok dekódoláshoz kell a lóerő.)

    (#130): Attól, hogy tudatosan nem látod, az agyad még érzékeli.

    (#129) huskydog17: Nagyon szívesen! A CoreAVC codec azt hiszem, támogatja már. (Ezt több player is tudja használni.) Én még egy 10 bitessel sem találkoztam. Szerintem csak az említett anime-oknál kezdik használni (esetleg később majd a sima rajz és animációs filmekél is, bár amíg PC-n hw-ből nem megy a lejátszás, nem nagyon kellene erőltetni). Normál filmeknél szerintem jó ideig nem használják még, mert azok eleve zajosabbak, nem olyan "vegytiszták" az átmenetek, stb., így nem nagyon lehet ezzel javítani a tömörítési rátán. Arról nem beszélve, hogy még jó ideig nem lesz eleve 10 bites alapanyag. A szokásos film-zaj mellett értelme sem sok lenne.

    [ Szerkesztve ]

  • dezz

    nagyúr

    válasz Abu85 #151 üzenetére

    Most már nekem is meg kellene néznem egy ilyet... (De a jelenlegi gépemre már nem akarok Win7-et telepítgetni.)

    A 10 bit előnye ott tud megmutatkozni, mint pl. olyan nagyobb felületű színátmenetek vagy szürke-skálák, ahol a két végpont nem túl távol helyezkedik el egymástól világosságban, valahol közép és nem túl sötét tartományokban. Ilyenkor 8 biten csak annyi lépésköz lehetséges, hogy ujjnyi vagy több ujjnyi egyszínű sávok jönnek létre a képernyőn, így kirajzolódnak a határvonalak. A 10 bit színcsatornánként ill. szürkeárnyalatokban megnégyszerezi a lépésközök számát, így vékonyabbak lesznek a sávok és kellően kicsi lesz közöttük a különbség ahhoz, hogy már alig lehessen meglátni. Ha nincsenek ilyesféle gradiensek a tesztvideón, akkor nem sok értelme látvány tekintetében...

    (Most persze dithermentes esetről beszélek.)

    Próbáld meg egyébként a legújabb CoreAVC-vel, talán valamivel gyorsabb.

Új hozzászólás Aktív témák