- OLED TV topic
- Milyen TV-t vegyek?
- Gaming notebook topik
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Újabb "merénylő" érkezett a Thermalright megbízásából
- Milyen billentyűzetet vegyek?
- Mini-ITX
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Milyen monitort vegyek?
- Sony MILC fényképezőgépcsalád
Hirdetés
-
Spyra: nagynyomású, akkus, automata vízipuska
lo Type-C port, egy töltéssel 2200 lövés, több, mint 2 kg-os súly, automata víz felszívás... Start the epic! :)
-
Ezúttal bennfentes kereskedelemmel vádolják Elon Muskot
it A Tesla egyik részvényese perelte be Elon Muskot, 7,5 milliárd dolláros bennfentes kereskedelemmel vádolja őt.
-
Ulefone Armor Pad 3 Pro - akkumulátor, lámpa, (tablet)
ma 33 280 mAh csak elég lesz bármire. És a régi hardver vagy szoftver?
Új hozzászólás Aktív témák
-
Prof
addikt
A második legnagyobb baja szerintem meg az intel által pénzelt Notebook gyártók, akik a legelcseszettem llano konfigokat hozták össze.
Sokszor A4-es alap notikat drágábban adtak, mint egy i3 sandy+gt540 noti.
A8-al gyakorlatilag Mo-n nem lehetett kapni 1 db notit sem, most se sokat.Meg Brazost raktak 15 colos notikba és mindezt annyiért adták mint egy i3-as notit.
Hiába a profit az úr naná, hogy azt fogják dicsérni amin több a hasznuk.
Félek tőle megint nem hoznak ki jó ár/teljesítény arányú AMD notit (akármilyen meggyőző is a Trinity), mert akkor nem venné a drágább Intelest tőlük senki.
Továbbra is kiváncsi vagyok mit tudna egy maxos trintiy apu, dual graphics-al.
Ideje lenne leváltani a 100 fokos notikat a gamer kategóriában.[ Szerkesztve ]
-
julius666
addikt
Én itt most az UVD motorról beszéltem, hogy a 10 bites H264 anyagokat fel tudja-e dolgozni. Ebben erősen biztos vagyok hogy nem, de nem először tévednék.
Azt hogy 10 bitet a videokártya a kimenetén ki tud-e tolni én őszintén szólva magasról leszarom, egyrészt mert nincs 10-bitet tudó megjelenítőm másrészt mert normális dither algoritmus esetén nem annyira zavaró a dekódolt anyagra utólag rápakolt ditherzaj. Ellenben az a +2 bitnyivel nagyobb pontosság igen komoly tömörítési boostot tud adni (kevesebb ditherzaj szükséges a banding elkerüléséhez a tömörített anyagba, illetve kisebb maga a kvantálási zaj is). Animék esetén a release groupoknál lassan kvázi szabvány a 10 bites H264, már TV ripek esetén is. PC-n simán kitolja a proci lejátszásnál ezeket, de ha netbookon akarok nézni valamit már most vadásznom kell a 8 bites anyagokat mert a 10 bites verzió a hardveres gyorsítás nélkül diavetítés jóformán.
-
Abu85
HÁZIGAZDA
válasz julius666 #53 üzenetére
Nem vagyok benne én sem biztos, de én is úgy tudom, hogy az UVD nem tudja a 10 bites anyagokat feldolgozni. Tudtommal ezt semelyik PC-s hardver sem tudja jelenleg. Idővel persze szerintem opció lesz a támogatás mindenkinél.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
acsa77
tag
Ez lehet, hogy inkább magyar jelenség, mert pont most tervezem, hogy No.ban veszek egy E450-es, elfogadhatóan felszerelt 15-ös notebookot általános célra, mert W7-tel a gyenge forint mellett is csak 105e Ft. És 5 órát bír az akkuja, mert nem spóroltak vele, valamint cseppálló a bill. Sajnos csak egy év garanciás HP635, talán ezért ilyen kedvező. Mondjuk engem nem zavar a német W és bill., ez igaz
[ Szerkesztve ]
-
pakriksz
őstag
nagy marhaság volt az x264 készítőknek a 10 bites változatot kiadni... de biztos nem tudták hogy ez lesz a vége, bár várható volt hiszen a sok droid a "több a szám, akkor jobb" egyszerű elve szerint "gondolkozik".
Troll (nemhivatalos definíció): az akinek véleménye nem tetszik nekünk/nem értünk vele egyet. (10-ből 9 fanboy ezt ajánlja) || Fanboy 8 in 1 (Intel, AMD, Nvidia, konzol, PC,+minden politikai oldal) hiszen "ahol nem mi vagyunk, ott az ellenség"
-
ronaldo
őstag
Az irány nagyon jó. Minél kevesebb mindent kell cpu erőből megoldani, annál gördülékenyebb a felhasználás. Márpedig manapság az átalakult felhasználói szokások (ugye az "internetezésre való" gép eddig kb. egy "lassú gép" szinonimája volt évekig, jelenleg meg igencsak bikásnak kell lenni, hiszen mindenhol flash reklámok, fullhd videók beágyazva, 50+ tabot böngész az ember...) ezt kívánják.
Komoly (tervezés, kódolás) feladatokra meg megvannak a megfelelő céleszközök. S talán végre nem kell erőgép sok +pénzért, ha az ember csak videózni, mérsékelt mennyiségben játszani, meg internetezni akar.
Van a családban egy e350 (asztali kiadásban), egy komoly lépésnek jó ebbe az irányba, de hogy sajátomként is tudjam használni "első gépként", talán még ez a trinity sem lesz elég ütős. De ha így fejlődnek, akkor a közeljövőben már igen!
-
Kornel
veterán
Szerintem nagyon jónak ígérkezik, lehet be is nevezek egyre majd
Egyébként aki szidja a llano-t, az még nem használta.
A43300M alapfeszen megy 2,5 GHz-et, APU+HD6650 VGA max 75 fok full load-nál.
Gyári órajelek mellett nagyon sokkal alul lehet feszelni, és 100% stabil marad.
A rekordom netezés mellett, nem minimum fényerőn 5,5 óra aksiról! (asus k53ta)
Most lecseréltem az APU-t A83500M-re, eddig nem nagyon teszteltem, de 2,2 GHz benne van alapfeszen, majd megnézem a végét. És ami meglepő, még kevésbé melegszik, mint az A4, lehet, hogy a gyári paszta nagyon gagyi volt
Szerintem nem rossz a dirt3 high beállítással átlag 44 FPS.
Szóval szerintem az szidja llano-t, aki életébe nem látta. -
Kansas
addikt
Nyugodtan mondogassa csak az Intel, legfeljebb majd megint kap az arcába az FTC-től.
A múltkori is 1.25 milliárd USD-ba fájt neki az AMD javára... lehet abból fejlesztették a Trinity-t
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
dezz
nagyúr
válasz julius666 #53 üzenetére
Valószínű, hogy ez a videólejátszásos 10 bites dolog jelenleg csak az YUV->RGB konverziótól él.
Abból 3x8 bites megjelenítőn is profitálhatunk, ha a videós +2 bitek a hw-es kimeneti ditherelővel ki tudnak menni.
"Ellenben az a +2 bitnyivel nagyobb pontosság igen komoly tömörítési boostot tud adni (kevesebb ditherzaj szükséges a banding elkerüléséhez a tömörített anyagba, illetve kisebb maga a kvantálási zaj is)"
Hmm, tekintve, hogy a +2 bit 25%-os kiinduló adat többlet, gondolom, a ditherelés hanyagolása többet hoz a konyhára, mint 25%. Érdekes. De mindezt a banding elkerülése érdekében? Mármint, ugye így is 0 az alsó két bit (mert ugye a forrás 8 bites, per csat.), de legalább a felső 8-at jobban "békén hagyja" az enkóder? Izé, akkor már jobb lenne erre egy opció ('cartoon switch'), tehát, hogy alsóbb bitek hiányában se "bántsa"... Nem?
-
Abu85
HÁZIGAZDA
Nem, semmi sem támogatja azt jelenleg. Konkrétan tévé sem lehet kapni, ami támogatja ezt a megjelenítési formát. A professzionális monitorok kitolják, de ez a konzumer piac, ide ilyen tévét nem gyártanak. Ezért nem látják ezt a gyártók fontosnak. Ami értelme lenne az az, amit az 53-as hsz-ben julius666 mond. Valszeg idővel úgyis fognak a gyártók fejleszteni, és így a szabványok támogatása fejlődik a dekódoló motorok esetében.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
válasz julius666 #53 üzenetére
Mi ez 10 bites dolog pontosan? Van erről valahol a neten egy magyar nyelvű leírás, hogy mik az előnyei és hátrányai? Ugye azt írtad, hogy nagyon erőforrás-igényes és hogy egy Intel Atom-nak beletörne a bicskája. Ha H.264-ről van szó, akkor hogyhogy nem tudja gyorsítani semmilyen GPU/IGP? Sokkal nagyobb a bitráta vagy miért?
Milyen gyakorlati haszna származik a usernek 10 bites videó esetén a 8 biteshez képest?
Elnézést a tudatlan kérdésért, de ez a 10 bites dolog most nagyon felkeltette az érdeklődésemet!Abu: A 6db Full HD stream egyidőben történő lejátszása az összes UVD 3-mal szerelt termékre jellemző vagy csak kizárólag a 28 nm-es verziók támogatják? Ja igen és lehet tudni, hogy pontosan hány Wattot eszik az UVD 3 és a SAMU?
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
Mert az a tökéletes HTPC jelenleg. Az UVD 3.0 a piac legfejlettebb dekódoló motorja. Amit az nem támogat más sem, de emellett extra, hogy még a DivX és Xvid anyagokat is gyorsítja. Ezenkívül megoldott a HTPC egyik legfontosabb kritériuma, vagyis le tudja játszani a Blu-ray filmeket natív módban 23,976 Hz-en. Mindezt 18 watton belül, ami szintén fontos eleme a HTPC-nek. Persze valakinek nem számít, hogy a HTPC-hez aktív hűtés kell. Ilyenkor egy 65 wattos A szériás APU a megoldás, amire már van Mini-ITX-es alaplap, vagy ha már úgy sem számít a fogyasztás, akkor egy Intel proci egy tetszőleges dedikált VGA-val. Nyilván a PC-n erre ezernyi opció van az igényeket figyelembe véve. Ami biztos, hogy az Intel IGP-i jelenleg szerintem nem jelentenek alapot HTPC-re, mert képtelen natív módban Blu-ray filmet lejátszani, illetve (ilyen) képhibát generál a hardver H.264 alatt öt körüli referencia frame esetén. Tekintve a HTPC lényegi értelmét, azaz a filmezést, nem merem így ajánlani az Intel IGP-it.
A WebM PC-n dekódoló motorból most sincs támogatva. Ez a VP8-as kodek, amit csak egy-két kínai ARM-os SoC gyorsít fix-funkciós egységről, de egyetlen PC-s lapka sem. Az AMD a shaderek erejét használja a feldolgozásra, de ettől az UVD 3.0 nem támogatja. Hasonlóan oldották még az MVC-t a Juniperre épülő, azaz UVD 2.2-es motort használó HD 6770 esetében, hogy legyen rajta 3D-s Blu-ray. Természetesen, ha kellően erős és okos a grafikus alrendszer, akkor ez megoldható manapság, de nem lesz olyan energiatakarékos a megoldás, mintha egy fix-funkciós motor végezni. A procinál persze így is sokkal jobb.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz huskydog17 #66 üzenetére
Megoldható, csak az UVD 3.0-nak is van egy tűréshatára. Temérdek tartalmat ráküldhetsz, de egy idő után köszöni szépen, nem fogja bírni szuflával. A fő szempont itt az órajel, mivel ez is így működik. Az új lapkákban új UVD 3.0 lesz. Azért hívják még mindig UVD 3.0-nak, mert a hardver technikai képességei nem változtak, de a módosított egység most már képes működni 500 MHz-es órajel felett is. A Tahiti cGPU esetében 925 MHz-en működik, és ettől válik alkalmassá arra, hogy egyszerre 6 Blu-ray filmet kitoljon. Az már egy másik fejlesztés, hogy a tahiti 48 hangcsatornát kezel, vagyis hat darab 7.1 csatornás hangfolyamot rendelhet a kijelzőkhöz. Ez nem az UVD 3.0 reszortja, hanem egy külön egységé. Nyilván itt az AMD messze nem a 6 Blu-ray film egyszerre történű kitolását célozza. Ez csak egy képesség, amire talán van egy maroknyi igény, de szerintem tömeges biztos, hogy nem. Amiért ilyen a rendszer, az az AMD érdeklődése az üzleti szféra irányába. Egyre nagyobb jelentőséggel bírnak a telekonferenciák, és üzleti szinten a különböző technológiák, amiket pár cég kínál több ezer dollárért mennek az igények lefedésére. Az AMD ezt PC-s kereket között kínálja a közvetett konkurensek árazásának töredékéért. A hosszútávú cél, hogy egy ultravékony notebookban legyen ez, amit egy dokkolóval rácsatlakoztatsz vagy 6 kijelzőre, és a mobil termékben a lapka megoldja a kijelzők etetését, illetve a telekonferenciát úgy, hogy minden kijelzőn csak az adott tartalomhoz rendelt hang szólal meg. Ennek a szoftveres és hardveres alapja már megvan. A hardver ugye a Tahiti cGPU, ami egyelőre asztali termék, de nem nehéz kitalálni, hogy idővel mobil szinten is megoldható lesz mindez. Idén, ha nem is ultravékony keretek között, de a mobil HD 7700M dGPU relatíve olcsón tudni fogja. A szoftveres részen az AMD már régóta dolgozik a partnerekkel, azóta már támogatják a ViVu és a Nuvixa fejlesztéseit, illetve a programokat a Fusionhöz szabják OpenCL támogatással és OVD API támogatással.
Az UVD 3.0 és a SAMU fogyasztása az órajeltől függ, és a gyártástechnológiától. Pár watt amit erről lehet általánosan mondani. Az biztos, hogy annál amit kiváltanak kevesebbet fogyaszt mindkettő, hiszen fix-funkciós motorokról van szó.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
Tehát ha jól értelmeztem a mondandódat, akkor kizárólag a Tahiti (Radeon HD 7900) esetében van garancia a 6 db Full HD stream-re. Mivel a Northern Islands (Radeon HD 6000 series) UVD 3 motorja 500 MHz-en üzemel, így ezek már nem bírnak el 6 db-ot.
Az UVD motorok fogyasztását illetően van valahol az interneten egy publikus dokumentum, ahol meg lehet nézni, hogy egy adott GPU-ban mennyit eszik az UVD motor? Például ha azt szeretném megtudni, hogy a Radeon HD 5470M VGA-ban a 2.2-es UVD egység mennyit eszik, akkor ezt hol tudom lecsekkolni?
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
válasz huskydog17 #69 üzenetére
Jól érted. Az 500 MHz, max két-három streamre elég.
Szerintem erről nincs doksi, de úgy 1-3 watt az érték, függően a terheléstől, és az órajeltől. Persze az UVD motor önmagában nem árul el sokat, mert a GPU többi része is működik filmlejátszás során, hiszen a post-processt nem az UVD csinálja.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
MZperX75
addikt
Már mondtam ,hogy a te mérésed a brazossal nem volt jó
Égető nagy butaságokat ne itt oszd......
Főleg szegény brazost szoftveresen képtelen voltál optimálisan beállítani,így hitelt nem érő tesztedre hivatkozni ...no komment.Ahogy egy AMD-s cikk közöl valami infót,és szóba kerül a brazos ,mint HTPC
te rögtön elkezded az off-ot!Igazold kérlek az állításod!
PH-s tesztek,mért mondanak mást?
A brazos(HTPC) ellenfele ár/teljesítmény/fogyasztás fronton az Intel atom és Via nano
ellenfele,és ott a pont![ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A 23,976 Hz támogatása a legfontosabb igény egy HTPC-nél. Minden egyes Blu-ray tartalom 23,976 fps-re van kódolva, vagyis csak ebben a módban lehet natívan lejátszani.
A 3D és a 10 bit valóban nem tömeges igény. Előbbi azért, mert nem sok televízió képes 3D-re, míg utóbbi azért, mert konkrétan nincs olyan televízió forgalomban, ami képes megjeleníteni.
A szinte mindennel nagyon kisarkított fogalom. A videók szempontjából ugyanis, ahol a Brazos megfekszik ott a 17 wattos Core procik is. Ahol viszont a Brazos megy, ott nem biztos, hogy a Core is menni fog. Ezért jobb a Brazos platform HTPC-re.
Már elmondták mások, hogy a méréseid tele vannak hibával, mert mindenki más kevesebbet mért a Brazos platformra.
Maradjunk annyiban, hogy az Intel grafikus drivere nem képes gyorsítani a VP8-at semmilyen formában. Azt kötve hiszem, hogy egy GPU-s gyorsítás többet fogyaszt, mint a procis lejátszás. Ilyen esetben miért alkalmaznánk ezt, ha rosszabbul járunk vele? Itt még ez Intel sem ért veled és a méréseiddel egyet, mivel számos formátumot gyorsítanak az IGP-vel, és ez a jövőben is kiegészül. Pontosan azért mert a GPU és a fix-funkciós motorok ebből a szempontból jobbnak számítanak a procis feldolgozásnál.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
"A 3D és a 10 bit valóban nem tömeges igény. Előbbi azért, mert nem sok televízió képes 3D-re, míg utóbbi azért, mert konkrétan nincs olyan televízió forgalomban, ami képes megjeleníteni."
Ismét egy kis felvilágosítást kérnék, mert most megint nem tiszta valami. Egy kicsit utánanéztem ennek a 10 bit mizériának és elvileg a valódi 10 bites (30 bit) megjelenítő kerekítve 1 milliárd színt képes megjeleníteni. A sima 24 bites TrueColor mindössze 16,7 milliót. Nos, adott egy Philips TV, ami 28,9 milliárd színt képes megjeleníteni. Ezek szerint ez a TV bőven képes a 10 bites megjelenítésre, sőt még többre is. A 28,9 milliárd szín hivatalos információ, szóval ez biztos. Te azt találtad mondani, hogy nem létezik olyan TV a piacon, ami képes a 10 bites megjelenítésre. Most akkor mi van?
Azt már tudom, hogy AMD téren az Evergreen szériától felfelé a GPU-k támogatják a 10 bitet, legalábbis az 5470M egész biztos, így gondolom, hogy a drágább modellek is.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
válasz huskydog17 #75 üzenetére
Érdekelne, hogy melyik Philips TV az, mert az a 28,9 milliárd eléggé túlzásnak tűnik. Majd 5 év múlva lesz olyan csatlakozó, ami ennyit át bír vinni. Egyelőre a DisplayPort 1.2 HBR2 és a 3 GHz-es HDMI 1.4a ami a csúcs szabvány szintjén. Ma viszont egyetlen tévé sem alkalmazza ezeket. Pontosan ezért kell kettő, vagy négy csatira kötni az extrém felbontásra képes megjelenítőket. Ebből a szempontból a Philips állítása nagyon necces, mert még ha feltesszük, hogy a panel szintjén igaz is (amiben kételkedem), akkor is évekig várni kell arra az interfészre, ami elbírja majd ezt az információmennyiséget.
A GPU-k régóta támogatják a 10 bitet, de mivel eléggé professzionális igényről van szó, így ha ilyet akarsz, akkor ugorj FirePro és Quadro megoldásokra. Ezeknél nem korlátozzák a gyártók a megjelenítés minőségét. A Radeon és GeForce szintjén igen.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
Persze nem titok, remélem nem gond, ha belinkelem, tehát erről a TV-ről volna szó.
Azt nem tudom, hogy 1.3 vagy 1.4-es HDMi van-e rajta, de van rajta két darab az biztos. DisplayPort nincs.
Hogyan lehet bizonyítani, hogy a TV valóban képes-e több tíz milliárd szín leképezésére vagyis hogyan lehet ellenőrizni azt, amit a gyártó állít?Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
osztraksajt
őstag
válasz huskydog17 #75 üzenetére
100.000:1 kontrasztarány. Érdemes ezeket a hivatalos specifikációkat azért fenntartásokkal kezelni, sokszor a "hogyan írjunk rá nagyobb számot, mit mivel szorozzunk" marketinges mentalitás uralkodik. (A zenei részt kivettem mert láttam közben a linket és szerkesztettem)
A 16,7 millió színnél is inkább az anyagok tömörítése ami sávosodást okozhat, nem maga színtér szűkössége nagyon speciális esetektől eltekintve. De azzal köznapi felhasználásnál nem fogsz találkozni.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz huskydog17 #77 üzenetére
Ez inkább marketingnek tűnik. Olyasmi lehet, mint a dinamikus kontraszt. Most a színen megy a hazudozás. Ahogy a kontrasztnál elértük a végtele aránylik 1-hez értékeke, úgy itt is elfogjuk érni majd a világ minden színét megjeleníti fogalmat. Most még csak tíz milliárdos értékeket hazudnak.
Ez egy olyan kérdés, hogy hogyan bizonyítod be, hogy a dinamikus kontrasztarány nem 500 000 000:1-hez?
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
huskydog17
addikt
Csak azt nem értem, hogy miért vagy biztos benne, hogy marketing hazugság ha nem lehet leellenőrizni? Valami alapja biztosan van, hogy ennyire biztos vagy abban, hogy a gyártó nem valós adatokat adott meg a hivatalos dokumentációban. Mi az vagy mik azok az információk ami alapján ki lehet következtetni vagy esetleg biztosra kijelenteni, hogy a gyári adatok nem valósak?
Ezt abszolút nem kötekedés végett kérdem, hanem valóban érdekel a dolog!
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Kornel
veterán
válasz huskydog17 #80 üzenetére
Lassan csak a samsung és az lg gyárt panelt, a többi gyártó már mind csak összeszerel, de lassan annak is vége, sony is kiszáll, panasonic is leépíti a gyátási kapacitását. Ásd bele magad jobban a TV témába, mielőtt felháborodsz valamin.
Philips pedig már rég csak egy összeszerelő, de szerintem az se sokáig. Marketing meg kell, különben ki venné meg a roszabb elektronikával szerelt samsung panelt, jóval drágábban, mint amennyiért a koreaiak adják
[ Szerkesztve ]
-
dezz
nagyúr
Szerintem több tévé is támogatja a HDMI-s DeepColort, valamilyen szinten (10-12 bit/color). Több ilyen nem-profi monitor is van (DP-ről is).
(#74): "Minden egyes Blu-ray tartalom 23,976 fps-re van kódolva"
Nem egészen, csak a mozifilmek, de abból is van 24fps-es. Tévés/videós forrású anyagok az eredeti fps-sel kerülnek a lemezre.
(#76): Éppenséggel a DeepColor 16 bit/színcsatornája (amit a HDMI 1.3 1920×1200p60-ig támogat) már összesen 281 trillió árnyalat... A 28 milliárd még 12 bit/színcsatorna sincs (az 68 milliárd).
A normálisabb tévéknél a belső feldolgozás általában 12 bit/színcsatornás és legalább 10 bit/színcsatornás (jobb esetben natív, de legalább effektív) a megjelenítés! Mint ahogy a normálisabb monitorok is ilyenek.
(#79): Nem éppen, ez nagyon is fontos dolog!
Bocs, de legközelebb talán egy kicsit átgondoltabban, Abu... Csak nem másnapos vagy?
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz huskydog17 #80 üzenetére
Attól függ, hogy mit ír a gyártó definíciója. Ha valamit állítanak például a 500 000 000:1-es kontrasztra, akkor annak van egy háttérdefiníciója, hogy milyen kisarkított körülmény alatt lehet reprodukálni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ne légy ennyire meggyőződve az igazadról. Amit szembe állítottál a Brazos platformmal az 70 000 forintnak megfelelő összegű konfiguráció, vagyis kétszer annyit kell fizetni érte, amit az általad használt ASUS alaplapért. Megírtam már, hogy annak is van ellenfele, csak nem a Brazos. A Brazost az Atom ellen készítették. Atomos alaplapot bőven tudsz szerezni 35k-ból. Ez már önmagában megválaszolta, hogy miképp nem lehet a két rendszer egymás ellenfele. Most arról ne beszéljünk, hogy Core i5-2390T procit be sem tudsz szerezni hazánkban.
[ Módosította: Kalandor ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Én még nem láttam tévét 10 bites csatornánkénti támogatással. De amúgy is mindegy, mert a gyártók ezt a funkciót főleg a profi VGA-kra korlátozzák.
A Blu-rayt szerintem főleg mozizni veszik. Alig van olyan film ami nem 23,976 fps-sel került fel. Ez már önmagában elég indok, hogy ha hiányzik ennek a támogatása, akkor az a gép nem lehet HTPC alap, mert a legfontosabb feladatát nem tudja ellátni.
Nem vagyok másnapos, csak megy a verseny a színekkel, amikor többezer dolláros FirePro vagy Quadro kell, hogy elméletben aktiváld a DeepColor szolgáltatást. Bullshit az egész. Még a 3D-nél is nagyobb. Abban pedig biztos vagyok, hogy nem fogod látni a különbséget. Még a 10 bit színcsatornánként elmegy, de a 12-16 már több mint sok. Inkább azon kellene dolgozni, hogy másodpercenként több képkockát rögzítsenek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
Vagy csak nem tudtál róla... A középkategóriás TV-s IPS panelok már 3x10 bitesek és a feldolgozás sem áll meg 8 bitnél szinte egyik tévénél sem, mert annak nagyon tré eredménye lenne.
A DeepColort is sok tévé támogatja ma már. Az mondjuk számomra sem teljesen tiszta, hogy a 8 bit/csat. színmélységű Blu-ray mellett hol van ennek jelentősége. Talán a dekódolásnál, esetleges kép-effekteknél (lejátszón belül értem).
Természetesen szerintem is nagyon fontos a 23,976 fps normális támogatása és valóban a Blu-ray lemezek többsége is ilyen, csak az nem felelt meg a valóságnak, hogy nincs is más.
Az utolsó is téves (pedig egy másik topokban a részvételeddel éppen tegnap volt erről is szó, gondoltam, valamilyen hatásra kiment a fejedből ), ugyanis egyrészt a normál videokártyák kimeneti LUT-jának csatornánkénti 16 bitjéből DP-n 10, HDMI-n 12+ bit mehet át, ha a megjelenítő támogatja. Másrészt szintén normál kártyákon is megjeleníthető a video overlayon 10 bites kép (csak asszem nem RGB-ben, hanem YUV). Ha nem vagy tisztában a dolog jelentőségével, szívesen elmagyarázom, megmutatom... Koránt sem bullshit, annyit mondhatok.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ok lehet, hogy van ilyen tévé, és csak én nem láttam.
Egy probléma van ezzel. A driver tilt olyan szolgáltatásokat, amit a hardver tud. A gyártóknak az a jó, hogy ha veszel FirePro és Quadro kártyát, az nem, ha töredékárért megkapod ugyanazt a szolgáltatást Radeonban egy GeForce-ban. DeepColor támogatást csak pár drágább terméknél aktiválnak. Ez nem fog megváltozni, amíg a potenciális vásárlók nagy része a TN és az IPS között nem értékeli a különbséget. Iszonyatosan sokat tudnak a mai VGA-k hardverből ezen a területen, de szoftverből alig engedélyeznek a többségnél valamit. A saját üzletüket rontanák a gyártók, ha az olcsó 10k-s termékeken menne mindent.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
attiLANte
tag
"Azt kötve hiszem, hogy egy GPU-s gyorsítás többet fogyaszt, mint a procis lejátszás."
Persze, önmagában egy fix funkciós egység kevesebb energiával is beéri, csak az a nem mindegy, hogy ezt hogyan teszi. Ha egy combos grafikus rendszer részeként, ahol az aktiváláshoz meg kell emelni a teljes GPU (+ dedikált memória) órajelét/feszültségét, akkor máris elveszett a fogyasztási előny - sőt, az is előfordulhat, hogy ugyanazt a feladatot egy hagyományos CPU kisebb fogyasztás mellett ellátja.
Tehát mégsem minden esetben hatékonyabb a GPU-s gyorsítás - vagy netán lemaradtam valamiről, és pl. az UVD 3-as motor végre már a GPU-tól függetlenül működik? -
Abu85
HÁZIGAZDA
válasz attiLANte #91 üzenetére
Az UVD az egy külön rész a GPU-n belül a GPU csak a post-processt csinálja, ha akarsz.
Ha nem lenne hatékonyabb a GPU-s megvalósítás nem alkalmaznák a cégek. Ehhez képest, amit lehet mindenki gyorsít. Ez eléggé beszédes.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dezz
nagyúr
"Ok lehet, hogy van ilyen tévé, és csak én nem láttam."
Több éve láttál utóljára LCD TV-t?
"DeepColor támogatást csak pár drágább terméknél aktiválnak."
Negatív. Amit a kimeneti LUT-ról és a video overlayről írtam, az az átlag kártyákra vonatkozik! (Az LUT-osat első kézből mondom, meg tudom mutatni, a videooverlayesről kérdezd pl. janos666-ot a "videó részlegen".) Különben szinte használhatatlan lenne pl. a "sw-es" kalibráció is... Amit nem tudnak (le van tiltva), az a 3x10 bites frame-buffer támogatás, ahol tehát úgy alakítod a 30 bites képet, ahogy akarod.
(#91) attiLANte: A videódekódoláshoz elég igen alacsony órajelen működnie a GPU-nak.
[ Szerkesztve ]
-
attiLANte
tag
Persze, tudom én hogy ez a jövő, meg csúnya "dark silicon", stb., de attól még él a kérdésem és megfogalmazom kicsit pontosabban:
ha csak az UVD motorra van szükség a dekódolás miatt (utófeldolgozás vagy egyéb tevékenység nincs, csak egy film megy teljes képernyőn), akkor a GPU üresjáratban fog maradni, és csak az UDV egység fogyasztásával nő a felvett teljesítmény?(#93) dezz : abu 500- illetve 925MHz-et írt korábban (ha jól emlékszem), az pedig nem idle órajel. Egy komolyabb dGPU esetén ez néhány tíz wattal is megdobhatja a fogyasztást...
[ Szerkesztve ]
-
dezz
nagyúr
Nem. Az első esetben csak a LUT-tól kezdve él a dolog (tehát a 3x256 elemű LUT-ban tárolt 16 bites értékekből megy ki adott számú bit). A video overlayes dolgot nem ismerem közelebbről, de azt hiszem, valamilyen oknál fogva nem egyenértékű azzal, mint ha 3x10 bites frame-buffered lenne, de mégis 3x10 bites.
-
attiLANte
tag
Itt most az elvről van szó (emellett IGP-ben is van/lesz izmosabb változat, úgyhogy akár ez a vonal is érintett lehet).
Az nagyon is rendben van, hogy pl. az UVD igen hatékonyan dolgozik, de ha ehhez fel kell pörgetni az egész GPU-t (vagy IGP-t), akkor oda lesz a takarékosság és megbukhat az általánosítás, miszerint egy GPU minden esetben kevesebb energiát igényel adott feladat elvégzéséhez, mint egy CPU.
Ennyi, off vége...
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen