Keresés

Hirdetés

Új hozzászólás Aktív témák

  • craine12

    tag

    válasz ddekany #8 üzenetére

    Leszögezem, hogy nem értek hozzá, de logikusnak tűnik, hogy adott mennyiségű fény, ha több érzékelő közt oszlik szét, akkor egyre kevesebb mennyiségű foton jut, ergo zajosabb lehet a kép. Tehát amit írsz, hogy kevésbé hatékonyan gyűjti be a nagyobb felbontású CCD a fényt, szerintem is igaz.

    No woman. No cry. No kidding.

  • Hydra SR

    addikt

    válasz ddekany #8 üzenetére

    A rövidebb optikán könnyebb több fényt átengedni. Viszont annak nagyobb a látószöge -> ahhoz, hogy teleobi is lehessen belőle, kis szenzor kell mögé. Ergo: a kis szenzoros gépeken rövidebb az optika ugyanakkora látószögnél, emiatt több fényt képesek átengedni.
    De ha megnézed, nem egy ultrakompakt fényereje indul F2.4-ről. A DSLR kitobik meg mondjuk F3.5-ről, ami kevesebb mint fele annyi fényt enged át holott még a látószöge is nagyobb nagylátóban. Valamint: a rövid optikával a mélységélesség is nagyobb, nem kell szarrá rekeszelni hogy ne 3 centi legyen az élesség síkja. A rekeszelés további fényerővesztéssel jár.
    Cserébe a nagyobb szenzor ugyanannyi effektív képpontnál kevésbé zajosodik, följebb nyomhatod a fényérzékenységet is nyugodt szívvel. Valamit valamiért.

    Azt nem tudom, hogy képzelted, hogy ugyanannyi fény oszlik szét nagyobb területen. Nagyobb optika, nagyobb frontlencse, nagyobb átmérők, nagyobb leképezési arány. Az F2.8 ugyanúgy F2.8 DSLR-en, mint ultrakompakton.

    [Szerkesztve]

    A privát arra való, hogy olyasmit írj, ami nem tartozik másra. A szakmai kérdéseknek általában van topicja. Ha nincs, nyiss egyet.

  • MaUser

    addikt

    válasz ddekany #19 üzenetére

    Másfelől a kép fényerősség részének felbontása nő, aminek a részlet gazdagságára a szem sokkal érzékenyebb.

    A szem nem így működik: a fénysűrűségben jelentkező nagy különbségekhez elég jól alkalmazkodik, de színekhez nem tud alkalmazkodni. Szobai világításnál és napfényben is jól látunk, pedig nem 2x-es a fénysűrűség különbség, ellenben a színeket nem tudjuk másnak látni, mint amilyenek. Nézd meg a dp oldalán a harmadik próbafotót. Nem a háttérben lévő piros oszlop ''színe'' a legzavaróbb? Szvsz az. (És nézd meg, hogy el van kenve a széle, mert még nem jó az interpoláció.)

    És presze azzal is részletgazdagabb lesz a kép, ha pl. nincs annyira bemozdulva a hosszú expozíciós idő miatt, vagy ha ugyan olyan akkora expoziciós idő esetén nem kell annyit ''erősíteni'', ergo kevesebb lesz a zaj.

    A bemozduláson segíthet ez az egy-két fényérték, ezzel egyetértek, de a színeket tönkrevágja az eddig látott fotók alapján. A zajon pedig a nagy érzékelő méret segít inkább, itt is kisméretű cellákat fogsz erősíteni. Reménykedjünk hátha megcsinálják aps-c méretben kevés valós (mondjuk 6mega) pixelszám mellett, ott nagyot szólhat, csak a színhűség lesz kérdéses.

    Ami a marketingeseket illeti, a megapixeleket eddig is a CDD cellák számával jellemezték, tehát pl, nem osztották le 3-al bayer miatt vagy ilyesmi, szóval meglepődnék ha nem ezt a gyakorlatot folyatnák az ilyen újabb fajta CCD-knél is. Azaz, a marketinges megapixel szám nem érintett.

    A Bayer szűrőknél persze, hogy a szubpixelek számát adják meg (illetve általában a hasznosakét), hiszen az majdnem megegyezik az előállított kép pixeleinek a számával (széleken ugye van fél pixel hiány). Ellenben a Fuji szerette a superccd-i valós pixelszáma helyett az interpoláltat megadni. Olyanok is voltak azok az interpolált képek, itt azonban ez még jobban ki fog jönni az elrendezés miatt, hiszen kétszer annyi szubpixelből számolod egy valós pixel értékét.

    gen, de másfelöl ha több a fény, akkor kevésbé mákos a kép, mert kevésbé kell erősíteni. És ha hatékonyabban gyűjti össze a CDD a fény energiáját, akkor az hasonló hatású lehet mintha több lenne a fény, érted. Na ezért mondtam. Aztán, majd meg látjuk milyen is lesz a kész termék... lehet hogy trágya, de technikailag én látok ebben fantáziát.

    A begyűjtött plusz fény segíthet, de a Fujinak ez nem jött be, itt meg ráadásul a pixelek fele megy el erre a mókára, azaz lefelezik az egyébként is hangya*nyi érzékelőket. Hát nem tudom, meg kell várni az első normális mértetű képeket, de a közzétett kisméretű képek alapján én nem nagyon reménykednék a csodában, mert már ezeken is látszik zajosodás elég keményen...

    Hm... Hát nem vagyok fotós ember, de szerény véleményem az, hogy már hogy a fenébe ne befolyásolnák jelentősen? Ha csak egy szűk frekvencia tartományban engeded át a fényt (pl. ''piros''), akkor ami azon kívül esik az elveszett. Nem?

    Úgy értettem, hogy a beérkező fotonok igen kis százalékát nem engedi át a szűrű az adott frekvenciatartományból, azaz egy zöld nagyrészét átengedi a zöld színhez tartozó hullámhosszúságú fénynek.

    ''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''

  • Hydra SR

    addikt

    válasz ddekany #17 üzenetére

    Lehet, hogy hülyén fogalmaztam meg de a lényeg: egységnyi területre ugyanannyi fény jut, ha ugyanakkora fényerejű az objektív. Nem összesen jut be mondjuk F2.8-nyi fény, hanem olyan fényerejű lesz a kép minden pontja ahogy azt a záridőtől, blendétől és fényérzékenységből no meg a fényviszonyokból ki lehet számolni, függetlenül attól, hogy mekkora területre rajzol. Gondolj csak bele: ha egy filmes gépre tervezett objektívet átraksz egy APS-C méretű szenzorral szerelt digitális gépre, nem fog sem megnőni, sem lecsökkenni a fényereje, csak a látószöge változik. Ha F4-es akkor F4-es minden gépen amire fölmegy. Más kérdés, hogy nagyobb szenzorhoz nagyobb optika kell de nem a fényerő miatt hanem kirajzolt kép mérete miatt. Szóval: nem lesz zajosabb a kép nagyobb szenzoron, csak ha az érzékelő képpontok sűrűsége is megnő. Nagyon nem jellemző eset. És ugyanakkora blendénél ugyanolyan fényviszonyoknál ugyanakkora fényérzékenységnél ugyanakkora záridőt fog feldobni neked a fénymérés.

    [Szerkesztve]

    A privát arra való, hogy olyasmit írj, ami nem tartozik másra. A szakmai kérdéseknek általában van topicja. Ha nincs, nyiss egyet.

  • Hydra SR

    addikt

    válasz ddekany #29 üzenetére

    Igazad van, elbeszéltünk egymás mellett. A te hozzászólásodban volt ilyen de idézetként :) Sry, figyelmetlen voltam :)

    A privát arra való, hogy olyasmit írj, ami nem tartozik másra. A szakmai kérdéseknek általában van topicja. Ha nincs, nyiss egyet.

  • MaUser

    addikt

    válasz ddekany #27 üzenetére

    Szvsz a dp-n mutatott képek alapján a kapott dinamikáért cserébe az új érzékelő ront a színeken és zajosságon azonos pixelszám mellett. Indoklást lásd alább.

    Az interpolációról. Kicsit elbeszélünk egymás mellett. Én nem arról az interpolációról beszélek, ahogyan a Bayer mintából előállítjuk a képet (demosaicing angolul).

    Kis ismertető a Bayer érzékelőről: Egy képpont értéke ugye ilyenkor 4 ccd pixelből tevődik össze. (Vannak más elrendezések is de ez adja a legegyszerűbben a legjobb minőséget, leszámítva a moiré-t. A 4 képpont pedig azért kell, mert az emberi szem 2x érzékenyebb a zöld színre, mint a kékre vagy a pirosra.) Ez nem a matematikai értelemben vett értelmben vett ''interpoláció'', egyszerűen egy színt 3 keverékéből állítja elő a ccd: [kép] Azaz a pixeleket úgy kapjuk, hogy egy ''vödrös'' átlagoló algoritmust futtatunk a Bayer mintán. Ebből láthatjuk, hogy egy ccd pixel értékét 4 képpontban is felhasználjuk, kivéve a széleken, azaz a kapott kép felbontása majdnem megegyezik a ccd cellák számával. Ha nem ezt tennénk nagy ugrások lennének a pixelek között. Én azonban nem erre gondoltam amikor interpolációról beszéltem.

    Superccd esetén is hasonlóan előállítják a kép pixeleit, de mivel az elrendezés lehetővé teszi, hogy - példa kedvéért most - az adott 6 millió ccd pixelből egy hasonlóan 6 millió ccd pixeles Bayer érzékelőnél jobb minőségű, immár ténylegesen interpolált képet állítsanak elő, ezért gyakran élnek is ezzel a lehetőséggel és 12megapixeles kép készítését is lehetővé teszik. Persze ennek minősége korántsem felel meg egy 12 megapixeles Bayer érzékelős képének, de jobb mintha egy 6 megapixeles Bayer érzékelős képet interpolálnánk 12 megapixelesre. Remélem így már érthető, hogy én ezt értettem interpoláláson és nem az egyes ccd képpontok átlagolását, mégha azt is hívják gyakran interpolálásnak. (szvsz helytelenül)

    És hogy miért jön ez ide? A dp oldalán felvázolt a Kodak néhány lehetséges mintázatot. Ezekből remekül látszik, hogy egy x megapixeles érzékelőből, csak x/2 db képpontot lehet előállítani interpolálás nélkül, azaz egy 12 megapixeles érzékelőből csak 6 megapixeles képet kapunk interpláció nélkül, mivel a világosságnak is kell ugyanannyi pixel, mint a színességnek. A mai világban ez a pixelszám persze már nem elég a marketingeseknek, ezért majd vagy jól megduplázzák a ccd cellák számát (nagyobb erősítés fog kelleni, mivel egyre kevesebb foton jut egy érzékelőre -> nő a zaj is) vagy interpolálják a képeket, hogy meglegyen az elvárt kiscsillió megapixel. (én még ennek örülnék jobban, mert ugye ez kikapcsolható) Ez utóbbi esetben ténylegesen lehet javulás (bár ehhez ugye ismerni kéne a konkrét algoritmust, ahogyan számolják), de attól félek, hogy nem ez fog történni, mivel a tényleg jó képekhez 5-6 megapixelnél többet nem lehet rápakolni egy kisméretű érzékelőre, azt meg nem fogja lenyelni egy cég sem, hogy 2-3 megapixeles kamerákat gyártsanak újra.

    Egy nagy lehetőséget látok, amit remélem ki is használnak, mégpedig a már írt nagy méretű érzékelők piacát. Ott egy ilyen nagyot szólhatna, a sportfotósok megőrülnének érte, arról nem is beszélve, hogy egy kézimeccset elmehetnék fotózni egy 70-200L F4 obival ilyen érzékelő társaságában...:Y

    Az utolsó mondatodnál azért azt vedd figyelembe, hogy színek előállításához kellenek a színszűrők, mert nélkülük csak fekete fekete-fehér képeket kaphatunk. Ezért szeretném tudni, hogy számolják a szűretlen érzékelők által mért fényt, mert az sok mindenre rávilágítana...

    ''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''

  • orbano

    félisten

    válasz ddekany #42 üzenetére

    Én amit logikusnak tartanék:

    Első lépés: színtelen érzékelőknek szín megadása a környező színes pixelekből valami spéci mintavételezési algoritmussal
    Második lépés: hagyományos, homogén interpoláció

    Nem hinném én sem, hogy az azonos szenzorméretre eső, kihozható felbontások közti különbséget megérezén bármilyen élvezhető felbontást produkáló nagyításban.

    A vér nem válik VAZZE!™

  • BEE

    addikt

    válasz ddekany #42 üzenetére

    Ezekről csak akkor lesz értelme vitázni, ha majd látunk képet is
    ami egy ilyen érzékelővel készült.
    Gyaníthatóan olyan számítást fognak alkalmazni, ami minimum olyan
    képminőséget ad, mint a Bayer mintás.
    Ráadásul a különbség igazáből csak a sötét részeknél jön majd elő,
    hiszen itt ígérnek jobb képet a gyártók.
    Amúgy azt a lehetőséget sem hagynám ki, hogy a semleges színű
    képpontból kivonják a mellette lévő színesek értékeit és ezzel létrehoznak
    valamilyen virtuális zöld értéket.

    BEE

    Fradi volt, Fradi lesz, amíg a földön ember lesz !

  • MaUser

    addikt

    válasz ddekany #42 üzenetére

    Nagyon nem értesz, (ez elő szokott fordulni mással is, szóval no offense)

    A Bayer szőrőnél nem hiányzó értéket találsz ki, egyszerűen van négy szomszédos cellád, amelyből teljesen egyértelműen előáll egy rgb képpontod, nincs hiányzó adatod, maximum a mérésed nem annyira tökéletes, mint Foveon esetén, ahol a teljes ccd cellán megkapod a három szín értékét. Nem interpolálsz matematikai értelemben, mert nem hiányzó értéket számolsz ki, az értékeid mind adottak, egyszerűen veszed a megfelelőket a szomszédos cellákból és kész is vagy (persze nagyon leegyszerűsítve). Annyi csalás van a dologban, hogy 4 ccd cella esetén az 1/4-ére eső piros v. kék értéket elfogadod mind a 4 cellára vonatkozóan, még zöld esetén a 4 cella felére eső zöld fényt fogadod el a 4 cellára eső zöld fénynek, de ezt ne nevezzük már interpolációnak ha lehet.

    Azért írom, hogy fele lesz a felbontás a Kodak új elrendezése esetén, mert itt az eddigi logikát követve nem 4 ccd cellából számolod ki egy adott képpont értékét, hanem 8-ból (legalább is nagyon remélem) amelyből négy adná az eddigiek szerint a színt és négy a fényességet. Ezt tartanám logikusnak és ez adná a legjobb eredményt. Az elrendezések alapján ez tűnik logikusnak. Egy esetben lehetséges, hogy négy cellából számolják egy képpont értékét, ha világosság értékéből kivonják a mellette lévő két külünböző szín értékét, de ekkor meg nagyon jól kell ismerni a színszűrők karakterisztikáját és adtunk annak a valaminek egy pofont, mert ugyanott lennénk ahol a Bayer szűrővel csak a színhelyesség még rosszabb lenne.

    ''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''

  • MaUser

    addikt

    válasz ddekany #51 üzenetére

    Tényleg tök utoljára: képzeld úgy az egészet, mint egy sima mozgó átlagot, csak itt a képen mozogsz. Egy ccd cellát persze, hogy felhasználsz több képponthoz, de ne úgy képzeld, hogy a négy cella közepére számolod ki a képpontot, hanem a képpontot reprezentáltad eddig is a négy cellával. Nem interpolálsz, hanem sima mozgóátlagot számolsz 2d-ben. Abban tökéletesen igazad van, hogy így nem teljesen fedjük le az egész képpontot minden színnel, de ezt ne hívjuk már interpolácónak. Ami hiányzó adat van a nem teljes lefedés miatt, az meg már elég jelentéktelen a mai modern érzékelőknél a kisméretű ccd cellák miatt, ráadásul egy Foveonos lapka képeitől sem esett eddig hasra sajnos.

    Más: Csiga linkje valamit enged következtetni a számolásra, de az ottani példa még durvább, mert 4*4-es blokkokat használnak. Tényleg jó lenne ha lenne valami érdemi publikáció is a dologról.:)

    ''A file-cserélés öli meg a filmipart? Inkább a filmipar öli meg a file-cserélést. 2 hónapja nincsen semmi értelmes film, amit érdemes lenne letölteni...''

  • dezz

    nagyúr

    válasz ddekany #42 üzenetére

    ''Nem tudom, de elég valószínű, hogy kb úgy fogják fel a képet, mint ahogy pl. videó tömörítésnél és JPEG-nél csinálják már nagyon régóta: külön szín és külön világosság. Mint két kép: egy fekete-fehér fotó, és valami nagyon fúrcsa színes fotó, amin minden egyforma világos. Aztán ezt a két képet összekombinálod RGB-vé (matek...).''

    Csak a pontosság kedvéért: az YUV színtérnél az U és a V mesterségesen létrehozott színkülönbségi jelek/értékek, amik egyátalán nem tartalmaznak világossági információt. Ennél az új Kodak módszernél meg ugyanaz az R, G, és B, mint eddig, csak kiegészül egy világossági elemmel [asszem ez sem teljesen ugyanaz, mint a másiknál az Y, de mindegy].

    A hasonlóság inkább abban van, amit korábban írtál, hogy a színfelbontás mindkettőnél kisebb (pontosabban YUV-nél 4:2:2, 4:2:1, stb. módok esetén kisebb), mint a világossági felbontás, mert a szemnél is így van ez. (Persze ezt csak akkor indokolt alkalmazni, ha a pixelek elegendően kicsik, különben látható és zavaró lehet.)

Új hozzászólás Aktív témák