JP2012231273A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2012231273A JP2012231273A JP2011097827A JP2011097827A JP2012231273A JP 2012231273 A JP2012231273 A JP 2012231273A JP 2011097827 A JP2011097827 A JP 2011097827A JP 2011097827 A JP2011097827 A JP 2011097827A JP 2012231273 A JP2012231273 A JP 2012231273A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- luminance
- frame
- exposure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 23
- 239000000203 mixture Substances 0.000 claims abstract description 48
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 239000002131 composite material Substances 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims description 41
- 230000015572 biosynthetic process Effects 0.000 claims description 12
- 238000003786 synthesis reaction Methods 0.000 claims description 12
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 230000004048 modification Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000009499 grossing Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置に関する。 The present invention relates to an imaging apparatus.
露光量が異なる複数の画像を取得して暗い部分の再現に適した画像と明るい部分の再現に適した画像とを組み合わせて見かけのダイナミックレンジを拡大する処理を、時系列に連続的に取得した画像(いわゆる動画像)に対して適用する技術が知られている(特許文献1参照)。被写体が変化する場合にダイナミックレンジ拡大処理を行うことによって生じるぶれなどの不具合を避けるために、被写体の動きを検知するとダイナミックレンジ拡大処理を行わないように制御される。 The process of expanding the apparent dynamic range by acquiring multiple images with different exposure amounts and combining images suitable for reproducing dark areas and images suitable for reproducing bright areas was continuously acquired in time series. A technique applied to an image (so-called moving image) is known (see Patent Document 1). In order to avoid problems such as blurring caused by performing dynamic range expansion processing when the subject changes, control is performed so that dynamic range expansion processing is not performed when motion of the subject is detected.
従来技術では、被写体の動きの有無によってダイナミックレンジ拡大処理をしたりしなかったりするので、得られる画像に違和感が生じるという問題があった。 In the prior art, the dynamic range expansion process is not performed depending on the presence or absence of the movement of the subject, and thus there is a problem that a sense of incongruity occurs in the obtained image.
本発明による撮像装置は、連続するフレームの各フレームにおいて露光時間が異なる複数の画像をそれぞれ取得する撮像手段と、露光時間が異なる複数の画像に基づいて合成画像を生成する画像合成手段と、露光時間が異なる複数の画像ごとに、nフレーム目と(n−1)フレーム目との間の輝度差をそれぞれ検出する輝度差検出手段と、輝度差検出手段によって検出された複数の画像ごとの輝度差に基づいて、画像合成手段がnフレーム目に対する合成画像を生成する際に異なる合成処理をさせる制御手段と、を備えることを特徴とする。 An imaging apparatus according to the present invention includes an imaging unit that acquires a plurality of images with different exposure times in each of consecutive frames, an image synthesis unit that generates a composite image based on a plurality of images with different exposure times, and exposure. Luminance difference detection means for detecting the luminance difference between the nth frame and the (n-1) th frame for each of a plurality of images having different times, and the luminance for each of the plurality of images detected by the luminance difference detection means Control means for performing different composition processing when the image composition means generates a composite image for the n-th frame based on the difference.
本発明によれば、動画像に対して適切にダイナミックレンジ拡大処理を行うことができる。 According to the present invention, it is possible to appropriately perform dynamic range expansion processing on a moving image.
以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による電子カメラの構成を例示するブロック図である。図1において、電子カメラ1は、撮像センサー11と、フロントエンド部(AFE)12と、鏡筒13と、モータードライブ部14と、フラッシュメモリ15と、DSP16と、RAM17と、輝度差検出部18と、画像合成部19と、動画処理部(H.264)20と、ノイズ除去部(3D-NR)21と、カードインターフェース22と、操作部材23とを含む。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating the configuration of an electronic camera according to an embodiment of the invention. In FIG. 1, an
撮像センサー11の受光面には、鏡筒13内に構成されている撮影レンズによって被写体像が結像される。撮像センサー11は、受光素子が受光面に二次元配列されたCMOSイメージセンサなどによって構成される。撮像センサー11は、結像された被写体像を光電変換する。光電変換信号は、フロントエンド部(AFE)12によってゲインコントロールやA/D変換などの処理が施され、DSP16へ入力される。
A subject image is formed on the light receiving surface of the
DSP16は、デジタル画像データに対して各種の画像処理(色補間処理、階調変換処理の他、後述するダイナミックレンジの拡張処理、ノイズ低減処理など)を施す。フラッシュメモリ15は、電源オフ時にも記憶内容を保持するメモリである。フラッシュメモリ15は、DSP16が実行するプログラムなどを記憶する。
The DSP 16 performs various types of image processing (color interpolation processing, gradation conversion processing, dynamic range expansion processing, noise reduction processing, etc. described later) on the digital image data. The
カードインターフェース22は不図示のコネクタを有し、該コネクタに、たとえばSDメモリカードなどの記憶媒体が接続される。カードインターフェース18は、接続された記憶媒体に対するデータの書き込みや、記憶媒体からのデータの読み込みを行う。
The
RAM17は、電源オフ時に記憶内容を消失するメモリである。RAM17は、画像バッファとしてDSP16による画像処理の前工程や後工程でのデジタル画像データを一時的に記憶する他、DSP16によるプログラム実行時のワークメモリとして用いられる。
The
DSP16は、フラッシュメモリ15が記憶するプログラムを実行することにより、電子カメラが行う動作を制御する。DSP16は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、たとえば、ライブビュー画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求める。ライブビュー画像は、撮影指示前に撮像センサー11によって所定の時間間隔(たとえば60フレーム/毎秒)で繰り返し取得されるモニタ用画像のことをいう。
The DSP 16 controls an operation performed by the electronic camera by executing a program stored in the
輝度差検出部18は、所定のフレーム画像間で対応するエリアにおける輝度差を検出する。画像合成部19は、所定のフレーム画像に対してダイナミックレンジの拡張処理を施す。ダイナミックレンジの拡張処理は、たとえば、露光時間を変えて露光量が異なる複数のフレーム画像を取得し、暗い部分の再現には露光時間が長い方のフレーム画像のデータを用いて再現し、明るい部分の再現には露光時間が短い方のフレーム画像のデータを用いて再現し、暗い部分と明るい部分の中間は双方のフレーム画像を用いて再現する。この拡張処理により、見かけのダイナミックレンジを拡げる。
The luminance
動画処理部20は、たとえば、公知のH.264手法を用いて動画圧縮処理を行う。ノイズ除去部21は、たとえば、公知の3D-NR手法を用いてフレーム画像に重畳したノイズを低減する。操作部材23は、不図示のシャッターボタンや録画ボタン、ズームスイッチやメニュースイッチなどを含み、各ボタンやスイッチの操作に応じた操作信号をDSP16へ送出する。
The moving
本実施形態は、上述した電子カメラが備える録画時(動画撮影時)に行うダイナミックレンジの拡張処理に特徴を有するので、以降の説明は録画時に行うダイナミックレンジの拡張処理を中心に説明する。 Since the present embodiment is characterized by the dynamic range expansion processing performed during recording (moving image shooting) included in the electronic camera described above, the following description will focus on the dynamic range expansion processing performed during recording.
図2は、DSP16が実行する処理の流れを説明するフローチャートである。DSP16は、操作部材23を構成する録画ボタンから操作信号が入力されると、図2による処理を起動する。図2のステップS11において、DSP16は、被写体輝度に応じて撮影条件を設定する。たとえば、録画時のフレームレートに応じた露光時間Tで適正露出が得られるように、撮像センサー11の感度を設定してステップS12へ進む。なお、感度設定に加えて、あるいは感度設定の代わりに不図示の絞りを変更してもよい。
FIG. 2 is a flowchart for explaining the flow of processing executed by the
図3は、本実施形態による録画シーケンスを説明する図である。DSP16は、たとえば30フレーム/毎秒のフレームレートで動画像を取得するように制御する。DSP16はさらに、ダイナミックレンジ拡張処理に用いるために、1フレームにつき長露光画像Lと短露光画像Sとをそれぞれ取得させる。本実施形態では、1フレームを構成する1/30秒のうち半分の1/60秒を長露光画像用の露光時間Tとする。上記設定した撮像センサー11の感度(または絞り値)は、長露光画像Lを適正露出に近づけるように決定された値である。DSP16はさらに、長露光画像用の露光時間Tの半分であるT/2(本例では1/120秒)を短露光画像用の露光時間とする。これら複数の露光時間T、およびT/2により、1フレーム内で異なる露光時間による複数の露光画像を得る。図3において、注目フレームをnフレームとし、前フレームを(n−1)フレーム、次フレームを(n+1)フレームと表す。
FIG. 3 is a diagram for explaining a recording sequence according to the present embodiment. The DSP 16 performs control so as to acquire a moving image at a frame rate of 30 frames / second, for example. Further, the DSP 16 acquires the long exposure image L and the short exposure image S for each frame for use in the dynamic range expansion process. In this embodiment, 1/60 second, which is half of 1/30 seconds constituting one frame, is set as the exposure time T for the long exposure image. The sensitivity (or aperture value) of the
図2のステップS12において、DSP16は撮像センサー11を制御し、露光時間Tおよび露光時間T/2でそれぞれ画像を取得させてステップS13へ進む。取得した長露光画像Lおよび短露光画像Sは、それぞれRAM17に格納される。ステップS13において、DSP16は輝度差検出部18へ指示を送り、長露光画像Lnと、前フレームの長露光画像L(n-1)との間で注目エリアごとの輝度差を算出させる。
In step S12 of FIG. 2, the DSP 16 controls the
図4は、画像において輝度差を算出する注目エリアを説明する図である。注目エリアは、たとえば注目画素を中心とする横3画素×縦3画素の計9画素で構成する。輝度差検出部18は、長露光画像Lnおよび長露光画像L(n-1)の同じ画素位置についてそれぞれ注目エリアを設定し、これら注目エリア間において輝度値の差を算出する。たとえば、注目エリア内の画素データの最大値および最小値を除き、該注目エリア内の残りの7画素データについて、注目画素からの距離に応じた重みを加味した輝度値を算出する。そして、長露光画像Lnおよび長露光画像L(n-1)のそれぞれで算出した注目エリアの輝度値の差を算出する。なお、輝度変換式は、たとえば、Y=0.29891×R+0.58661×G+0.11448×Bを用いる。ただし、RはR色のカラーフィルタが設けられている画素のデータ、GはG色のカラーフィルタが設けられている画素のデータ、およびBはB色のカラーフィルタが設けられている画素のデータである。
FIG. 4 is a diagram for explaining an attention area for calculating a luminance difference in an image. The attention area is composed of, for example, a total of 9 pixels of 3 horizontal pixels × 3 vertical pixels centering on the attention pixel. The luminance
図2のステップS14において、DSP16は輝度差検出部18へ指示を送り、短露光画像Snと、前フレームの短露光画像S(n-1)との間で上記注目エリアごとの輝度差を算出させる。輝度差検出部18は、長露光画像Lの場合と同様に、短露光画像Snおよび短露光画像S(n-1)の同じ画素位置についてそれぞれ注目エリアを設定し、これら注目エリア間において輝度値の差を算出する。
In step S14 of FIG. 2, the
ステップS15において、DSP16は、輝度差検出部18で算出された輝度差が判定閾値以内か否かを判定する。DSP16は、長露光画像についての隣接フレーム間の輝度差、および短露光画像についての隣接フレーム間の輝度差の双方があらかじめ定めた判定閾値以内である場合に、ステップS15を肯定判定してステップS16へ進む。DSP16は、長露光画像についての隣接フレーム間の輝度差、および短露光画像についての隣接フレーム間の輝度差の少なくとも一方があらかじめ定めた判定閾値を超える場合には、ステップS15を否定判定してステップS22へ進む。
In step S15, the
ステップS15を肯定判定したDSP16は、(n−1)フレームとnフレームとの間において主要被写体の動きがないとみなす。この場合のDSP16は、上記注目エリアにおいて、ステップS16〜ステップS18の処理からなる画像合成処理を行う。図5は、ステップS16〜ステップS18による画像合成処理を説明する図である。図5において、短露光画像の帯は、上記注目エリアにおける短露光画像がとり得る輝度値の範囲を示す。また、長露光画像の帯は、上記注目エリアにおける長露光画像が取り得る輝度値の範囲を示す。それぞれの帯において、帯の左に近いほど輝度が低く、帯の右に近いほど輝度が高い。通常、長露光画像が短露光画像の2倍の露光時間である場合は、長露光画像の帯の長さは短露光画像の帯の長さの2倍である。
The
DSP16は、nフレームの短露光画像において、たとえば、輝度値がフルスケール(8ビットで例示する場合に255)の15%の値j1以下に相当する画素データについては、nフレームの長露光画像において対応する輝度値の画素データLdnに基づいて合成後の画像を求める。具体的には、DSP16がステップS16において画像合成部19へ指示を送り、長露光画像において輝度値0〜j1に対応する画素データLdnに基づいて、次式(1)によって合成後の画像を構成するデータを算出させてステップS17へ進む。画素データLdnは、図5において長露光画像の帯内の領域52に対応する。
出力値=Ldn×a1+c1 (1)
ただし、出力値は合成後の画像の画素データであり、出力値の範囲は0〜k1である。また、a1は所定の係数、c1は所定のオフセット係数である。
The
Output value = Ldn × a1 + c1 (1)
However, the output value is pixel data of the combined image, and the range of the output value is 0 to k1. Further, a1 is a predetermined coefficient, and c1 is a predetermined offset coefficient.
DSP16は、nフレームの長露光画像において、たとえば、輝度値がフルスケール(8ビットで例示する場合に255)の90%以上の値に相当する画素データ(長露光画像の帯内の領域53に対応)については、nフレームの短露光画像において対応する輝度値j2以上の画素データに基づいて合成後の画像を求める。具体的には、DSP16がステップS17において画像合成部19へ指示を送り、輝度値が230(=255×0.9)〜255に相当する範囲については、短露光画像において輝度値j2以上の画素データSenに基づいて、次式(2)によって合成後の画像を構成するデータを算出させてステップS18へ進む。画素データSenは、図5において短露光画像の帯内の領域51に対応する。
出力値=Sen×a4+c4 (2)
ただし、出力値は合成後の画像の画素データであり、出力値の範囲はk2〜255である。また、a4は所定の係数、c4は所定のオフセット係数である。出力値の最大は255で制限する。
In the long exposure image of n frames, the
Output value = Sen × a4 + c4 (2)
However, the output value is pixel data of the combined image, and the range of the output value is k2 to 255. Further, a4 is a predetermined coefficient, and c4 is a predetermined offset coefficient. The maximum output value is limited to 255.
DSP16は、上述した輝度値j1〜j2に相当する画素データについては、nフレームの短露光画像において対応する輝度値の画素データSjn、nフレームの長露光画像において対応する輝度値の画素データLjnの双方に基づいて合成後の画像を求める。具体的には、DSP16がステップS18において画像合成部19へ指示を送り、次式(3)によって合成後の画像を構成するデータを算出させる。
出力値=Ljn×a2+c2+Sjn×a3+c3 (3)
ただし、出力値は合成後の画像の画素データであり、出力値の範囲はk1〜k2である。また、a2、a3はそれぞれ所定の係数、c2、c3はそれぞれ所定のオフセット係数である。DSP16は、画像合成部19により以上の合成処理が行われると、ステップS19へ進む。なお、上述した係数a1〜a4およびオフセット係数c1〜c4は、合成後の出力値k1およびk2における階調の継ぎ目を滑らかにするようにあらかじめ定められている。
For the pixel data corresponding to the above-described luminance values j1 to j2, the
Output value = Ljn * a2 + c2 + Sjn * a3 + c3 (3)
However, the output value is pixel data of the combined image, and the range of the output value is k1 to k2. Further, a2 and a3 are predetermined coefficients, and c2 and c3 are predetermined offset coefficients, respectively. When the above composition processing is performed by the
ステップS15を否定判定したDSP16は、(n−1)フレームとnフレームとの間において主要被写体の動きがあるとみなす。この場合のDSP16は、上記注目エリアにおいて、ステップS22の処理からなる画像合成処理を行う。図6は、ステップS22による画像合成処理を説明する図である。図6において、短露光画像の帯は、上記注目エリアにおける短露光画像が取り得る輝度値の範囲を示す。階調合わせ画像の帯は、上記注目エリアにおける短露光画像が取り得る輝度値の範囲を階調合わせのために所定倍したものである。
The
ステップS22において、DSP16は画像合成部19へ指示を送り、nフレームの短露光画像の画素データに基づいて合成後の画像を求めさせる。画像合成部19は、nフレームの短露光画像において、たとえば、輝度値がフルスケール(8ビットで例示する場合に255)の15%の値j1以下に相当する画素データについては、階調合わせ画像において輝度値0〜j1に対応する画素データLdnに基づいて、上式(1)によって合成後の画像を構成するデータを算出する。画素データLdnは、図6において階調合わせ画像の帯内の領域61'に対応する。
In step S <b> 22, the
画像合成部19はさらに、nフレームの階調合わせ画像において、たとえば、輝度値がフルスケール(8ビットで例示する場合に255)の90%以上の値に相当する画素データ(階調合わせ画像の帯内の領域62'に対応)については、nフレームの短露光画像において対応する輝度値j2以上の画素データSenに基づいて、上式(2)によって合成後の画像を構成するデータを算出する。画素データSenは、図6において短露光画像の帯内の領域62に対応する。
The
また、画像合成部19は、上述した輝度値j1〜j2に相当する画素データについては、nフレームの短露光画像において対応する輝度値の画素データSjn、nフレームの階調合わせ画像において対応する輝度値の画素データLjnの双方に基づいて上式(3)によって合成後の画像を構成するデータを算出する。DSP16は、画像合成部19により以上の合成処理が行われると、ステップS19へ進む。
In addition, the pixel image data corresponding to the above-described luminance values j1 to j2 is output from the
ステップS19において、DSP16は、画像内の全ての注目エリアについて上記ステップS13〜ステップS18、またはステップS13〜ステップS15およびステップS22の処理を終了したか否かを判定する。DSP16は、注目画素の位置をずらしながら、長露光画像および短露光画像の全域にわたって上述した処理を終了した場合には、ステップS19を肯定判定してステップS20へ進む。DSP16は、全ての注目エリアを対象に上述した処理を終了していない場合にはステップS19を否定判定し、注目画素を1つずらした上でステップS13へ戻り、上述した処理を繰り返す。
In step S19, the
ステップS20において、DSP16は、終了指示が行われたか否かを判定する。DSP16は、操作部材23を構成する録画ボタンから再度操作信号が入力されると、ステップS20を肯定判定して図2による処理を終了する。DSP16は、操作部材23を構成する録画ボタンから再度操作信号が入力されない場合は、ステップS20を否定判定してステップS21へ進む。
In step S20, the
ステップS21において、DSP16は、対象とするフレーム番号nを1つ進めてステップS11へ戻り、上述した処理を繰り返す。なお、録画中(動画取得中)のDSP16が2フレーム目以降の撮影条件を設定する際、撮像センサー11の感度および不図示の絞り値を固定したままとし、露光時間TおよびT/2を変化させることによって撮影条件を変更する。たとえば、短露光画像Sにおける最高輝度値をフルスケール(8ビットで例示する場合に255)の50%以下に抑えるように短露光画像用の露光時間T'/2を決定し、さらに短露光用の露光時間T'/2の2倍の露光時間T'を長露光画像用の露光時間T'とする。なお、本例の場合はT'の値の上限は1/60秒であるので、高輝度の被写体が現れた場合は必要に応じて露光時間を短く変更し、被写体の輝度が低下した場合は露光時間を長くする上限を1/60秒とする。
In step S21, the
図3において、nフレームの長露光画像Lnの取得が終われば、長露光画像についての隣接フレーム間の輝度差を算出(ステップS13)でき、nフレームの短露光画像Snの取得が終われば、短露光画像についての隣接フレーム間の輝度差を算出(ステップS13)できる。ステップS16〜S18による合成処理、またはステップS22による合成処理後の高ダイナミックレンジ画像(HDR画像)は、両輝度差についてそれぞれ判定閾値との比較が終われば算出できる。なお、図3ではnフレームの短露光画像Snおよびnフレームの長露光画像Lnに基づく合成処理後のnフレームのHDR画像を画像Rnと表す。同様に、(n+1)フレームの短露光画像S(n+1)および(n+1)フレームの長露光画像L(n+1)に基づく合成処理後の(n+1)フレームのHDR画像を画像R(n+1)と表す。 In FIG. 3, when the acquisition of the n-frame long exposure image Ln is completed, the luminance difference between the adjacent frames for the long exposure image can be calculated (step S13), and the acquisition of the n-frame short exposure image Sn is completed. The luminance difference between adjacent frames for the exposure image can be calculated (step S13). The high dynamic range image (HDR image) after the synthesizing process in steps S16 to S18 or the synthesizing process in step S22 can be calculated when the comparison between the two luminance differences and the determination threshold is completed. In FIG. 3, the n-frame HDR image after the synthesis process based on the n-frame short-exposure image Sn and the n-frame long-exposure image Ln is represented as an image Rn. Similarly, the HDR image of (n + 1) frames after the synthesis processing based on the short exposure image S (n + 1) of (n + 1) frames and the long exposure image L (n + 1) of (n + 1) frames is represented as an image R (n +1).
以上説明した実施形態によれば、次の作用効果が得られる。
(1)電子カメラは、連続するフレームの各フレームにおいて露光時間が異なる複数の画像S、Lをそれぞれ取得する撮像センサー11、フロントエンド部12、DSP16と、露光時間が異なる複数の画像S、Lに基づいて合成画像Rを生成する画像合成部19と、露光時間が異なる複数の画像S、Lごとに、nフレーム目と(n−1)フレーム目との間の輝度差をそれぞれ検出する輝度差検出部18と、輝度差検出部18によって検出された複数の画像S、Lごとの輝度差に基づいて、画像合成部19がnフレーム目に対する合成画像Rnを生成する際に異なる合成処理をさせるDSP16と、を備えるようにしたので、動画像に対して適切にダイナミックレンジ拡大処理を行うことができる。
According to the embodiment described above, the following operational effects can be obtained.
(1) The electronic camera includes an
(2)上記(1)の電子カメラにおいて、DSP16は、輝度差検出部18によって検出された複数の画像S、Lごとの輝度差の全てが所定値以下の場合に画像合成部19にS16〜S18による合成処理を行わせ、複数の画像S、Lごとの輝度差のうち少なくとも1つが所定値を超える場合に画像合成部19にS22による合成処理を行わせるようにした。これにより、輝度差の検出結果に基づいて適切に主要被写体の動きの有無を判断できる。そして、主要被写体の動きの有無を適切に判断したことで、動きのない場合にのみ選択的にダイナミックレンジ拡大処理を行える。動きがある場合は異なる処理を施し、動きがある被写体にダイナミックレンジ拡大処理を行うことによって生じるぶれなどの発生を防止できる。
(2) In the electronic camera of the above (1), the
(3)上記(2)の電子カメラにおいて、S16〜S18による合成処理は、露光時間が最短の短露光画像における第1輝度値j1以下に対応する合成データを露光時間が最長の長露光画像における第1輝度値j1以下に対応する画像データLdnを用いて生成し、長露光画像における第2輝度値j2以上に対応する合成データを短露光画像における第2輝度値j2以上に対応する画像データSenを用いて生成し、短露光画像における第1輝度値j1から第2輝度値j2に対応する合成データを、露光時間が異なる複数の画像S、Lの第1輝度値j1から第2輝度値j2に対応する画像データSjn、Ljnを用いて生成する。たとえば、短露光画像において黒つぶれのおそれがある第1輝度値j1以下については、長露光画像において対応する画像データLdnを用いたので、黒つぶれの影響を抑えることができる。また、長露光画像において白飛びのおそれがある第2輝度値j2以上については、短露光画像において対応する画像データSenを用いたので、白飛びの影響を抑えることができる。上記第1輝度値j1から第2輝度値j2の範囲は、複数の画像S、Lにおいて対応する画像データSjn、Ljnを用いて生成するので、滑らかな階調でダイナミックレンジを拡大できる。 (3) In the electronic camera of (2) above, the composition processing in S16 to S18 is performed by combining the composition data corresponding to the first luminance value j1 or less in the short exposure image with the shortest exposure time in the long exposure image with the longest exposure time. Image data Sen generated using the image data Ldn corresponding to the first luminance value j1 or less, and the combined data corresponding to the second luminance value j2 or more in the long exposure image is the image data Sen corresponding to the second luminance value j2 or more in the short exposure image. And the combined data corresponding to the first luminance value j1 to the second luminance value j2 in the short-exposure image are converted into the first luminance value j1 to the second luminance value j2 of the images S and L having different exposure times. Is generated using image data Sjn and Ljn corresponding to. For example, for the first luminance value j1 or less that may cause blackout in a short-exposure image, the corresponding image data Ldn is used in the long-exposure image, so that the influence of blackout can be suppressed. In addition, for the second luminance value j2 or more that may cause whiteout in the long exposure image, the corresponding image data Sen is used in the short exposure image, so that the influence of whiteout can be suppressed. Since the range from the first luminance value j1 to the second luminance value j2 is generated using the corresponding image data Sjn and Ljn in the plurality of images S and L, the dynamic range can be expanded with smooth gradation.
(4)上記(2)の電子カメラにおいて、S22による合成処理は、露光時間が最短の短露光画像における画像データを用いて合成データを生成するので、何もせずに短露光画像を出力する場合と異なり、ダイナミックレンジを拡大したフレーム画像とダイナミックレンジを拡大しないフレーム画像との間の違和感を軽減することができる。 (4) In the electronic camera of (2) above, the composition processing in S22 generates composite data using the image data of the short exposure image with the shortest exposure time, so that the short exposure image is output without doing anything. Unlike the above, it is possible to reduce a sense of incongruity between a frame image with an expanded dynamic range and a frame image without an expanded dynamic range.
(5)上記(4)の電子カメラにおいて、S22による合成処理は、短露光画像における画像データに対する階調合わせ処理を含むので、ダイナミックレンジを拡大したフレーム画像とダイナミックレンジを拡大しない場合のフレーム画像との間で、階調に起因する違和感をさらに軽減することができる。 (5) In the electronic camera of the above (4), since the composition processing in S22 includes gradation matching processing for image data in a short exposure image, a frame image in which the dynamic range is expanded and a frame image in the case where the dynamic range is not expanded The uncomfortable feeling caused by the gradation can be further reduced.
(6)上記(1)〜(5)の電子カメラにおいて、輝度差検出部18は所定の注目エリアごとに輝度差を検出し、画像合成部19は注目エリアごとに合成画像を生成するので、高精細の合成処理を行うことができる。
(6) In the electronic cameras of the above (1) to (5), the luminance
(変形例1)
上記実施形態では、長露光画像についての隣接フレーム間の輝度差、および短露光画像についての隣接フレーム間の輝度差の双方が判定閾値以内である場合に当該隣接フレーム画像間で主要被写体の動きがないとみなす例を説明した。この代わりに、少なくとも最も短い露光画像について隣接フレーム間の輝度差が判定閾値以内であれば、当該隣接フレーム画像間で主要被写体の動きがないとみなすようにしてもよい。この場合、最も短い露光画像について隣接フレーム間の輝度差が判定閾値を超えれば、当該隣接フレーム画像間で主要被写体の動きがあるとみなす。
(Modification 1)
In the above embodiment, when both the luminance difference between adjacent frames for the long exposure image and the luminance difference between adjacent frames for the short exposure image are within the determination threshold, the movement of the main subject between the adjacent frame images is He explained an example that he considered not. Instead, if at least the shortest exposure image has a luminance difference between adjacent frames within the determination threshold, it may be considered that there is no movement of the main subject between the adjacent frame images. In this case, if the luminance difference between adjacent frames for the shortest exposure image exceeds the determination threshold, it is considered that there is a movement of the main subject between the adjacent frame images.
(変形例2)
上述した説明では、1フレームの1/2の時間Tを長露光画像用の露光時間とし、T/2を短露光画像用の露光時間とする例を説明した。この代わりに、1フレームの2/3の時間Txを長露光画像用の露光時間とし、Tx/2(=1/3フレーム)を短露光画像用の露光時間としてもよい。この場合は、1フレームの中で非露光の時間をなくすことができる。
(Modification 2)
In the above description, an example has been described in which a time T that is ½ of one frame is an exposure time for a long exposure image and T / 2 is an exposure time for a short exposure image. Alternatively, 2/3 time Tx of one frame may be set as the exposure time for the long exposure image, and Tx / 2 (= 1/3 frame) may be set as the exposure time for the short exposure image. In this case, the non-exposure time can be eliminated in one frame.
(変形例3)
1フレームにおいて、先に長露光画像を取得してから短露光画像を取得する例を説明したが、先に短露光画像を取得してから長露光画像を取得する構成にしても構わない。
(Modification 3)
Although an example of acquiring a short exposure image after acquiring a long exposure image first in one frame has been described, a configuration may be adopted in which a long exposure image is acquired after acquiring a short exposure image first.
(変形例4)
上述した説明では、1フレーム内で異なる露光時間による2つの露光画像を得る例を説明したが、異なる露光時間による複数の露光画像は、2つに限ることなく、3つでも4つでもよい。3つの露光画像を得る場合には、たとえば、1フレームの1/2の時間Tを1番長い露光時間とし、T/2を2番目の露光時間とし、T/4を3番目の露光時間とすることにより、1フレーム内で異なる露光時間による3つの露光画像が得られる。この場合は、上記ステップS18に相当する処理において、3つの露光画像に基づいて合成後の画像を求めることから、合成画像出力の中間階層域(k1〜k2の範囲)を滑らかに表現でき、高品位の画像が得られる。
(Modification 4)
In the above description, an example in which two exposure images with different exposure times are obtained within one frame has been described. However, the number of exposure images with different exposure times is not limited to two, and may be three or four. In the case of obtaining three exposure images, for example, a time T that is 1/2 of one frame is set as the longest exposure time, T / 2 is set as the second exposure time, and T / 4 is set as the third exposure time. By doing so, three exposure images with different exposure times within one frame are obtained. In this case, in the process corresponding to step S18, an image after synthesis is obtained based on the three exposure images, so that the intermediate layer area (range k1 to k2) of the synthesized image output can be expressed smoothly. A quality image is obtained.
(変形例5)
また、1フレーム内で異なる露光時間による3つの露光画像を得る場合に、1フレームの4/7の時間Tyを1番長い露光時間とし、Ty/2(=2/7フレーム)を2番目の露光時間とし、Ty/4(=1/7フレーム)を3番目の露光時間とする。変形例5の場合も、1フレームの中で非露光の時間をなくすことができる。
(Modification 5)
Also, when obtaining three exposure images with different exposure times within one frame, the 4/7 time Ty of one frame is the longest exposure time, and Ty / 2 (= 2/7 frames) is the second. Let exposure time be Ty / 4 (= 1/7 frame) as the third exposure time. In the case of the modified example 5, the non-exposure time can be eliminated in one frame.
(変形例6)
上述したダイナミックレンジの拡大処理において、隣接フレームを加算することによってノイズ低減をはかってもよい。この場合、上式(1)〜(3)に代えて、それぞれ次式(4)〜(6)を用いる。
出力値=(Ld(n-1)+Ldn)×b1+d1 (4)
ただし、出力値は合成後の画像の画素データであり、出力値の範囲は0〜k1である。Ld(n-1)は(n−1)フレームの長露光画像において対応する輝度値の画素データ、Ldnはnフレームの長露光画像において対応する輝度値の画素データである。また、b1は所定の係数、d1は所定のオフセット係数である。
(Modification 6)
In the dynamic range expansion process described above, noise may be reduced by adding adjacent frames. In this case, it replaces with said Formula (1)-(3), and uses following Formula (4)-(6), respectively.
Output value = (Ld (n-1) + Ldn) * b1 + d1 (4)
However, the output value is pixel data of the combined image, and the range of the output value is 0 to k1. Ld (n-1) is the pixel data of the corresponding luminance value in the (n-1) frame long exposure image, and Ldn is the pixel data of the corresponding luminance value in the n frame long exposure image. Further, b1 is a predetermined coefficient, and d1 is a predetermined offset coefficient.
出力値=(Se(n-1)+Sen)×b4+d4 (5)
ただし、出力値は合成後の画像の画素データであり、出力値の範囲はk2〜255である。Se(n-1)は(n−1)フレームの短露光画像において対応する輝度値の画素データ、Senはnフレームの短露光画像において対応する輝度値の画素データである。また、b4は所定の係数、d4は所定のオフセット係数である。
Output value = (Se (n−1) + Sen) × b4 + d4 (5)
However, the output value is pixel data of the combined image, and the range of the output value is k2 to 255. Se (n-1) is the pixel data of the corresponding luminance value in the (n-1) frame short exposure image, and Sen is the pixel data of the corresponding luminance value in the n frame short exposure image. Further, b4 is a predetermined coefficient, and d4 is a predetermined offset coefficient.
出力値=(Lj(n-1)+Ljn)×b2+d2+(Sj(n-1)+Sjn)×b3+d3 (6)
ただし、出力値は合成後の画像の画素データであり、出力値の範囲はk1〜k2である。Lj(n-1)は(n−1)フレームの長露光画像において対応する輝度値の画素データ、Ljnはnフレームの長露光画像において対応する輝度値の画素データである。Sj(n-1)は(n−1)フレームの短露光画像において対応する輝度値の画素データ、Sjnはnフレームの短露光画像において対応する輝度値の画素データである。また、b2、b3はそれぞれ所定の係数、d2、d3はそれぞれ所定のオフセット係数である。
Output value = (Lj (n-1) + Ljn) * b2 + d2 + (Sj (n-1) + Sjn) * b3 + d3 (6)
However, the output value is pixel data of the combined image, and the range of the output value is k1 to k2. Lj (n-1) is pixel data of the corresponding luminance value in the long exposure image of (n-1) frames, and Ljn is pixel data of the corresponding luminance value in the long exposure image of n frames. Sj (n-1) is the pixel data of the corresponding luminance value in the (n-1) frame short exposure image, and Sjn is the pixel data of the corresponding luminance value in the n frame short exposure image. Further, b2 and b3 are predetermined coefficients, respectively, and d2 and d3 are predetermined offset coefficients, respectively.
変形例6によれば、画像の取得時刻が異なる隣接フレームの画像を加算するようにしたので、フレーム間で平滑化されるため、ランダムノイズの低減に有効である。なお、連続するフレーム画像を平滑化する変形例6以外の手法として、たとえば、上式(1)〜(3)を用いて合成処理した後の画像に対し、後から公知の3D-NR手法を採用してもよい。 According to the modified example 6, since the images of adjacent frames having different image acquisition times are added, smoothing is performed between frames, which is effective in reducing random noise. As a method other than the modified example 6 for smoothing continuous frame images, for example, a known 3D-NR method is used later on an image after the synthesis processing using the above equations (1) to (3). It may be adopted.
(変形例7)
1フレーム内において短い露光時間のみで複数の画像を取得してもよい。たとえば、1フレームの1/4の露光時間Tzで4つの画像を取得する。取得時刻が隣接する画像間で主要被写体の動きがないとみなす場合(すなわち、対応する注目エリアの輝度差が判定閾値以内の場合)は、4つの画像を加算して合成することにより、ランダムノイズの低減が図れる。動きがあるとみなす場合(すなわち、対応する注目エリアの輝度差が判定閾値を超える場合)は、合成後の階調を維持できるように合成する画像の数に応じたゲイン処理を行う。低輝度域から高輝度域までを細分化して合成する画像の数を設定することにより、ハイコントラストの被写体を再現できる。露光時間や合成する画像の数は、被写体条件やRAM17にバッファできる画像数によって適宜設定してよい。なお、上述した説明において、ゲイン処理(階調合わせ)はゲインコントロールによって行う他に、ルックアップテーブル(LUT)を用いた輝度階調変換処理として行う構成にしてもよい。
(Modification 7)
A plurality of images may be acquired with only a short exposure time within one frame. For example, four images are acquired with an exposure time Tz that is 1/4 of one frame. When it is considered that there is no movement of the main subject between images whose acquisition times are adjacent (that is, when the luminance difference of the corresponding attention area is within the determination threshold), the four images are added and combined to generate random noise. Can be reduced. When it is considered that there is movement (that is, when the luminance difference of the corresponding attention area exceeds the determination threshold), gain processing is performed according to the number of images to be combined so that the combined gradation can be maintained. A high-contrast subject can be reproduced by setting the number of images to be synthesized by subdividing the low-brightness range to the high-brightness range. The exposure time and the number of images to be combined may be appropriately set according to the subject conditions and the number of images that can be buffered in the
(変形例8)
以上の説明では、画像の注目エリアについて輝度差を検出し、該注目エリアごとに画像合成処理を施す例を説明した。この代わりに、画像の注目エリアについて輝度差を検出し、画像合成処理は画像全体で行うようにしてもよい。この場合は、少なくとも1つの注目エリアで動きがあるとみなす場合(すなわち、少なくとも1つの注目エリアで輝度差が判定閾値を超える場合)は、画像の全域についてステップS22に相当する合成処理を行う。一方、全ての注目エリアで動きがないとみなす場合(すなわち、全ての注目エリアの輝度差が判定閾値以下の場合)は、画像の全域についてステップS16〜S18に相当する合成処理を行う。
(Modification 8)
In the above description, the example in which the luminance difference is detected for the attention area of the image and the image composition process is performed for each attention area has been described. Instead, a luminance difference may be detected for the attention area of the image, and the image composition process may be performed on the entire image. In this case, when it is considered that there is movement in at least one attention area (that is, when the luminance difference exceeds the determination threshold in at least one attention area), the synthesis process corresponding to step S22 is performed on the entire area of the image. On the other hand, when it is considered that there is no movement in all the attention areas (that is, when the luminance difference of all the attention areas is equal to or smaller than the determination threshold), the synthesis process corresponding to steps S16 to S18 is performed on the entire area of the image.
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。 The above description is merely an example, and is not limited to the configuration of the above embodiment.
11…撮像センサー
12…フロントエンド部
16…DSP
17…RAM
18…輝度差検出部
19…画像合成部
23…操作部材
Ln-1、Ln、Ln+1…長露光画像
Rn、Rn+1…合成画像
Sn-1、Sn、Sn+1…短露光画像
11 ...
17 ... RAM
18 ... Luminance
Claims (7)
前記露光時間が異なる複数の画像に基づいて合成画像を生成する画像合成手段と、
前記露光時間が異なる複数の画像ごとに、nフレーム目と(n−1)フレーム目との間の輝度差をそれぞれ検出する輝度差検出手段と、
前記輝度差検出手段によって検出された前記複数の画像ごとの輝度差に基づいて、前記画像合成手段が前記nフレーム目に対する合成画像を生成する際に異なる合成処理をさせる制御手段と、
を備えることを特徴とする撮像装置。 Imaging means for acquiring a plurality of images with different exposure times in each of successive frames;
Image synthesis means for generating a synthesized image based on a plurality of images having different exposure times;
A luminance difference detecting means for detecting a luminance difference between the nth frame and the (n−1) th frame for each of the plurality of images having different exposure times;
Control means for performing different composition processing when the image composition means generates a composite image for the n-th frame based on the brightness difference for each of the plurality of images detected by the brightness difference detection means;
An imaging apparatus comprising:
前記制御手段は、前記輝度差検出手段によって検出された前記複数の画像ごとの輝度差のうち、少なくとも前記露光時間が最短の画像における輝度差が所定値以下の場合に前記画像合成手段に第1の合成処理を行わせ、前記露光時間が最短の画像における輝度差が前記所定値を超える場合に前記画像合成手段に第2の合成処理を行わせることを特徴とする撮像装置。 The imaging device according to claim 1,
The control means first sets the image synthesizing means when the brightness difference in the image with the shortest exposure time is equal to or less than a predetermined value among the brightness differences of the plurality of images detected by the brightness difference detecting means. And an image synthesizing unit that causes the image synthesizing unit to perform the second synthesizing process when the luminance difference in the image with the shortest exposure time exceeds the predetermined value.
前記制御手段は、前記輝度差検出手段によって検出された前記複数の画像ごとの輝度差の全てが所定値以下の場合に前記画像合成手段に第1の合成処理を行わせ、前記複数の画像ごとの輝度差のうち少なくとも1つが前記所定値を超える場合に前記画像合成手段に第2の合成処理を行わせることを特徴とする撮像装置。 The imaging device according to claim 1,
The control means causes the image composition means to perform a first composition process when all of the brightness differences for the plurality of images detected by the brightness difference detection means are equal to or less than a predetermined value, and for each of the plurality of images. An image pickup apparatus that causes the image composition unit to perform a second composition process when at least one of the luminance differences exceeds the predetermined value.
前記第1の合成処理は、前記露光時間が最短のS画像における第1輝度値以下に対応する合成データを前記露光時間が最長のL画像における前記第1輝度値以下に対応する画像データを用いて生成し、
前記L画像における第2輝度値以上に対応する合成データを前記S画像における前記第2輝度値以上に対応する画像データを用いて生成し、
前記S画像における前記第1輝度値から前記第2輝度値に対応する合成データを、前記露光時間が異なる複数の画像の全てにおいて前記第1輝度値から前記第2輝度値に対応する画像データを用いて生成することを特徴とする撮像装置。 In the imaging device according to claim 2 or 3,
In the first combining process, combined data corresponding to the first luminance value or less in the S image having the shortest exposure time is used as image data corresponding to the first luminance value or less in the L image having the longest exposure time. Generated,
Generating composite data corresponding to the second luminance value or more in the L image using image data corresponding to the second luminance value or more in the S image;
The combined data corresponding to the second luminance value from the first luminance value in the S image, and the image data corresponding to the second luminance value from the first luminance value in all of the plurality of images having different exposure times. An imaging device characterized by being generated by using.
前記第2の合成処理は、前記露光時間が最短のS画像における画像データを用いて合成データを生成することを特徴とする撮像装置。 In the imaging device according to claim 2 or 3,
The imaging apparatus according to claim 2, wherein the second combining process generates combined data using image data of the S image with the shortest exposure time.
前記第2の合成処理は、前記S画像における画像データに対する階調合わせ処理を含むことを特徴とする撮像装置。 The imaging apparatus according to claim 5,
The image pickup apparatus, wherein the second combining process includes a gradation matching process for image data in the S image.
前記輝度差検出手段は、所定の画像領域ごとに前記輝度差を検出し、
前記画像合成手段は、前記画像領域ごとに合成画像を生成することを特徴とする撮像装置。 In the imaging device according to any one of claims 1 to 6,
The brightness difference detecting means detects the brightness difference for each predetermined image area,
The imaging apparatus, wherein the image synthesis means generates a synthesized image for each image area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011097827A JP5682434B2 (en) | 2011-04-26 | 2011-04-26 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011097827A JP5682434B2 (en) | 2011-04-26 | 2011-04-26 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012231273A true JP2012231273A (en) | 2012-11-22 |
JP5682434B2 JP5682434B2 (en) | 2015-03-11 |
Family
ID=47432482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011097827A Active JP5682434B2 (en) | 2011-04-26 | 2011-04-26 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5682434B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150045877A (en) | 2013-10-21 | 2015-04-29 | 삼성테크윈 주식회사 | Image processing apparatus and image processing method |
JP2015204488A (en) * | 2014-04-11 | 2015-11-16 | ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. | Motion detection apparatus and motion detection method |
CN105684419A (en) * | 2013-10-28 | 2016-06-15 | 佳能株式会社 | Image capturing apparatus, external apparatus, image capturing system, method for controlling image capturing apparatus, computer program, and computer-readable storage medium |
JP2017003469A (en) * | 2015-06-11 | 2017-01-05 | キヤノン株式会社 | Three-dimensional measurement device, three-dimensional measurement device control method and program |
JP2017098750A (en) * | 2015-11-24 | 2017-06-01 | ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. | Vector calculation apparatus and vector calculation method |
WO2018012317A1 (en) * | 2016-07-15 | 2018-01-18 | ソニーセミコンダクタソリューションズ株式会社 | Signal processing device, image capture apparatus, and signal processing method |
JP2018074285A (en) * | 2016-10-26 | 2018-05-10 | 株式会社デンソー | Imaging apparatus |
JP2019161612A (en) * | 2018-03-16 | 2019-09-19 | ソニーモバイルコミュニケーションズ株式会社 | Signal processing apparatus and signal processing method |
EP3651444A2 (en) | 2018-11-06 | 2020-05-13 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method that reduce image noise, and storage medium |
US10805548B2 (en) | 2016-07-15 | 2020-10-13 | Sony Semiconductor Solutions Corporation | Signal processing apparatus, imaging apparatus, and signal processing method |
CN113824873A (en) * | 2021-08-04 | 2021-12-21 | 荣耀终端有限公司 | Image processing method and related electronic equipment |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210053377A (en) | 2019-11-01 | 2021-05-12 | 삼성전자주식회사 | Image device including image sensor and image signal processor, and operation method of image sensor |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002190983A (en) * | 2000-12-20 | 2002-07-05 | Matsushita Electric Ind Co Ltd | Image compositing circuit |
JP2004056573A (en) * | 2002-07-22 | 2004-02-19 | Sony Corp | Video signal processing method, processing circuit, and driving method of imaging apparatus |
JP2009218895A (en) * | 2008-03-11 | 2009-09-24 | Ricoh Co Ltd | Imaging apparatus and imaging method |
-
2011
- 2011-04-26 JP JP2011097827A patent/JP5682434B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002190983A (en) * | 2000-12-20 | 2002-07-05 | Matsushita Electric Ind Co Ltd | Image compositing circuit |
JP2004056573A (en) * | 2002-07-22 | 2004-02-19 | Sony Corp | Video signal processing method, processing circuit, and driving method of imaging apparatus |
JP2009218895A (en) * | 2008-03-11 | 2009-09-24 | Ricoh Co Ltd | Imaging apparatus and imaging method |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150045877A (en) | 2013-10-21 | 2015-04-29 | 삼성테크윈 주식회사 | Image processing apparatus and image processing method |
CN105684419B (en) * | 2013-10-28 | 2018-04-13 | 佳能株式会社 | Picture pick-up device, external equipment, the control method of camera system and picture pick-up device |
CN105684419A (en) * | 2013-10-28 | 2016-06-15 | 佳能株式会社 | Image capturing apparatus, external apparatus, image capturing system, method for controlling image capturing apparatus, computer program, and computer-readable storage medium |
US10171747B2 (en) | 2013-10-28 | 2019-01-01 | Canon Kabushiki Kaisha | Image capturing apparatus, external apparatus, image capturing system, method for controlling image capturing apparatus, computer program, and computer-readable storage medium |
JP2015204488A (en) * | 2014-04-11 | 2015-11-16 | ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. | Motion detection apparatus and motion detection method |
JP2017003469A (en) * | 2015-06-11 | 2017-01-05 | キヤノン株式会社 | Three-dimensional measurement device, three-dimensional measurement device control method and program |
JP2017098750A (en) * | 2015-11-24 | 2017-06-01 | ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. | Vector calculation apparatus and vector calculation method |
WO2018012317A1 (en) * | 2016-07-15 | 2018-01-18 | ソニーセミコンダクタソリューションズ株式会社 | Signal processing device, image capture apparatus, and signal processing method |
US10805548B2 (en) | 2016-07-15 | 2020-10-13 | Sony Semiconductor Solutions Corporation | Signal processing apparatus, imaging apparatus, and signal processing method |
JP2018074285A (en) * | 2016-10-26 | 2018-05-10 | 株式会社デンソー | Imaging apparatus |
JP2019161612A (en) * | 2018-03-16 | 2019-09-19 | ソニーモバイルコミュニケーションズ株式会社 | Signal processing apparatus and signal processing method |
WO2019176170A1 (en) * | 2018-03-16 | 2019-09-19 | ソニー株式会社 | Signal processing device and signal processing method |
US11240442B2 (en) | 2018-03-16 | 2022-02-01 | Sony Corporation | Signal processing apparatus and signal processing method |
JP7147199B2 (en) | 2018-03-16 | 2022-10-05 | ソニーグループ株式会社 | Signal processing device and signal processing method |
EP3651444A2 (en) | 2018-11-06 | 2020-05-13 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method that reduce image noise, and storage medium |
EP3651444A3 (en) * | 2018-11-06 | 2020-08-12 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method that reduce image noise, and storage medium |
US11270421B2 (en) | 2018-11-06 | 2022-03-08 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method that reduce image noise, and storage medium |
CN113824873A (en) * | 2021-08-04 | 2021-12-21 | 荣耀终端有限公司 | Image processing method and related electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
JP5682434B2 (en) | 2015-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5682434B2 (en) | Imaging device | |
JP6124538B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP5478215B2 (en) | Image capturing apparatus and method for controlling image capturing apparatus | |
JP4594257B2 (en) | Digital imaging device | |
JP5347707B2 (en) | Imaging apparatus and imaging method | |
JP5013954B2 (en) | Imaging device | |
JP2012235332A (en) | Imaging apparatus, imaging apparatus control method and program | |
JP2010160311A (en) | Imaging apparatus | |
JP2010178164A (en) | Imaging apparatus | |
JP2010093679A (en) | Imaging apparatus, and imaging control method | |
JP2006245999A (en) | Imaging apparatus and program | |
JP5797072B2 (en) | Imaging apparatus, control method therefor, and program | |
JP2011171842A (en) | Image processor and image processing program | |
JP2003309763A (en) | Animation imaging system | |
JP4898151B2 (en) | Imaging apparatus and imaging method | |
JP6242129B2 (en) | Imaging device, control method thereof, and control program | |
JP5947625B2 (en) | Imaging apparatus and control method thereof | |
JP2008136113A (en) | Image processor, imaging apparatus and image processing method | |
JP2010068331A (en) | Imaging device and imaging method | |
JP2019080261A (en) | Imaging apparatus | |
JP5423201B2 (en) | Image processing apparatus and image processing program | |
JP6075829B2 (en) | IMAGING DEVICE, CAMERA SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6226536B2 (en) | Imaging apparatus and control method thereof | |
JP6990988B2 (en) | Control method of image pickup device and image sensor | |
JP2012235255A (en) | Image processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141121 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141229 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5682434 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |