JP5820213B2 - Image processing apparatus and method, and imaging apparatus - Google Patents

Image processing apparatus and method, and imaging apparatus Download PDF

Info

Publication number
JP5820213B2
JP5820213B2 JP2011209785A JP2011209785A JP5820213B2 JP 5820213 B2 JP5820213 B2 JP 5820213B2 JP 2011209785 A JP2011209785 A JP 2011209785A JP 2011209785 A JP2011209785 A JP 2011209785A JP 5820213 B2 JP5820213 B2 JP 5820213B2
Authority
JP
Japan
Prior art keywords
image
frame
frames
images
gradation compression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011209785A
Other languages
Japanese (ja)
Other versions
JP2013074335A (en
Inventor
優 成田
優 成田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011209785A priority Critical patent/JP5820213B2/en
Priority to US13/617,772 priority patent/US9049380B2/en
Publication of JP2013074335A publication Critical patent/JP2013074335A/en
Application granted granted Critical
Publication of JP5820213B2 publication Critical patent/JP5820213B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、露光量の異なる複数枚の撮像画像を合成して、ダイナミックレンジの広い画像を生成する画像処理装置及びその方法、撮像装置に関する。   The present invention relates to an image processing apparatus that generates a wide dynamic range image by synthesizing a plurality of captured images with different exposure amounts, and an imaging apparatus therefor.

一般に、露光量の異なる複数枚の撮像画像を合成し、ダイナミックレンジを拡大した後、出力機器のダイナミックレンジに合わせて、階調圧縮を行う画像処理装置が提案されている(特許文献1)。また、入力画像を複数の解像度の画像に変換し、それらを用いて、入力画像の着目画素周囲の小領域毎に、階調圧縮特性を最適化して、入力画像のダイナミックレンジを圧縮する画像処理が提案されている(特許文献2)。   In general, there has been proposed an image processing apparatus that synthesizes a plurality of captured images with different exposure amounts, expands the dynamic range, and then performs gradation compression in accordance with the dynamic range of the output device (Patent Document 1). Image processing that converts the input image into multiple resolution images and uses them to optimize the tone compression characteristics for each small area around the pixel of interest in the input image and compress the dynamic range of the input image Has been proposed (Patent Document 2).

特開平07−131704号公報Japanese Patent Application Laid-Open No. 07-131704 特許第03731577号公報Japanese Patent No. 03731577

しかし、特許文献1に記載された技術では、露光量の異なる複数枚の画像を合成したダイナミックレンジの広い画像を、図9のように、画面内の輝度に応じた一様な特性で、出力機器のダイナミックレンジに収まるよう階調圧縮を行う。そのため、階調再現性の損なわれる輝度領域が発生するという課題がある。   However, in the technique described in Patent Document 1, an image with a wide dynamic range obtained by combining a plurality of images with different exposure amounts is output with uniform characteristics according to the luminance in the screen as shown in FIG. Tone compression is performed to fit within the dynamic range of the device. For this reason, there is a problem that a luminance region in which gradation reproducibility is impaired occurs.

一方、特許文献2に記載された技術では、階調圧縮特性を生成するために、多重解像度処理を必要とする。すなわち、入力画像から生成した複数種類の解像度の画像を同じタイミングで参照しなければならない。そのため、低解像度画像を生成する間、高解像度画像をフレームメモリにバッファリングしてタイミングを調整する必要がある。フレームメモリを使った画像のバッファリングでは、特に、動画撮影時や、画像サイズ、ビット幅が大きい場合に撮像システムにかかる負荷を高めてしまう。また、ダイナミックレンジが拡張された動画に対して階調圧縮を行う場合、画像内の動的な部分と静的な部分が変化することにより、適切な階調圧縮特性は変化する。   On the other hand, the technique described in Patent Document 2 requires multi-resolution processing in order to generate gradation compression characteristics. That is, it is necessary to refer to images of a plurality of types of resolutions generated from the input image at the same timing. Therefore, it is necessary to adjust the timing by buffering the high resolution image in the frame memory while generating the low resolution image. Image buffering using a frame memory increases the load on the imaging system, especially when shooting moving images and when the image size and bit width are large. Also, when tone compression is performed on a moving image with an extended dynamic range, the appropriate tone compression characteristics change as the dynamic portion and static portion in the image change.

本発明は、上記の課題に鑑みてなされたものであり、ダイナミックレンジを拡張する合成処理を行う場合に、上述したようなシステムへの負荷の増加を抑制しつつ、動画における画像の変化に応じた適切な階調圧縮特性による圧縮を実現することを目的とする。   The present invention has been made in view of the above-described problems, and responds to image changes in a moving image while suppressing an increase in the load on the system as described above when performing a synthesis process for extending a dynamic range. Another object of the present invention is to realize compression using appropriate gradation compression characteristics.

上記の目的を達成するための本発明の一態様による撮像装置は以下の構成を備える。すなわち、
露光量の異なる2つの画像を合成してダイナミックレンジが拡張された画像を生成する撮像装置であって、
2種類の異なる露光量で撮影した画像を連続して出力する撮像手段と、
前記撮像手段から連続して出力された、合成対象の2つのフレームの画像を合成してダイナミックレンジが拡張された合成画像を生成する合成手段と、
前記2つのフレームの1フレーム目の画像を低解像度化した画像と、当該1フレーム目の画像とに基づいて階調圧縮特性を生成する生成手段と、
前記生成手段で生成された前記階調圧縮特性を用いて前記合成画像の階調を圧縮する階調圧縮手段と、
前記2つのフレームの画像から動きの生じた部分を推定する推定手段と、
前記推定手段による推定の結果に基づいて、前記合成対象の2つのフレームにおける1フレーム目と2フレーム目の画像の露光量を入れ替える制御手段と、を備える。
In order to achieve the above object, an imaging apparatus according to an aspect of the present invention has the following arrangement. That is,
An imaging apparatus that generates an image with an expanded dynamic range by combining two images having different exposure amounts,
Imaging means for continuously outputting images taken with two different exposure amounts;
Synthesis means for generating a synthesized image with an expanded dynamic range by synthesizing images of two frames to be synthesized, continuously output from the imaging means;
Generating means for generating gradation compression characteristics based on an image obtained by reducing the resolution of the first frame image of the two frames and the first frame image;
Gradation compression means for compressing the gradation of the composite image using the gradation compression characteristic generated by the generation means;
Estimating means for estimating a portion where motion has occurred from the images of the two frames;
Control means for switching the exposure amounts of the first frame image and the second frame image in the two frames to be combined based on a result of estimation by the estimation unit.

本発明によれば、ダイナミックレンジを拡張する合成処理を行う場合に、上述したようなシステムへの負荷の増加を抑制しつつ、動画における画像の変化に応じた適切な階調圧縮特性による圧縮を実現できる。   According to the present invention, when performing a synthesis process for extending the dynamic range, compression with an appropriate gradation compression characteristic corresponding to a change in an image in a moving image is performed while suppressing an increase in the load on the system as described above. realizable.

第1実施形態による撮像装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an imaging apparatus according to a first embodiment. 階調圧縮特性生成部の構成例を示すブロック図。The block diagram which shows the structural example of a gradation compression characteristic production | generation part. 第1実施形態の撮像装置の処理フローを示すタイミングチャート。3 is a timing chart illustrating a processing flow of the imaging apparatus according to the first embodiment. 合成部の構成例を示すブロック図。The block diagram which shows the structural example of a synthetic | combination part. 階調圧縮部で生成する抑制ゲインの一例を示す模式図。The schematic diagram which shows an example of the suppression gain produced | generated in a gradation compression part. 高露光画像で階調圧縮特性を生成する際の弊害を説明する図。The figure explaining the bad effect at the time of producing | generating a gradation compression characteristic with a high exposure image. 低露光画像で階調圧縮特性を生成する際の弊害を説明する図。The figure explaining the bad effect at the time of producing | generating a gradation compression characteristic with a low exposure image. 階調圧縮特性を生成するのに用いた画像の種類と弊害の関係を説明する図。The figure explaining the relationship between the kind of image used for producing | generating a gradation compression characteristic, and a harmful effect. 一般的な階調圧縮特性の例を示す図。The figure which shows the example of a general gradation compression characteristic.

以下、添付の図面を参照しながら、本発明の好適な実施形態を説明する。
以下の実施形態では、露光量の異なる2つのフレームの画像を合成して、ダイナミックレンジの拡大された1フレーム分の画像を出力する画像処理装置を有する撮像装置について説明する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
In the following embodiments, an imaging apparatus having an image processing apparatus that combines images of two frames with different exposure amounts and outputs an image for one frame with an expanded dynamic range will be described.

図1は、第1実施形態の撮像装置100の構成を示すブロック図である。図1において、光学系1は撮像レンズ、絞り等の光学素子を含む。撮像素子2は光学系1により撮像面上に結像された光学像を電気信号に変換して画像信号を出力する。本実施意形態の撮像素子2は複数種類の露光量を切り替えて撮像を行うことが可能であり、露光量の切り替えは、例えば光電変換素子における電荷蓄積時間の切り替えにより実現される。フレームメモリ3は、撮像素子2から出力される画像の1フレーム分をバッファリングするためのメモリである。合成部4は、フレームメモリ3から読み出した画像と、撮像素子2から出力される現フレームの画像とを所定の演算によって合成し、ダイナミックレンジの広い画像を生成する。階調圧縮特性生成部5は、合成部4により合成された画像に対する階調圧縮特性を生成する。階調圧縮部6は、合成部4の出力画像が、所定のダイナミックレンジに収まるよう、階調圧縮特性生成部5から出力された階調圧縮特性を用いて階調圧縮を行う。動き領域推定部7は、撮像素子2から出力される合成対象の画像(本実施形態では露光量の異なる2つのフレームの画像)から動きの生じた部分を推定する。システム制御部8は、撮像装置100の全体の動作を制御する。   FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus 100 according to the first embodiment. In FIG. 1, an optical system 1 includes optical elements such as an imaging lens and a diaphragm. The imaging device 2 converts an optical image formed on the imaging surface by the optical system 1 into an electrical signal and outputs an image signal. The imaging device 2 of the present embodiment can perform imaging by switching a plurality of types of exposure amounts, and the switching of the exposure amounts is realized by switching the charge accumulation time in the photoelectric conversion element, for example. The frame memory 3 is a memory for buffering one frame of the image output from the image sensor 2. The synthesizer 4 synthesizes the image read from the frame memory 3 and the image of the current frame output from the image sensor 2 by a predetermined calculation to generate an image with a wide dynamic range. The gradation compression characteristic generation unit 5 generates gradation compression characteristics for the image synthesized by the synthesis unit 4. The gradation compression unit 6 performs gradation compression using the gradation compression characteristic output from the gradation compression characteristic generation unit 5 so that the output image of the synthesis unit 4 falls within a predetermined dynamic range. The motion region estimation unit 7 estimates a portion where motion has occurred from an image to be synthesized output from the image sensor 2 (in this embodiment, images of two frames having different exposure amounts). The system control unit 8 controls the overall operation of the imaging apparatus 100.

次に、第1実施形態による撮像装置100の動作の概要について説明する。撮像装置100において撮影が開始されると、システム制御部8は、フレーム毎に、指示された露光量の画像が撮像素子2から出力されるよう、光学系1、撮像素子2を制御する。光学系1を介して撮像素子2から出力された画像は、フレームメモリ3、合成部4、階調圧縮特性生成部5および、動き領域推定部7に入力される。フレームメモリ3では、撮像素子2からの出力画像の1フレーム分を保持する。   Next, an outline of the operation of the imaging apparatus 100 according to the first embodiment will be described. When shooting is started in the imaging apparatus 100, the system control unit 8 controls the optical system 1 and the imaging element 2 so that an image with the instructed exposure amount is output from the imaging element 2 for each frame. An image output from the image sensor 2 via the optical system 1 is input to the frame memory 3, the synthesis unit 4, the gradation compression characteristic generation unit 5, and the motion region estimation unit 7. The frame memory 3 holds one frame of the output image from the image sensor 2.

合成部4は、フレームメモリ3に保持された画像と撮像素子2から出力される画像とを、ダイナミックレンジを拡張するように合成する。この結果、フレームメモリ3から読み出された1フレーム前の撮像素子2の出力画像と、撮像素子2から現在出力されている撮像素子2の現フレームの出力画像とが合成される。フレームメモリ3から読み出された1フレーム前の撮像素子2の出力画像と、撮像素子2からの現フレームの出力画像は、それぞれ露光量が異なる。そのため、合成前に露光量の差に応じたゲイン処理を実施し、現フレームおよび1フレーム前の撮像素子2の出力画像のレベル調整を行う。   The synthesizing unit 4 synthesizes the image held in the frame memory 3 and the image output from the image sensor 2 so as to extend the dynamic range. As a result, the output image of the image sensor 2 one frame before read from the frame memory 3 and the output image of the current frame of the image sensor 2 currently output from the image sensor 2 are combined. The amount of exposure differs between the output image of the image sensor 2 one frame before read from the frame memory 3 and the output image of the current frame from the image sensor 2. Therefore, a gain process corresponding to the difference in exposure amount is performed before synthesis, and the level adjustment of the output image of the image sensor 2 of the current frame and the previous frame is performed.

階調圧縮特性生成部5は、フレームメモリ3から読み出された1フレーム前の出力画像と、撮像素子2からの現フレームの出力画像とを用いて、合成部4の出力画像のための階調圧縮特性を生成する。階調圧縮部6は、階調圧縮特性生成部5から出力される階調圧縮特性を用いることにより、撮影中の画像が好ましい階調再現となり、かつ出力映像フォーマットのダイナミックレンジに収まるよう、合成部4から出力される画像の階調圧縮を行う。   The gradation compression characteristic generation unit 5 uses the output image of the previous frame read from the frame memory 3 and the output image of the current frame from the image sensor 2 to generate a floor for the output image of the synthesis unit 4. Generate a tonal compression characteristic. The gradation compression unit 6 uses the gradation compression characteristic output from the gradation compression characteristic generation unit 5 to synthesize the image being captured so that the desired gradation is reproduced and within the dynamic range of the output video format. Tone compression of the image output from the unit 4 is performed.

次に、合成部4の構成について、図4を参照して説明する。上述のように、合成部4は、フレームメモリ3から読み出した画像と、撮像素子2から出力される画像とを合成し、ダイナミックレンジの広い画像を生成する。図4の(a)において、入力端子43には、フレームメモリ3の出力画像、入力端子44には、撮像素子2の出力画像がそれぞれ入力される。   Next, the configuration of the synthesis unit 4 will be described with reference to FIG. As described above, the combining unit 4 combines the image read from the frame memory 3 and the image output from the image sensor 2 to generate an image with a wide dynamic range. In FIG. 4A, the output image of the frame memory 3 is input to the input terminal 43, and the output image of the image sensor 2 is input to the input terminal 44.

動き画素判定部41は、入力端子43と入力端子44から入力された2つの画像、即ち、合成対象の2つのフレームの画像を比較し、被写体が動いている領域を画素単位で検出する。検出結果は、画像合成部42および、システム制御部8に出力される。動き画素判定部41は、例えば、各画像で輝度値のレベル合わせを行い、対応する画素、すなわち、同一画像座標の画素毎に画素値の差分の絶対値を取る。そして、その差分の絶対値がある一定の閾値以上の画素を動き部分の画素(以下、動き画素)とみなし、それ以外の画素を静止部分の画素(以下、静止画素)とみなす。   The moving pixel determination unit 41 compares two images input from the input terminal 43 and the input terminal 44, that is, images of two frames to be combined, and detects an area where the subject is moving in units of pixels. The detection result is output to the image composition unit 42 and the system control unit 8. For example, the moving pixel determination unit 41 performs level adjustment of the luminance value in each image, and takes the absolute value of the difference between the pixel values for each corresponding pixel, that is, for each pixel having the same image coordinate. Then, a pixel whose absolute value of the difference is equal to or larger than a certain threshold is regarded as a pixel of a moving part (hereinafter referred to as a moving pixel), and other pixels are regarded as a pixel of a stationary part (hereinafter referred to as a still pixel).

画像合成部42は、入力端子43と入力端子44から入力された画像、即ち、合成対象の2つのフレームの画像を、動き画素判定部41の判定出力に基づいて合成する。なお、合成のタイミングは、システム制御部8から入力される制御信号S2によって与えられる(図3により後述)。   The image synthesis unit 42 synthesizes the images input from the input terminal 43 and the input terminal 44, that is, the images of the two frames to be synthesized based on the determination output of the motion pixel determination unit 41. The synthesis timing is given by a control signal S2 input from the system control unit 8 (described later with reference to FIG. 3).

図4の(b)に、高露光画像における被写体の輝度と出力値との関係411、低露光画像における被写体の輝度と出力値の関係412を示す。低露光画像は、暗部のS/Nが高露光画像よりも低いが、関係412に示すように明部402でも飽和していないため、暗部401から明部402までの全ての輝度領域で画像情報が得られる。一方、高露光画像は、関係411に示すように、明部402の飽和領域では白飛びを起こしてしまうが、暗部401のS/Nは低露光画像よりも高い。従って、明部402では画像情報の欠落がない低露光画像を用い、暗部401では低露光画像・高露光画像の両方のうちのいずれを用いても構わない。   FIG. 4B shows a relationship 411 between the luminance and output value of the subject in the high-exposure image, and a relationship 412 between the luminance and output value of the subject in the low-exposure image. In the low-exposure image, the S / N of the dark part is lower than that of the high-exposure image. However, since the light part 402 is not saturated as shown in the relationship 412, image information is obtained in all luminance regions from the dark part 401 to the bright part 402. Is obtained. On the other hand, as shown in the relationship 411, the high-exposure image causes whiteout in the saturated region of the bright portion 402, but the S / N of the dark portion 401 is higher than that of the low-exposure image. Accordingly, a low-exposure image without missing image information may be used in the bright portion 402, and either a low-exposure image or a high-exposure image may be used in the dark portion 401.

しかしながら、暗部401において、動き画素と判定される画素に対して高露光画像を用いることは避けるべきである。なぜなら、動き画素の判定は、低露光画像と高露光画像の差分値を参照しているため、高露光画像において白飛びが起きている場合、動き画素でなくとも低露光画像との差分が大きくなり、動き画素と判定される場合がある。このように判定された動き画素に対して、高露光画像を用いるとその部分が白飛びしてしまうことになる。従って、本実施形態の画像合成部42では、暗部401における動き画素には低露光画像を、暗部401における静止画素には高露光画像を用いる。   However, it should be avoided to use a high-exposure image for pixels that are determined as moving pixels in the dark portion 401. This is because the determination of the moving pixel refers to the difference value between the low-exposure image and the high-exposure image. Therefore, when whiteout occurs in the high-exposure image, the difference between the low-exposure image and the non-motion pixel is large. Therefore, it may be determined as a motion pixel. If a high-exposure image is used for the motion pixel determined in this way, that portion will be overexposed. Therefore, in the image composition unit 42 of the present embodiment, a low exposure image is used for moving pixels in the dark portion 401, and a high exposure image is used for still pixels in the dark portion 401.

次に、階調圧縮特性生成部5の構成について、図2を参照して説明する。階調圧縮特性生成部5では、着目画素を含む小領域の輝度レベルを参照することにより、画素毎に階調圧縮特性を決定する。   Next, the configuration of the gradation compression characteristic generation unit 5 will be described with reference to FIG. The gradation compression characteristic generation unit 5 determines the gradation compression characteristic for each pixel by referring to the luminance level of the small area including the target pixel.

図2において、入力端子58にはフレームメモリ3の出力画像が、入力端子59には撮像素子2の出力画像が入力される。輝度生成部51、輝度生成部52は、それぞれ、入力端子58、入力端子59から入力された画像から輝度信号を生成する。フレームメモリ3の出力画像と撮像素子2の出力画像は、いずれも、RAWデータであり、RGBベイヤー等、画素毎に色フィルタによるレベル差がある。したがって、輝度生成部51、52では、補間処理、マトリクス演算を行い、色フィルタによるレベル差を解消した輝度信号を生成する。   In FIG. 2, the output image of the frame memory 3 is input to the input terminal 58, and the output image of the image sensor 2 is input to the input terminal 59. The luminance generation unit 51 and the luminance generation unit 52 generate luminance signals from images input from the input terminal 58 and the input terminal 59, respectively. Both the output image of the frame memory 3 and the output image of the image sensor 2 are RAW data, and there is a level difference due to a color filter for each pixel such as RGB Bayer. Therefore, the luminance generation units 51 and 52 perform interpolation processing and matrix calculation to generate a luminance signal in which the level difference due to the color filter is eliminated.

画像縮小部53は、輝度生成部52から出力される1フレーム分の輝度画像を、×1/64、×1/128等の高い縮小率で縮小して低解像度化した画像を取得し、結果を第2のメモリとしてのメモリ54に格納する。なお、縮小後の画像(低解像度化した画像)を格納するメモリ54の容量は、入力画像の1フレーム分をバッファリングするフレームメモリ3と比較して十分に小さく、メモリ54を用いても撮像システムへの負荷は問題にならない。また、フレームメモリ3とメモリ54は別個のメモリであってもよいし、同じメモリの異なるメモリ領域であってもよい。画像拡大部55は、メモリ54に格納された縮小画像を、輝度生成部51から出力される輝度画像と等しい画像サイズになるよう、線形補間等を用いて拡大する。   The image reduction unit 53 obtains an image obtained by reducing the resolution of the luminance image for one frame output from the luminance generation unit 52 at a high reduction ratio such as × 1/64, × 1/128, and the like. Is stored in the memory 54 as the second memory. Note that the capacity of the memory 54 for storing the reduced image (the image with the reduced resolution) is sufficiently small compared to the frame memory 3 for buffering one frame of the input image. The load on the system is not a problem. Further, the frame memory 3 and the memory 54 may be separate memories, or may be different memory areas of the same memory. The image enlarging unit 55 enlarges the reduced image stored in the memory 54 using linear interpolation or the like so as to have an image size equal to the luminance image output from the luminance generating unit 51.

局所輝度レベル推定部56は、輝度生成部51から出力される高解像度の輝度画像と、画像拡大部55から出力される低解像度の輝度画像を用いた演算により、着目画素を含む小領域の輝度レベルを推定する。このような推定演算の一例としては、
・画素毎に、解像度の異なる複数枚の画像の出力を比較し、
・高解像度画像と低解像度画像の差分が小さい場合には、低解像度画像の出力を着目画素における輝度レベルとして出力し、
・高解像度画像と低解像度画像の差分が大きい場合には、低解像度画像と高解像度画像を加重加算して、着目画素における輝度レベルとして出力する、という方法等が挙げられる。このような推定演算を用いることで、ノイズや被写体のエッジ等の影響は排除しつつ、様々な輝度レベルの小領域が混在する画像において、各領域の分離精度を高められる。なお、本実施形態では、2種類の解像度の画像を用いて局所輝度レベルの推定を行ったが、これに限られるものではなく、3種類以上の異なる解像度の画像を用いてもよい。
The local luminance level estimation unit 56 calculates the luminance of the small region including the target pixel by calculation using the high-resolution luminance image output from the luminance generation unit 51 and the low-resolution luminance image output from the image enlargement unit 55. Estimate the level. As an example of such an estimation operation,
・ Compare the output of multiple images with different resolutions for each pixel,
When the difference between the high resolution image and the low resolution image is small, the output of the low resolution image is output as the luminance level at the pixel of interest,
-When the difference between the high-resolution image and the low-resolution image is large, a method of weighting and adding the low-resolution image and the high-resolution image and outputting the luminance level at the pixel of interest can be used. By using such an estimation calculation, it is possible to improve the separation accuracy of each region in an image in which small regions having various luminance levels are mixed while eliminating the influence of noise, the edge of the subject, and the like. In the present embodiment, the local luminance level is estimated using images of two types of resolutions, but the present invention is not limited to this, and images of three or more types of different resolutions may be used.

階調圧縮特性決定部57は、局所輝度レベル推定部56の出力を参照して、画素ごとに、適切な階調圧縮特性を決定する。例えば、
・着目画素を含む小領域の輝度レベルが適正露光よりも暗い場合には、着目画素の輝度レベルをゲインアップするような階調圧縮特性を生成し、
・着目画素を含む小領域の輝度レベルが、適正露光よりも明るい場合には、着目画素の輝度レベルをゲインダウンするような階調圧縮特性を生成する。
The gradation compression characteristic determination unit 57 refers to the output of the local luminance level estimation unit 56 and determines an appropriate gradation compression characteristic for each pixel. For example,
When the brightness level of the small area including the target pixel is darker than the appropriate exposure, a gradation compression characteristic that increases the brightness level of the target pixel is generated,
When the luminance level of the small area including the target pixel is brighter than the appropriate exposure, a gradation compression characteristic that reduces the luminance level of the target pixel is generated.

ところで、局所輝度レベル推定部56では、低解像度画像と高解像度画像を同じタイミングで参照する必要がある。したがって、画像縮小部53で、1フレーム分の画像を縮小している間、1フレーム分の高解像度画像をバッファリングして、遅延する必要がある。このような画像のバッファリングは、特に、画像サイズが大きい場合や、撮影画像のフレームレートが高い場合に、撮像装置のシステム負荷を増大させる。そこで、本実施形態の撮像装置100では、合成部4で用いるフレームメモリ3を、階調圧縮特性生成部5での遅延調整用バッファとして共用することで、システム負荷が増大するのを防いでいる。   Incidentally, the local luminance level estimation unit 56 needs to refer to the low resolution image and the high resolution image at the same timing. Therefore, while the image reduction unit 53 is reducing the image for one frame, it is necessary to buffer and delay the high-resolution image for one frame. Such image buffering increases the system load of the imaging device, particularly when the image size is large or when the frame rate of the captured image is high. Therefore, in the imaging apparatus 100 according to the present embodiment, the frame memory 3 used in the synthesizing unit 4 is shared as a delay adjustment buffer in the gradation compression characteristic generating unit 5 to prevent an increase in system load. .

一方、合成部4で用いるフレームメモリ3にバッファリングできるのは1フレーム分の画像である。本実施形態では、低露光画像と高露光画像を合成する場合、低露光画像と高露光画像の2つのフレームの画像のうち、最初に撮影された方、すなわち1フレーム目の画像がフレームメモリ3にバッファリングされる。そして、その次に撮像素子2から出力される2フレーム目の画像と、フレームメモリ3にバッファリングされた1フレーム目の画像が合成される。上述したように、2つのフレームの画像は、光学系1、撮像素子2により異なる露光量が適用されて撮影された画像である。したがって、合成用にバッファリングされている画像を階調圧縮特性生成部5で共用する場合、合成前の低露光画像または高露光画像のいずれかの1フレーム目の画像がフレームメモリ3に保持され、この画像に基づいて階調圧縮特性が生成されることになる。   On the other hand, an image for one frame can be buffered in the frame memory 3 used in the synthesis unit 4. In the present embodiment, when a low exposure image and a high exposure image are combined, the first image of the two frames of the low exposure image and the high exposure image, that is, the first frame image is the frame memory 3. Buffered. Then, the second frame image output from the image sensor 2 and the first frame image buffered in the frame memory 3 are combined. As described above, the images of the two frames are images taken by applying different exposure amounts by the optical system 1 and the image sensor 2. Therefore, when the gradation buffered characteristic generation unit 5 shares an image buffered for synthesis, either the low-exposure image or the high-exposure image before synthesis is held in the frame memory 3. The gradation compression characteristic is generated based on this image.

ここで、合成前の低露光画像または合成前の高露光画像のいずれかで階調圧縮特性を生成する場合、画像に動きのある被写体が存在すると、合成後の画像に対して階調圧縮特性が適切でない場合が生じる。図6および図7にその一例を示した。   Here, when generating gradation compression characteristics for either a low-exposure image before composition or a high-exposure image before composition, if there is a moving subject in the image, the gradation compression characteristics for the image after composition May not be appropriate. An example is shown in FIGS.

図6を参照して、階調圧縮特性を高露光画像から生成する場合を説明する。図6(a)の高露光画像には、被写体601と被写体602が存在する。これに対して、図6(b)の低露光画像では、被写体601は同じに位置に静止しているが、被写体602は被写体603の位置に大きく移動したとする。   With reference to FIG. 6, a case where the gradation compression characteristic is generated from a high exposure image will be described. In the high exposure image of FIG. 6A, a subject 601 and a subject 602 exist. On the other hand, in the low-exposure image in FIG. 6B, it is assumed that the subject 601 is stationary at the same position, but the subject 602 has moved greatly to the position of the subject 603.

合成部4によってこれらの高露光画像と低露光画像を合成すると、被写体601の領域は静止画素と判定されるため、被写体601の領域が暗部401に属する画像であれば、合成には高露光画像が用いられる。一方、被写体602及び被写体603の領域は動き画素と判定されるため、被写体602,603の領域が暗部401に属する画像であっても合成には低露光画像が用いられる。結果として、図6(d)に示すように、合成後の画像には被写体601と被写体603、さらに被写体602の領域に低露光画像が用いられることで生じるゴースト604が存在することになる。   When these high-exposure images and low-exposure images are combined by the combining unit 4, the area of the subject 601 is determined to be a still pixel. Therefore, if the area of the subject 601 belongs to the dark part 401, the high-exposure image is used for combining. Is used. On the other hand, since the areas of the subject 602 and the subject 603 are determined as moving pixels, even if the areas of the subjects 602 and 603 belong to the dark part 401, a low-exposure image is used for composition. As a result, as shown in FIG. 6D, the composite image includes a subject 601 and a subject 603, and a ghost 604 that is generated by using a low-exposure image in the region of the subject 602.

このとき、階調圧縮特性を高露光画像から生成すると、図6(c)のように被写体601及び被写体602に対して最適な階調圧縮特性が生成される。この階調圧縮特性を合成後の画像(図6(d))に適用すると、領域605の階調圧縮特性は被写体601に対して正しく適用される。しかしながら、領域606の階調圧縮特性がゴースト604に誤って適用されてしまうとともに、被写体603に対しては適切な階調圧縮特性が適用されないことになってしまう。   At this time, when the gradation compression characteristic is generated from the high-exposure image, the optimum gradation compression characteristic is generated for the subject 601 and the subject 602 as shown in FIG. When this gradation compression characteristic is applied to the synthesized image (FIG. 6D), the gradation compression characteristic in the region 605 is correctly applied to the subject 601. However, the gradation compression characteristics of the area 606 are erroneously applied to the ghost 604, and appropriate gradation compression characteristics are not applied to the subject 603.

また図7を参照して、階調圧縮特性を低露光画像から生成する場合を考える。図7(a)の低露光画像には、被写体701と被写体702が存在する。これに対して、図7(b)の高露光画像では、被写体701は同じに位置に静止しているが、被写体702は被写体703の位置にごくわずかに移動したとする。   Further, with reference to FIG. 7, a case where the gradation compression characteristic is generated from a low exposure image will be considered. The low-exposure image in FIG. 7A includes a subject 701 and a subject 702. In contrast, in the high exposure image of FIG. 7B, it is assumed that the subject 701 is still at the same position, but the subject 702 has moved to the position of the subject 703 very slightly.

合成部4によってこれらの高露光画像と低露光画像を合成すると、被写体701の領域は静止画素と判定されるため、被写体701の領域が暗部401に属する画像であれば、合成には高露光画像が用いられる。一方、被写体702及び被写体703の領域であるが、移動量がごくわずかであるために、動き画素判定部41において動きと判定されるための閾値を超えず、静止画素と判定される。その結果、被写体702及び被写体703の領域が暗部401に属する画像であれば、合成には高露光画像が用いられる。結果として、図7(d)に示されるように、合成後の画像には、被写体701と被写体703が存在することになる。   When these high-exposure images and low-exposure images are combined by the combining unit 4, the area of the subject 701 is determined to be a static pixel. Therefore, if the area of the subject 701 belongs to the dark part 401, the high-exposure image is used for combining. Is used. On the other hand, although it is the area | region of the to-be-photographed object 702 and the to-be-photographed object 703, since the movement amount is very small, it does not exceed the threshold value for determining with a motion pixel determination part 41, and it determines with a still pixel. As a result, if the regions of the subject 702 and the subject 703 belong to the dark part 401, a high-exposure image is used for composition. As a result, as shown in FIG. 7D, a subject 701 and a subject 703 exist in the combined image.

このとき、階調圧縮特性を図7(a)の低露光画像から生成すると、図7(c)のように被写体701及び被写体702に対して最適な階調圧縮特性が生成される。この階調圧縮特性を図7(d)に示す合成後の画像に適用すると、領域704の階調圧縮特性は被写体701に対して正しく適用される。しかしながら、領域705の階調圧縮特性は被写体703に対してわずかにずれて適用されることになり、ずれた部分の階調が損なわれてしまう。   At this time, when the tone compression characteristics are generated from the low-exposure image in FIG. 7A, optimum tone compression characteristics are generated for the subject 701 and the subject 702 as shown in FIG. 7C. When this gradation compression characteristic is applied to the combined image shown in FIG. 7D, the gradation compression characteristic in the region 704 is correctly applied to the subject 701. However, the gradation compression characteristic of the region 705 is applied with a slight shift with respect to the subject 703, and the gradation of the shifted portion is lost.

上記のような問題が起きる条件を、図8の表にまとめた。図8の表では、暗部401における合成処理(高露光画像、低露光画像のいずれも合成に利用可能な領域における合成処理)を示している。表中のLは低露光画像、Hは高露光画像、ΔLHは低露出画像と高露出画像のある同一画像座標の画素に関して、画素値の差分の絶対値を取ったものである。表中の○は合成後の画像に対して階調圧縮特性が適切であることを示しており、×は階調圧縮特性が適切でないことを示している。また△は×と同様に適切ではないが、それによって生じる不具合の影響が小さいことを示している。   The conditions under which the above problems occur are summarized in the table of FIG. The table of FIG. 8 shows the composition processing in the dark portion 401 (composition processing in an area where both high exposure images and low exposure images can be used for composition). In the table, L is a low-exposure image, H is a high-exposure image, and ΔLH is an absolute value of the difference between pixel values for pixels having the same image coordinates in the low-exposure image and the high-exposure image. In the table, ◯ indicates that the tone compression characteristics are appropriate for the combined image, and x indicates that the tone compression characteristics are not appropriate. Further, Δ is not appropriate as in the case of ×, but indicates that the influence of defects caused thereby is small.

ΔLHがある閾値よりも大きい場合には動き画素と判定され、合成画像には低露光画像(L)が用いられる。ΔLHがほぼ0である場合には静止画素と判定され、合成画像には高露光画像(H)が用いられる。また、ΔLHが0ではないがある閾値よりも小さい場合には静止画素と判定され、この場合にも合成画像には高露光画像(H)が用いられる。合成後の画像に対して階調圧縮特性が適切でないのは、合成画像にLが用いられ、階調圧縮特性をHから生成する場合(図6)と、合成画像にHが用いられ、階調圧縮特性をLから生成する場合(図7)である。   When ΔLH is larger than a certain threshold, it is determined as a moving pixel, and a low-exposure image (L) is used as a composite image. When ΔLH is substantially 0, it is determined as a still pixel, and a high exposure image (H) is used as a composite image. Further, when ΔLH is not 0 and is smaller than a certain threshold value, it is determined as a still pixel, and also in this case, a high-exposure image (H) is used as a composite image. The reason why the tone compression characteristic is not appropriate for the synthesized image is that L is used for the synthesized image and the tone compression characteristic is generated from H (FIG. 6), and H is used for the synthesized image. This is a case where the compression / compression characteristics are generated from L (FIG. 7).

次に、合成画像に対して階調圧縮特性が適切でないケースをより減らすための構成について説明する。本実施形態では、撮影中の画像において、動いていると判定される領域(動き領域)が支配的な場合、すなわち、合成画像で低露光画像が用いられる領域が支配的な場合には、階調圧縮特性を低露光画像から生成する。一方、撮影中の画像において、静止していると判定される領域(静止領域)が支配的な場合、すなわち、合成画像で高露光画像が用いられる領域が支配的な場合には、階調圧縮特性を高露光画像から生成するようにすればよい。   Next, a configuration for further reducing the case where the gradation compression characteristics are not appropriate for the composite image will be described. In the present embodiment, when an area that is determined to be moving (motion area) is dominant in an image being shot, that is, when an area where a low-exposure image is used in a composite image is dominant, A tonal compression characteristic is generated from a low exposure image. On the other hand, if the area that is determined to be stationary (still area) is dominant in the image being shot, that is, if the area where the high-exposure image is used is dominant in the composite image, tone compression The characteristic may be generated from the high exposure image.

そこで、本実施形態の撮像装置100では、撮影中の画像において、支配的な領域が、動き領域なのか、静止領域なのかを判定する。そして、撮影中の画像において、少なくとも支配的な領域ではより好ましい階調圧縮特性で階調圧縮処理が行われるように、階調圧縮特性生成部5で用いる画像、すなわち、フレームメモリ3に保持する画像を決定する。   Therefore, in the imaging apparatus 100 according to the present embodiment, it is determined whether a dominant region is a motion region or a still region in an image being shot. Then, the image used in the gradation compression characteristic generation unit 5, that is, the frame memory 3 is held so that gradation compression processing is performed with a more preferable gradation compression characteristic in an image being photographed at least in a dominant region. Determine the image.

撮影中の画像において、支配的な領域を判定する方法としては、以下で説明するように、動き領域推定部7で撮影中の画像を解析して判定してもよいし、撮影条件や、ユーザの指示などを参照して、システム制御部8で決定してもよい。例えば、撮影条件を参照して支配的な領域を判定する方法としては、シャッタースピードが速い場合や、シーンモードがスポーツモードの場合には、動被写体を撮影している可能性が高いため、動き領域が支配的と判定することが挙げられる。その逆にシャッタースピードが遅い場合や三脚撮影モードの場合には、静被写体を撮影している可能性が高いため、静止領域が支配的であると判定することが挙げられる。また、ユーザの指示を参照して支配的な領域を判定する方法としては、例えば、あらかじめ静止領域支配モードと動領域支配モードのようなものを用意しておき、撮影前にユーザに選択させる、ことが挙げられる。以下、動き領域推定部7での動作について説明する。   As a method for determining a dominant region in an image being shot, it may be determined by analyzing the image being shot by the motion region estimation unit 7 as will be described below. It may be determined by the system control unit 8 with reference to the instructions. For example, as a method of determining a dominant region with reference to shooting conditions, if the shutter speed is fast or the scene mode is sports mode, there is a high possibility that a moving subject is shot. For example, it is determined that the area is dominant. On the other hand, when the shutter speed is slow or in the tripod shooting mode, there is a high possibility that a still subject is being shot, so that it is determined that the still area is dominant. In addition, as a method for determining the dominant region with reference to the user's instruction, for example, a static region dominant mode and a dynamic region dominant mode are prepared in advance, and the user selects before shooting, Can be mentioned. Hereinafter, the operation in the motion region estimation unit 7 will be described.

動き領域推定部7では、画面内の動きベクトル分布を検出し、動き領域が支配的か、静止領域が支配的かを判定する。判定方法の一例としては、ブロックマッチングによってブロック単位で動きベクトルを算出し、それら動きベクトルの大きさを積算し、ある閾値より大きければ動き領域が支配的であり、ある閾値より小さければ静止領域が支配的であると判定する。動き領域推定部7は、以上のようにして、撮影中の画像を解析し、その解析結果をシステム制御部8に送出する。   The motion region estimation unit 7 detects the motion vector distribution in the screen and determines whether the motion region is dominant or the still region is dominant. As an example of the determination method, a motion vector is calculated in block units by block matching, and the magnitudes of the motion vectors are integrated. If the motion vector is larger than a certain threshold, the motion region is dominant. Determined to be dominant. The motion region estimation unit 7 analyzes the image being captured as described above, and sends the analysis result to the system control unit 8.

システム制御部8は、動き領域推定部7による推定の結果に基づき、合成対象の2つのフレームにおける1フレーム目と2フレーム目の画像の露光量を入れ替える。この入れ替えにより、階調圧縮特性の生成に使用される1フレーム目の画像を、低露光画像とするか高露光画像とするかを制御する。本実施形態では、システム制御部8は、撮像素子2の駆動を制御して、撮像素子2に適用される2種類の露光量の順番を入れ替える。   The system control unit 8 swaps the exposure amounts of the first and second frame images in the two frames to be synthesized based on the estimation result by the motion region estimation unit 7. By this replacement, it is controlled whether the first frame image used for generating the gradation compression characteristics is a low exposure image or a high exposure image. In the present embodiment, the system control unit 8 controls the driving of the image sensor 2 and changes the order of the two types of exposure amounts applied to the image sensor 2.

動き領域推定部7による推定の結果、撮像中の画像において動きの生じた部分の大きさが所定値以下の場合、すなわち、静止領域が支配的と判定された場合には、フレームメモリ3に高露出画像が入力されるようにする。本実施形態では、合成対象の連続した2フレームの画像のうち、露光量の高い画像の方が先に撮影されて1フレーム目となるように、システム制御部8が撮像素子2の駆動制御を行う。また、動き領域推定部7による推定の結果、撮像中の画像において動きの生じた部分の大きさが所定値を超える場合、すなわち動き領域が支配的と判定された場合には、フレームメモリ3に低露出画像が入力されるようにする。本実施形態では、合成対象の連続した2つのフレームの画像のうち露光量の低い画像の方が先に撮影されて1フレーム目となるよう、システム制御部8が撮像素子2の駆動制御を行う。   As a result of estimation by the motion region estimation unit 7, if the size of the portion where motion has occurred in the image being captured is equal to or smaller than a predetermined value, that is, if it is determined that the still region is dominant, the frame memory 3 Make sure the exposure image is input. In the present embodiment, the system control unit 8 controls the drive of the image sensor 2 so that the image with the higher exposure amount is captured first among the two consecutive frames to be synthesized and becomes the first frame. Do. As a result of estimation by the motion region estimation unit 7, if the size of the portion where motion has occurred in the image being captured exceeds a predetermined value, that is, if it is determined that the motion region is dominant, the frame memory 3 Allow low exposure images to be input. In the present embodiment, the system control unit 8 controls the drive of the image sensor 2 so that the image with the lower exposure amount is captured first and becomes the first frame among the images of two consecutive frames to be synthesized. .

以上の構成により、適正な階調圧縮特性を得ることができる。しかしながら、上記の制御では、動き領域と静止領域のどちらか一方の支配的領域に対しては適切な階調圧縮特性が得られるが、他方の非支配的領域に対しては適切な階調圧縮特性が得られない可能性がある。そこで、本実施形態の階調圧縮部6は、更に、非支配的領域に対する不適切な階調圧縮の影響を低減するため、動き領域の面積と移動量の積に応じて階調圧縮効果の度合いを制御する。   With the above configuration, appropriate gradation compression characteristics can be obtained. However, in the above control, appropriate gradation compression characteristics can be obtained for one of the dominant areas of the motion area and the stationary area, but appropriate gradation compression is obtained for the other non-dominant area. Characteristics may not be obtained. Therefore, the gradation compression unit 6 of the present embodiment further reduces the influence of the gradation compression effect according to the product of the area of the motion region and the movement amount in order to reduce the influence of inappropriate gradation compression on the non-dominant region. Control the degree.

いま、画面内に動き領域が一部存在するが、動き領域推定部7によって、支配領域は静止領域であると判定された場合を考えてみる。この場合、高露光画像から階調圧縮特性を生成することになり、図6で説明したような状況が生じる可能性がある。図6の状況では、動き領域の面積が大きいほど、また動き領域の移動量が大きいほど、不適切な階調圧縮の影響が大きくなる。従って、支配領域が静止領域であると判定されている場合、すなわち、高露光画像から階調圧縮特性を生成する場合は、動き領域の面積と移動量の積が増加するほど、階調圧縮効果を弱めることが望ましい。   Now, consider a case in which a part of the motion area exists in the screen, but the motion area estimation unit 7 determines that the dominant area is a static area. In this case, the tone compression characteristic is generated from the high-exposure image, and the situation described with reference to FIG. 6 may occur. In the situation of FIG. 6, the influence of inappropriate gradation compression increases as the area of the motion area increases and the movement amount of the motion area increases. Therefore, when the dominant region is determined to be a static region, that is, when tone compression characteristics are generated from a high-exposure image, the tone compression effect increases as the product of the area of the motion region and the amount of movement increases. It is desirable to weaken.

また、面内に静止領域が一部存在するが、動き領域推定部7によって、支配領域は動き領域であると判定された場合を考えてみる。この場合、低露光画像から階調圧縮特性を生成することになり、図7で説明したような状況が生じる可能性がある。図7の状況では、動き領域の面積が大きいほど、また動き領域の移動量が大きいほど、不適切な階調圧縮の影響が小さくなる。従って、支配領域が動き領域であると判定された場合、すなわち、低露光画像から階調圧縮特性を生成する場合は、動き領域の面積と移動量の積が増加するほど、階調圧縮効果を強めることが望ましい。これは、動き領域の面積と移動量の積が増加するほど、動き領域がより支配的で、合成画像に占める低露光画像の割合が大きくなると考えられるためである。例えば動き領域が100%であれば低露光画像から生成した階調圧縮をそのまま適用し、動き領域が60%であれば40%の静止領域のことも考慮して階調圧縮を弱めに適用するといった具合である。   Consider a case in which a part of a static region exists in the plane, but the dominant region is determined to be a motion region by the motion region estimation unit 7. In this case, tone compression characteristics are generated from the low-exposure image, and the situation described with reference to FIG. 7 may occur. In the situation of FIG. 7, the influence of inappropriate gradation compression becomes smaller as the area of the motion region is larger and the movement amount of the motion region is larger. Therefore, when it is determined that the dominant region is a motion region, that is, when tone compression characteristics are generated from a low-exposure image, the tone compression effect increases as the product of the area of the motion region and the movement amount increases. It is desirable to strengthen. This is because it is considered that as the product of the area of the motion region and the movement amount increases, the motion region is more dominant and the proportion of the low-exposure image in the composite image increases. For example, if the moving area is 100%, the gradation compression generated from the low-exposure image is applied as it is, and if the moving area is 60%, the gradation compression is applied weakly in consideration of the 40% still area. And so on.

階調圧縮効果の度合いの制御は、階調圧縮特性生成部5の出力に対して抑制ゲインを乗算することで行う。抑制ゲインの特性の一例を図5の(a)に示した。横軸である動き領域の面積と移動量の積が増加するにつれて、支配領域が静止領域である場合にはゲインが小さくなり、支配領域が動き領域である場合にはゲインが大きくなる。抑制ゲインが1であれば階調圧縮特性生成部5が生成した圧縮特性となり、抑制ゲインが0の場合にはリニアな圧縮特性となる。例えば、図5の(b)に示すように、階調圧縮特性生成部5によって階調圧縮特性501が得られた場合、抑制ゲインが1であれば階調圧縮特性501がそのまま使用されることになる。一方、抑制ゲインが0に近づけば近づくほど、階調圧縮特性はリニアな特性502に近づくことになる。   The degree of the gradation compression effect is controlled by multiplying the output of the gradation compression characteristic generation unit 5 by a suppression gain. An example of the suppression gain characteristic is shown in FIG. As the product of the area of the motion region, which is the horizontal axis, and the amount of movement increases, the gain decreases when the dominant region is a stationary region, and the gain increases when the dominant region is a motion region. When the suppression gain is 1, the compression characteristic generated by the gradation compression characteristic generation unit 5 is obtained. When the suppression gain is 0, the compression characteristic is linear. For example, as shown in FIG. 5B, when the gradation compression characteristic 501 is obtained by the gradation compression characteristic generation unit 5, if the suppression gain is 1, the gradation compression characteristic 501 is used as it is. become. On the other hand, the closer the suppression gain is to 0, the closer the gradation compression characteristic is to the linear characteristic 502.

次に、階調圧縮効果の度合いを制御することによる効果について、図6、図7を参照して更に説明する。図6では先述のとおり、高露光画像から生成した階調圧縮特性(図6(c))が、図6(d)の合成後の画像に適用される。そのため、被写体601に対しては適切な階調圧縮が行われるが、ゴースト604及び、被写体603に対しては適切な階調圧縮が行われない。このとき、非支配領域を考慮し、階調圧縮効果を抑制すれば、被写体601に対する適切な階調圧縮の効果は弱まってしまうが、ゴースト604及び、被写体603に対する不適切な階調圧縮による弊害を低減できる。   Next, the effect obtained by controlling the degree of the gradation compression effect will be further described with reference to FIGS. In FIG. 6, as described above, the gradation compression characteristic (FIG. 6C) generated from the high-exposure image is applied to the synthesized image of FIG. 6D. Therefore, appropriate gradation compression is performed on the subject 601, but appropriate gradation compression is not performed on the ghost 604 and the subject 603. At this time, if the gradation compression effect is suppressed in consideration of the non-dominated area, the effect of the appropriate gradation compression on the subject 601 is weakened, but the adverse effect of the ghost 604 and the inappropriate gradation compression on the subject 603 is caused. Can be reduced.

図7においても、先述のとおり、低露光画像から生成した階調圧縮特性(図7(c))が図7(d)の合成後の画像に適用される。そのため、被写体701に対しては適切な階調圧縮が行われるが、被写体703に対しては適切な階調圧縮が行われない。このとき、非支配領域を考慮し、階調圧縮効果を抑制すれば、被写体703に対する不適切な階調圧縮による弊害を低減できる。   Also in FIG. 7, as described above, the gradation compression characteristic (FIG. 7C) generated from the low-exposure image is applied to the synthesized image of FIG. 7D. Therefore, appropriate gradation compression is performed on the subject 701, but appropriate gradation compression is not performed on the subject 703. At this time, if the non-dominated region is taken into consideration and the tone compression effect is suppressed, the adverse effects caused by inappropriate tone compression on the subject 703 can be reduced.

次に、撮影中の画像において、支配的な領域が、動き領域から静止領域に変化した際の撮像動作の一例を、図3のタイミングチャートを参照して説明する。図3において、時刻t1、t2、t3、・・・、t7の間隔は、それぞれ、1フレーム期間(以下1Vと表記する)を示す。撮像素子2からは、1V毎に、低露光画像または高露光画像が出力され、合成部4において合成対象となる2つのフレームの画像は図3の破線で囲まれた組み合わせとなる。   Next, an example of an imaging operation when a dominant region changes from a motion region to a still region in an image being shot will be described with reference to a timing chart of FIG. In FIG. 3, the intervals between times t1, t2, t3,..., T7 each indicate one frame period (hereinafter referred to as 1V). A low-exposure image or a high-exposure image is output from the image sensor 2 for each 1V, and the images of the two frames to be combined in the combining unit 4 are a combination surrounded by a broken line in FIG.

すなわち、時刻t1からt3の期間では、撮像素子2から連続して出力された低露光画像L1と高露光画像H1を合成する。同様に、時刻t3からt5の期間では、撮像素子2から連続して出力された低露光画像L2と高露光画像H2を合成する。また、時刻t5からt7の期間では、撮像素子2から連続して出力された低露光画像L3と高露光画像H3を合成する。   That is, in the period from time t1 to time t3, the low-exposure image L1 and the high-exposure image H1 continuously output from the image sensor 2 are combined. Similarly, in the period from time t3 to t5, the low-exposure image L2 and the high-exposure image H2 continuously output from the image sensor 2 are combined. In the period from time t5 to time t7, the low-exposure image L3 and the high-exposure image H3 continuously output from the image sensor 2 are combined.

制御信号S1は、フレームメモリ3への画像の書き込み、及び、階調圧縮特性生成部5での処理のOn/Offを制御する2値の制御信号であり、システム制御部8が出力する。制御信号S1が“1”の場合には、撮像素子2の出力画像が、1V期間かけてフレームメモリ3に書き込まれる。また、これと並行して、撮像素子2の出力画像が階調圧縮特性生成部5に入力され、1V期間かけて階調圧縮特性が生成される。制御信号S1が“0”の場合には、フレームメモリ3への画像の書き込みは停止され、階調圧縮特性生成部5での処理はoffとなる。   The control signal S <b> 1 is a binary control signal that controls the writing of an image to the frame memory 3 and the on / off of the processing in the gradation compression characteristic generation unit 5, and is output by the system control unit 8. When the control signal S1 is “1”, the output image of the image sensor 2 is written into the frame memory 3 over a period of 1V. In parallel with this, the output image of the image sensor 2 is input to the gradation compression characteristic generation unit 5, and the gradation compression characteristic is generated over a period of 1V. When the control signal S1 is “0”, the writing of the image to the frame memory 3 is stopped, and the processing in the gradation compression characteristic generation unit 5 is turned off.

制御信号S2は、フレームメモリ3からの画像の読み出し、及び、合成部4での処理のon/off、及び、階調圧縮部6での処理のon/offを制御する2値の信号であり、システム制御部8から出力される。制御信号S2が“0”の場合は、フレームメモリ3からの画像の読み出しが停止され、合成部4、及び、階調圧縮部6での処理はoffとなる。制御信号S2が“1”の場合には、合成部4は、撮像素子2から出力される画像と、フレームメモリ3から読み出した画像とを用いて、ダイナミックレンジが拡張された合成画像を生成する合成処理を行う。そして、合成後の画像に対して、階調圧縮特性生成部5の出力を用い、階調圧縮部6で階調圧縮処理を行う。   The control signal S2 is a binary signal that controls the reading of the image from the frame memory 3, the on / off of the processing in the synthesis unit 4, and the on / off of the processing in the gradation compression unit 6. Is output from the system control unit 8. When the control signal S2 is “0”, reading of the image from the frame memory 3 is stopped, and the processing in the synthesis unit 4 and the gradation compression unit 6 is turned off. When the control signal S2 is “1”, the synthesizer 4 uses the image output from the image sensor 2 and the image read from the frame memory 3 to generate a synthesized image with an extended dynamic range. Perform synthesis processing. Then, the tone compression unit 6 performs tone compression processing on the synthesized image using the output of the tone compression characteristic generation unit 5.

制御信号S3は、合成される低露光画像と高露光画像のうち、どちらを先に撮影するかを決定する、2値の制御信号であり、システム制御部8から出力される。システム制御部8は、動き領域推定部7での判定結果に基づいて制御信号S3を更新する。   The control signal S3 is a binary control signal that determines which of the low-exposure image and the high-exposure image to be combined is to be captured first, and is output from the system control unit 8. The system control unit 8 updates the control signal S3 based on the determination result in the motion region estimation unit 7.

システム制御部8は、動き領域推定部7の判定結果に基づいて、撮影中の画像において動き領域が支配的であると判定した場合に制御信号S3を“0”にセットする。制御信号S3が“0”の場合、次の合成用画像の撮影時には、低露光画像が先に撮影されるよう撮像素子2が制御される。即ち、合成対象のフレームのうちの1フレーム目が低露光画像、2フレーム目が高露光画像となるように、撮像素子2からの出力の順番が制御される。一方、システム制御部8は、動き領域推定部7の判定結果に基づいて、撮影中の画像において静止領域が支配的であると判定した場合には、制御信号S3を“1”にセットする。制御信号S3が“1”の場合、次に合成用画像の撮影時には、高露光画像が先に撮影されるよう、撮像素子2が制御される。即ち、合成対象のフレームのうちの1フレーム目が高露光画像、2フレーム目が低露光画像となるように、撮像素子2からの出力の順番が制御される。   The system control unit 8 sets the control signal S3 to “0” when it is determined based on the determination result of the motion region estimation unit 7 that the motion region is dominant in the image being shot. When the control signal S3 is “0”, the image sensor 2 is controlled so that the low-exposure image is captured first when the next composition image is captured. That is, the order of output from the image sensor 2 is controlled so that the first frame of the compositing target frames is a low exposure image and the second frame is a high exposure image. On the other hand, if the system control unit 8 determines that the still region is dominant in the image being shot based on the determination result of the motion region estimation unit 7, the control signal S3 is set to “1”. When the control signal S3 is “1”, the image sensor 2 is controlled so that the high-exposure image is captured first when the composition image is captured next time. That is, the order of output from the image sensor 2 is controlled so that the first frame of the synthesis target frames is a high exposure image and the second frame is a low exposure image.

図3において、時刻t1からt2の期間では、制御信号S3が“0”であるので、合成対象の2つのフレームの画像は、低露光画像L1、高露光画像H1の順に撮像素子2から出力される。そして、システム制御部8は、時刻t1からt2までの1V期間で低露光画像L1をフレームメモリ3に書き込み、それと、並行して、階調圧縮特性生成部5では、時刻t2までに、低露光画像L1の縮小画像がメモリ54に保持される。   In FIG. 3, since the control signal S3 is “0” during the period from the time t1 to the time t2, the images of the two frames to be combined are output from the image sensor 2 in the order of the low exposure image L1 and the high exposure image H1. The Then, the system control unit 8 writes the low-exposure image L1 to the frame memory 3 in the 1V period from the time t1 to the time t2, and at the same time, the gradation compression characteristic generation unit 5 performs the low exposure by the time t2. A reduced image of the image L1 is held in the memory 54.

時刻t2からt3において、合成部4は、フレームメモリ3に書き込まれた低露光画像L1と撮像素子2から出力される高露光画像H1を合成して、合成画像H1+L1を出力する。これと並行して、階調圧縮特性生成部5は、メモリ54に保持されている画像L1の縮小画像とフレームメモリ3から読み出される画像L1に基づいて階調圧縮特性g(L1)を生成し、生成した階調圧縮特性を順次に出力していく。そして、この時刻t2からt3の期間において、階調圧縮部6は、合成部4から出力された合成画像H1+L1に対し、階調圧縮特性g(L1)を用いて、階調圧縮処理を行う。   From time t2 to t3, the synthesizing unit 4 synthesizes the low-exposure image L1 written in the frame memory 3 and the high-exposure image H1 output from the image sensor 2, and outputs a composite image H1 + L1. In parallel with this, the gradation compression characteristic generation unit 5 generates the gradation compression characteristic g (L1) based on the reduced image of the image L1 held in the memory 54 and the image L1 read from the frame memory 3. The generated tone compression characteristics are sequentially output. In the period from time t2 to time t3, the gradation compression unit 6 performs gradation compression processing on the combined image H1 + L1 output from the combining unit 4 using the gradation compression characteristic g (L1).

また、時刻t1からt3の期間では、動き領域推定部7が合成対象の低露光画像L1と高露光画像H1を用いて動き領域を判定し、判定結果A(H1−L1)を出力する。システム制御部8は、判定結果A(H1−L1)に基づいて、時刻t3からの合成で参照する制御信号S3を“0”に更新する。これは、現在撮影中の画像を解析した結果、動き領域が支配的であると判断できるので、次の合成処理の際も、低露光画像を先に撮影して、動き領域での階調圧縮特性を最適化した方が好ましい画質になると考えられるためである。   In the period from time t1 to time t3, the motion region estimation unit 7 determines a motion region using the low exposure image L1 and the high exposure image H1 to be combined, and outputs a determination result A (H1-L1). Based on the determination result A (H1-L1), the system control unit 8 updates the control signal S3 referred to in the synthesis from time t3 to “0”. As a result of analyzing the currently captured image, it can be determined that the motion area is dominant, so during the next compositing process, a low-exposure image is captured first, and gradation compression is performed in the motion area. This is because it is considered that the image quality is more preferable when the characteristics are optimized.

ここで、動き領域推定部7は、高露光画像H1(合成対象のフレームのうちの2フレーム目の画像)が撮像素子2から出力される時刻t2から時刻t3の期間に判定結果A(H1−L1)を出力する必要がある。そのため、動き領域推定部7では、例えば、
・撮像素子2からの高露光画像H1の読み出しを間引いて2回に分けて(例えば、偶フィールドと奇フィールドに分けて)行い、1回目の読み出しを終えた時点で動き判定を行う、あるいは、
・高露光画像H1の読み出しの途中で動き判定を実施する(すなわち、前画像ではなく一部の画像から動き領域を判定する)、などの対策が講じられている。
Here, the motion region estimation unit 7 determines the determination result A (H1−H1) during the period from the time t2 to the time t3 when the high-exposure image H1 (the second frame image among the frames to be combined) is output from the imaging device 2. L1) must be output. Therefore, in the motion region estimation unit 7, for example,
・ Thin reading out of the high-exposure image H1 from the image sensor 2 is thinned out and divided into two times (for example, divided into an even field and an odd field), and the motion determination is performed when the first reading is completed, or
Measures are taken such as performing motion determination in the middle of reading the high-exposure image H1 (that is, determining a motion region from a part of the image rather than the previous image).

時刻t3からt5の期間においても、制御信号S3が“0”であるので、合成対象の2つのフレームの画像は、低露光画像L2(1フレーム目)、高露光画像H2(2フレーム目)の順に撮像素子2から出力される。そして、時刻t3からt4までの1V期間で、システム制御部8は、低露光画像L2をフレームメモリ3に書き込み、それと並行して、階調圧縮特性生成部5では、時刻t4までに、低露光画像L2の縮小画像がメモリ54に保持される。   Since the control signal S3 is “0” even during the period from the time t3 to the time t5, the images of the two frames to be synthesized are the low exposure image L2 (first frame) and the high exposure image H2 (second frame). The images are output from the image sensor 2 in order. In the 1V period from time t3 to t4, the system control unit 8 writes the low-exposure image L2 to the frame memory 3, and at the same time, the gradation compression characteristic generation unit 5 performs low exposure by time t4. A reduced image of the image L2 is held in the memory 54.

時刻t4からt5において、合成部4は、フレームメモリ3に書き込まれた低露光画像L2と撮像素子2から出力される高露光画像H2を合成して、合成画像H2+L2を出力する。これと並行して、階調圧縮特性生成部5は、メモリ54に保持されている画像L2の縮小画像とフレームメモリ3から読み出される画像L2に基づいて階調圧縮特性g(L2)を生成し、生成した階調圧縮特性を順次に出力していく。そして、この時刻t4からt5の期間において、階調圧縮部6は、合成部4から出力された合成画像H2+L2に対し、階調圧縮特性g(L2)を用いて、階調圧縮処理を行う。   From time t4 to t5, the synthesizing unit 4 synthesizes the low-exposure image L2 written in the frame memory 3 and the high-exposure image H2 output from the image sensor 2, and outputs a composite image H2 + L2. In parallel with this, the gradation compression characteristic generation unit 5 generates the gradation compression characteristic g (L2) based on the reduced image of the image L2 held in the memory 54 and the image L2 read from the frame memory 3. The generated tone compression characteristics are sequentially output. In the period from time t4 to time t5, the gradation compression unit 6 performs gradation compression processing on the combined image H2 + L2 output from the combining unit 4 using the gradation compression characteristic g (L2).

また、時刻t3からt5の期間では、動き領域推定部7が合成対象の低露光画像L2と高露光画像H2を用いて動き領域を判定し、判定結果A(H2−L2)を出力する。システム制御部8は、判定結果A(H2−L2)に基づいて、時刻t5からの合成で参照する制御信号S3を“1”に更新する。これは、現在撮影中の画像を解析した結果、静止領域が支配的になってきていると判断できるので、次の合成処理の際は、高露光画像を先に撮影し、静止領域での階調圧縮特性を最適化した方が、好ましい画質となると考えられるためである。   In the period from time t3 to t5, the motion region estimation unit 7 determines a motion region using the low exposure image L2 and the high exposure image H2 to be combined, and outputs a determination result A (H2-L2). Based on the determination result A (H2-L2), the system control unit 8 updates the control signal S3 referred to in the synthesis from time t5 to “1”. As a result of analyzing the currently captured image, it can be determined that the still region has become dominant. Therefore, in the next compositing process, a high-exposure image is captured first and the floor in the still region is captured. This is because optimizing the compression / compression characteristics is considered to give better image quality.

時刻t5からt7の期間では、制御信号S3が“1”なので、合成対象の2つのフレームの画像は、1フレーム目が高露光画像H3、2フレーム目が低露光画像L3の順となるように撮像素子2から出力される。そして、時刻t5からt6までの1V期間で、システム制御部8は、高露光画像H3をフレームメモリ3に書き込み、それと、並行して、階調圧縮特性生成部5では、時刻t6までに、高露光画像H3の縮小画像がメモリ54に保持される。   In the period from time t5 to t7, since the control signal S3 is “1”, the images of the two frames to be combined are such that the first frame is the high exposure image H3 and the second frame is the low exposure image L3. Output from the image sensor 2. Then, in the 1V period from time t5 to t6, the system control unit 8 writes the high-exposure image H3 into the frame memory 3, and at the same time, in the gradation compression characteristic generation unit 5, the time is high until time t6. A reduced image of the exposure image H3 is held in the memory 54.

時刻t6からt7において、合成部4は、フレームメモリ3に書き込まれた高露光画像H3と撮像素子2から出力される低露光画像L3を合成して、合成画像H3+L3を出力する。これと並行して、階調圧縮特性生成部5は、メモリ54に保持されている画像H3の縮小画像とフレームメモリ3から読み出される画像H3に基づいて階調圧縮特性g(H3)を生成し、生成した階調圧縮特性を順次に出力していく。そして、この時刻t6からt7の期間において、階調圧縮部6は、合成部4から出力された合成画像H3+L3に対し、階調圧縮特性g(H3)を用いて、階調圧縮処理を行う。   From time t6 to t7, the synthesizing unit 4 synthesizes the high-exposure image H3 written in the frame memory 3 and the low-exposure image L3 output from the image sensor 2, and outputs a composite image H3 + L3. In parallel with this, the gradation compression characteristic generation unit 5 generates the gradation compression characteristic g (H3) based on the reduced image of the image H3 held in the memory 54 and the image H3 read from the frame memory 3. The generated tone compression characteristics are sequentially output. In the period from time t6 to time t7, the gradation compression unit 6 performs gradation compression processing on the combined image H3 + L3 output from the combining unit 4 using the gradation compression characteristic g (H3).

また、時刻t5からt7の期間では、動き領域推定部7が合成対象の高露光画像H3と低露光画像L3とを用いて動き領域を判定し、判定結果A(L3−H3)を出力する。システム制御部8は、判定結果A(L3−H3)に基づいて、時刻t7からの合成で参照する制御信号S3を“1”に更新する。これは、現在撮影中の画像を解析した結果、静止領域が支配的であると判断できるので、次の合成処理の際も、高露光画像を先に撮影し、静止領域での階調圧縮特性を最適化した方が、好ましい画質となると考えられるためである。   In the period from time t5 to t7, the motion region estimation unit 7 determines a motion region using the high exposure image H3 and the low exposure image L3 to be combined, and outputs a determination result A (L3-H3). Based on the determination result A (L3-H3), the system control unit 8 updates the control signal S3 referred to in the synthesis from time t7 to “1”. This is because, as a result of analyzing the currently captured image, it can be determined that the still area is dominant, so even during the next compositing process, a high-exposure image is taken first, and the gradation compression characteristics in the still area This is because optimizing the image quality is considered to provide a preferable image quality.

以上のような、一連の撮像制御を行うことにより、露光量を変えた複数枚の画像を合成してダイナミックレンジが拡張された合成後の画像に適した階調圧縮特性で、階調圧縮を行って、映像信号を出力することができる。
また、撮影中の画像において動き部分と静止部分のいずれが支配的であるかの判定結果に基づいて階調圧縮特性の生成に用いる画像を決定することにより、撮影中の画像に適した階調圧縮処理を行うことができる。
また、上記実施形態の撮像装置100では、合成処理のためにフレームメモリ3にバッファリングされた画像を用いて、合成後の画像に対する階調圧縮特性を生成することができ、メモリアクセスによるシステム負荷の増大を回避できる。
By performing a series of imaging controls as described above, tone compression is performed with tone compression characteristics suitable for synthesized images that have been combined with multiple images with different exposure amounts and expanded in dynamic range. And video signals can be output.
Also, by determining the image to be used for generating the gradation compression characteristics based on the result of determining whether the moving part or the stationary part is dominant in the image being photographed, the gradation suitable for the image being photographed Compression processing can be performed.
Further, in the imaging apparatus 100 of the above-described embodiment, it is possible to generate a gradation compression characteristic for the combined image using an image buffered in the frame memory 3 for the combining process, and a system load due to memory access Can be avoided.

なお、上記実施形態では、合成対象の2つのフレームにおける高露光画像と低露光画像の順番を、撮像素子2からの出力順を入れ替えることで調整したがこれに限られるものではない。例えば、撮像素子2からの出力順を固定とし、フレームメモリ3に保持させるフレームを1フレームだけずらすことで対応することも可能である。   In the above embodiment, the order of the high-exposure image and the low-exposure image in the two frames to be combined is adjusted by switching the output order from the image sensor 2, but the present invention is not limited to this. For example, the order of output from the image sensor 2 can be fixed, and the frame held in the frame memory 3 can be shifted by one frame.

また、上記実施形態では、合成対象を2つのフレームの画像としたが、n個の画像を合成する(nは3以上の自然数)ようにすることも可能である。この場合、撮像素子2からはn種類の露光量の画像が連続的に出力され、合成部4は合成対象のn個のフレームの画像を合成してダイナミックレンジが拡張された合成画像を生成する。この場合、フレームメモリ3には、まずn個のフレームのうちの1フレーム目が保持される。その後、撮像素子2から2〜n−1フレーム目が出力される期間では、フレームメモリ3の内容は合成部4から出力される合成画像で順次上書きされていく。合成部4は、フレームメモリ3から読み出した1つ前のフレームまでの合成画像と撮像素子2から現在出力されている原フレームの画像とを合成してく。なお、動き画素判定部41では、1つ前のフレームまでの合成画像と原フレームの画像との対応する画素の画素値の差に基づいて動き部分の画素か静止部分の画素かを判定する。   In the above embodiment, the composition target is an image of two frames. However, it is possible to synthesize n images (n is a natural number of 3 or more). In this case, images of n types of exposure amounts are continuously output from the image sensor 2, and the combining unit 4 combines the images of n frames to be combined to generate a combined image with an expanded dynamic range. . In this case, the frame memory 3 first holds the first frame of the n frames. Thereafter, during a period in which the 2nd to (n-1) th frames are output from the image sensor 2, the contents of the frame memory 3 are sequentially overwritten with the combined image output from the combining unit 4. The combining unit 4 combines the combined image up to the previous frame read from the frame memory 3 and the original frame image currently output from the image sensor 2. The moving pixel determination unit 41 determines whether the pixel is a moving part or a still part based on the difference in pixel values of corresponding pixels between the synthesized image up to the previous frame and the image of the original frame.

階調圧縮特性生成部5は、n個のフレームのうちのn−1フレーム目までの合成画像を低解像度化した画像と、当該n−1フレーム目までの合成画像とを用いて階調圧縮特性を生成する。また、動き領域推定部7は、n−1フレーム目までの合成画像とnフレーム目の画像とから動きの生じた部分を推定し、システム制御部8はその推定の結果に基づいて、合成対象のn個のフレームにおける露光量の適用順序を入れ替える。例えば、動き領域が支配的であれば、n個の露光量のうち最低の露光量の画像がnフレーム目となるようにする。また、静止領域が支配的であれば、n個の露光量のうち最高の露光量の画像がnフレーム目となるようにする。このような構成により、動き領域が支配的な場合には1〜n−1フレーム目までの低露光量の画像による合成画像により階調圧縮特性が生成されることになり、撮影中の動画に対してより適切な階調圧縮が行なわれる。同様に、静止領域が支配的な場合には1〜n−1フレーム目までの高露光量の画像による合成画像により階調圧縮特性が生成されることになり、撮影中の動画に対してより適切な階調圧縮が行なわれる。   The tone compression characteristic generation unit 5 performs tone compression using an image obtained by reducing the resolution of a composite image up to the (n-1) th frame among n frames and a composite image up to the (n-1) th frame. Generate characteristics. In addition, the motion region estimation unit 7 estimates a portion where motion has occurred from the composite image up to the (n−1) th frame and the image of the nth frame, and the system control unit 8 performs the synthesis target based on the estimation result. The order of application of the exposure amounts in the n frames is switched. For example, if the motion region is dominant, the image with the lowest exposure amount among the n exposure amounts is set to the nth frame. If the still area is dominant, the image with the highest exposure amount among the n exposure amounts is set to the nth frame. With such a configuration, when the motion region is dominant, the tone compression characteristic is generated by the composite image of the low-exposure images from the 1st to (n-1) th frames. On the other hand, more appropriate gradation compression is performed. Similarly, when the still region is dominant, the tone compression characteristic is generated by the composite image of the high exposure amount images from the 1st to the (n-1) th frames, and more for the moving image being shot. Appropriate gradation compression is performed.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (15)

露光量の異なる2つの画像を合成してダイナミックレンジが拡張された画像を生成する撮像装置であって、
2種類の異なる露光量で撮影した画像を連続して出力する撮像手段と、
前記撮像手段から連続して出力された、合成対象の2つのフレームの画像を合成してダイナミックレンジが拡張された合成画像を生成する合成手段と、
前記2つのフレームの1フレーム目の画像を低解像度化した画像と、当該1フレーム目の画像とに基づいて階調圧縮特性を生成する生成手段と、
前記生成手段で生成された前記階調圧縮特性を用いて前記合成画像の階調を圧縮する階調圧縮手段と、
前記2つのフレームの画像から動きの生じた部分を推定する推定手段と、
前記推定手段による推定の結果に基づいて、前記合成対象の2つのフレームへの前記2種類の露光量の適用順序を入れ替える制御手段と、を備えることを特徴とする撮像装置。
An imaging apparatus that generates an image with an expanded dynamic range by combining two images having different exposure amounts,
Imaging means for continuously outputting images taken with two different exposure amounts;
Synthesis means for generating a synthesized image with an expanded dynamic range by synthesizing images of two frames to be synthesized, continuously output from the imaging means;
Generating means for generating gradation compression characteristics based on an image obtained by reducing the resolution of the first frame image of the two frames and the first frame image;
Gradation compression means for compressing the gradation of the composite image using the gradation compression characteristic generated by the generation means;
Estimating means for estimating a portion where motion has occurred from the images of the two frames;
An image pickup apparatus comprising: control means for switching the application order of the two types of exposure amounts to the two frames to be combined based on a result of estimation by the estimation means.
前記撮像手段から連続して出力された前記2つのフレームのうちの1フレーム目の画像をフレームメモリに保持する保持手段を更に備え、
前記合成手段は、前記撮像手段から出力される前記2つのフレームのうちの2フレーム目の画像と、前記フレームメモリに保持された画像とを合成する、ことを特徴とする請求項1に記載の撮像装置。
A holding unit for holding an image of a first frame of the two frames continuously output from the imaging unit in a frame memory;
2. The composition of claim 1, wherein the synthesizing unit synthesizes an image of a second frame of the two frames output from the imaging unit and an image held in the frame memory. Imaging device.
前記生成手段は、前記1フレーム目の画像が前記フレームメモリに保持されていく間に前記低解像度化した画像を生成して保持し、前記フレームメモリに保持された当該1フレーム目の画像と前記低解像度化した画像とに基づいて前記階調圧縮特性を生成する、ことを特徴とする請求項2に記載の撮像装置。   The generation unit generates and holds the reduced-resolution image while the first frame image is held in the frame memory, and the first frame image held in the frame memory and the The imaging apparatus according to claim 2, wherein the gradation compression characteristic is generated based on an image with a reduced resolution. 前記制御手段は、前記撮像手段によって用いられる前記2種類の露光量の順番を入れ替えることを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the control unit interchanges the order of the two types of exposure amounts used by the imaging unit. 前記制御手段は、前記保持手段が前記フレームメモリに保持させるフレームを1フレームだけずらすことを特徴とする請求項2または3に記載の撮像装置。   4. The imaging apparatus according to claim 2, wherein the control unit shifts a frame that the holding unit holds in the frame memory by one frame. 前記制御手段は、前記推定手段により推定された前記動きの生じた部分の大きさが所定値を超える場合に、露光量の小さい方の画像が前記合成対象の2つのフレームのうちの1フレーム目の画像となるように、1フレーム目と2フレーム目の画像の露光量を入れ替えることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。   When the size of the portion where the motion estimated by the estimation unit exceeds a predetermined value, the control unit determines that the image with the smaller exposure amount is the first frame of the two frames to be synthesized. The imaging apparatus according to claim 1, wherein the exposure amounts of the first frame image and the second frame image are switched so as to obtain an image of the first frame. 前記階調圧縮手段は、前記推定手段により推定された前記動きの生じた部分の大きさと移動量に基づいて、前記階調圧縮特性による階調圧縮の度合いを制御することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。   The gradation compression means controls a degree of gradation compression by the gradation compression characteristic based on a size and a movement amount of the portion where the motion is estimated estimated by the estimation means. The imaging device according to any one of 1 to 6. 前記階調圧縮手段は、
前記1フレーム目に前記2種類の露光量のうちの小さい方が割り当てられている場合には、前記動きの生じた部分の大きさと移動量の積が大きいほど前記階調圧縮特性による階調圧縮の度合いを強くし、
前記1フレーム目に前記2種類の露光量のうちの大きい方が割り当てられている場合には、前記動きの生じた部分の大きさと移動量の積が大きいほど前記階調圧縮特性による階調圧縮の度合いを弱くする、ことを特徴とする請求項7に記載の撮像装置。
The gradation compression means includes
When the smaller one of the two types of exposure amounts is assigned to the first frame, the gradation compression by the gradation compression characteristic is increased as the product of the size of the portion where the motion has occurred and the movement amount is larger. The degree of
When the larger one of the two types of exposure amounts is assigned to the first frame, gradation compression by the gradation compression characteristic is increased as the product of the size of the portion where the movement has occurred and the movement amount is larger. The image pickup apparatus according to claim 7, wherein the degree of is reduced.
前記合成手段は、
前記2つのフレームの対応する画素の画素値の差に基づいて動き部分の画素であるか静止部分の画素であるかを判定し、
前記2つのフレームの画像の両方を合成に用いることが可能な輝度値の領域において、前記動き部分の画素には前記2種類の露光量の画像のうちの低露光画像を、前記静止部分の画素には前記2種類の露光量の画像のうちの高露光画像を用いて、前記2つのフレームの画像を合成することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
The synthesis means includes
Determining whether the pixel is a moving part or a stationary part based on a difference in pixel values of corresponding pixels of the two frames;
In a luminance value area where both of the two frame images can be used for composition, the low-exposure image of the two types of exposure amount images is used as the moving part pixel, and the still part pixel. The imaging apparatus according to claim 1, wherein the images of the two frames are synthesized using a high-exposure image of the two types of exposure amount images.
露光量の異なるn個(nは3以上の自然数)の画像を合成してダイナミックレンジが拡張された画像を生成する撮像装置であって、
n種類の異なる露光量で撮影した画像を連続して出力する撮像手段と、
前記撮像手段から連続して出力された、合成対象のn個のフレームの画像を合成してダイナミックレンジが拡張された合成画像を生成する合成手段と、
前記n個のフレームのうちのn−1フレーム目までの合成画像を低解像度化した画像と、当該n−1フレーム目までの合成画像とに基づいて階調圧縮特性を生成する生成手段と、
前記生成手段で生成された前記階調圧縮特性を用いて、nフレーム目までの合成画像の階調を圧縮する階調圧縮手段と、
前記n−1フレーム目までの合成画像とnフレーム目の画像とから動きの生じた部分を推定する推定手段と、
前記推定手段による推定の結果に基づいて、前記合成対象のn個のフレームにおける露光量の適用順序を入れ替える制御手段と、を備えることを特徴とする撮像装置。
An imaging apparatus that generates an image with an expanded dynamic range by combining n images (n is a natural number of 3 or more) with different exposure amounts,
imaging means for continuously outputting images taken with n different exposure amounts;
A combining unit that continuously outputs images of n frames to be combined that are output from the imaging unit and generates a combined image with an expanded dynamic range;
Generating means for generating gradation compression characteristics based on an image obtained by reducing the resolution of a composite image up to the (n-1) th frame among the n frames, and a composite image up to the (n-1) th frame;
Gradation compression means for compressing the gradation of the composite image up to the nth frame using the gradation compression characteristic generated by the generation means;
Estimating means for estimating a portion where motion has occurred from the composite image up to the n-1th frame and the image of the nth frame;
An imaging apparatus comprising: a control unit that switches an application order of exposure amounts in the n frames to be synthesized based on a result of estimation by the estimation unit.
露光量の異なる2つの画像を合成してダイナミックレンジが拡張された画像を生成する画像処理装置であって、
2種類の異なる露光量で撮影した画像を連続して出力する撮像手段から出力された合成対象の2つのフレームの画像を合成してダイナミックレンジが拡張された合成画像を生成する合成手段と、
前記2つのフレームの1フレーム目の画像を低解像度化した画像と、当該1フレーム目の画像とに基づいて階調圧縮特性を生成する生成手段と、
前記生成手段で生成された前記階調圧縮特性を用いて前記合成画像の階調を圧縮する階調圧縮手段と、
前記2つのフレームの画像から動きの生じた部分を推定する推定手段と、
前記推定手段による推定の結果に基づいて、前記合成対象の2つのフレームへの前記2種類の露光量の適用順序を入れ替える制御手段と、を備えることを特徴とする画像処理装置。
An image processing apparatus for generating an image with an expanded dynamic range by combining two images having different exposure amounts,
A synthesizing unit that synthesizes images of two frames to be synthesized output from an imaging unit that continuously outputs images taken with two different exposure amounts, and generates a synthesized image with an expanded dynamic range;
Generating means for generating gradation compression characteristics based on an image obtained by reducing the resolution of the first frame image of the two frames and the first frame image;
Gradation compression means for compressing the gradation of the composite image using the gradation compression characteristic generated by the generation means;
Estimating means for estimating a portion where motion has occurred from the images of the two frames;
An image processing apparatus comprising: a control unit that switches an application order of the two types of exposure amounts to the two frames to be synthesized based on a result of estimation by the estimation unit.
露光量の異なるn個(nは3以上の自然数)の画像を合成してダイナミックレンジが拡張された画像を生成する画像処理装置であって、
n種類の異なる露光量で撮影した画像を連続して出力する撮像手段から出力された合成対象のn個のフレームの画像を合成してダイナミックレンジが拡張された合成画像を生成する合成手段と、
前記n個のフレームのうちのn−1フレーム目までの合成画像を低解像度化した画像と、当該n−1フレーム目までの合成画像とに基づいて階調圧縮特性を生成する生成手段と、
前記生成手段で生成された前記階調圧縮特性を用いて、nフレーム目までの合成画像の階調を圧縮する階調圧縮手段と、
前記n−1フレーム目までの合成画像とnフレーム目の画像とから動きの生じた部分を推定する推定手段と、
前記推定手段による推定の結果に基づいて、前記合成対象のn個のフレームにおける露光量の適用順序を入れ替える制御手段と、を備えることを特徴とする画像処理装置。
An image processing apparatus for generating an image with an expanded dynamic range by combining n images (n is a natural number of 3 or more) having different exposure amounts,
a synthesizing unit that synthesizes images of n frames to be synthesized output from an imaging unit that continuously outputs images taken with n different exposure amounts, and generates a synthesized image with an expanded dynamic range;
Generating means for generating gradation compression characteristics based on an image obtained by reducing the resolution of a composite image up to the (n-1) th frame among the n frames, and a composite image up to the (n-1) th frame;
Gradation compression means for compressing the gradation of the composite image up to the nth frame using the gradation compression characteristic generated by the generation means;
Estimating means for estimating a portion where motion has occurred from the composite image up to the n-1th frame and the image of the nth frame;
An image processing apparatus comprising: a control unit that switches an application order of exposure amounts in the n frames to be synthesized based on a result of estimation by the estimation unit.
露光量の異なる2つの画像を合成してダイナミックレンジが拡張された画像を生成するための、画像処理装置による画像処理方法であって、
合成手段が、2種類の異なる露光量で撮影した画像を連続して出力する撮像手段から出力された合成対象の2つのフレームの画像を合成してダイナミックレンジが拡張された合成画像を生成する工程と、
生成手段が、前記2つのフレームの1フレーム目の画像を低解像度化した画像と、当該1フレーム目の画像とに基づいて階調圧縮特性を生成する工程と、
階調圧縮手段が、前記生成する工程で生成された前記階調圧縮特性を用いて前記合成画像の階調を圧縮する工程と、
推定手段が、前記2つのフレームの画像から動きの生じた部分を推定する工程と、
制御手段が、前記推定する工程での推定の結果に基づいて、前記合成対象の2つのフレームへの前記2種類の露光量の適用順序を入れ替える工程と、を有することを特徴とする画像処理方法。
An image processing method by an image processing apparatus for generating an image with an expanded dynamic range by combining two images having different exposure amounts,
A step of generating a composite image in which the dynamic range is expanded by combining the images of two frames to be combined that are output from the image pickup unit that continuously outputs images captured with two different exposure amounts. When,
A step of generating gradation compression characteristics based on an image obtained by reducing the resolution of the first frame image of the two frames and the first frame image;
A step of compressing the gradation of the composite image using the gradation compression characteristic generated in the generating step;
Estimating means for estimating a portion where motion has occurred from the images of the two frames;
An image processing method comprising: a step of changing a sequence in which the two types of exposure amounts are applied to the two frames to be synthesized based on a result of the estimation in the estimating step. .
露光量の異なるn個(nは3以上の自然数)の画像を合成してダイナミックレンジが拡張された画像を生成するための、画像処理装置による画像処理方法であって、
合成手段が、n種類の異なる露光量で撮影した画像を連続して出力する撮像手段から出力された合成対象のn個のフレームの画像を合成してダイナミックレンジが拡張された合成画像を生成する工程と、
生成手段が、前記n個のフレームのうちのn−1フレーム目までの合成画像を低解像度化した画像と、当該n−1フレーム目までの合成画像とに基づいて階調圧縮特性を生成する工程と、
階調圧縮手段が、前記生成する工程で生成された前記階調圧縮特性を用いて、nフレーム目までの合成画像の階調を圧縮する工程と、
推定手段が、前記n−1フレーム目までの合成画像とnフレーム目の画像とから動きの生じた部分を推定する工程と、
制御手段が、前記推定する工程での推定の結果に基づいて、前記合成対象のn個のフレームにおける露光量の適用順序を入れ替える工程と、を有することを特徴とする画像処理方法。
An image processing method by an image processing apparatus for generating an image with an expanded dynamic range by combining n images (n is a natural number of 3 or more) having different exposure amounts,
A synthesizing unit synthesizes images of n frames to be synthesized output from an imaging unit that continuously outputs images taken with n different exposure amounts, and generates a synthesized image with an extended dynamic range. Process,
The generation unit generates a gradation compression characteristic based on an image obtained by reducing the resolution of the composite image up to the n-1 frame among the n frames and the composite image up to the n-1 frame. Process,
A step of compressing the gradation of the composite image up to the nth frame using the gradation compression characteristic generated in the generating step;
An estimating means for estimating a portion in which movement has occurred from the composite image up to the (n-1) th frame and the image of the nth frame;
And a step of changing the order of application of exposure amounts in the n frames to be synthesized based on a result of the estimation in the estimation step.
コンピュータに、請求項13または14に記載の画像処理方法の各工程を実行させるためのプログラム。   The program for making a computer perform each process of the image processing method of Claim 13 or 14.
JP2011209785A 2011-09-26 2011-09-26 Image processing apparatus and method, and imaging apparatus Expired - Fee Related JP5820213B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011209785A JP5820213B2 (en) 2011-09-26 2011-09-26 Image processing apparatus and method, and imaging apparatus
US13/617,772 US9049380B2 (en) 2011-09-26 2012-09-14 Image processing apparatus for generating an image having an expanded dynamic range and method thereof, and image capture apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011209785A JP5820213B2 (en) 2011-09-26 2011-09-26 Image processing apparatus and method, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2013074335A JP2013074335A (en) 2013-04-22
JP5820213B2 true JP5820213B2 (en) 2015-11-24

Family

ID=48478510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011209785A Expired - Fee Related JP5820213B2 (en) 2011-09-26 2011-09-26 Image processing apparatus and method, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5820213B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6494388B2 (en) * 2015-04-15 2019-04-03 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP6635722B2 (en) * 2015-09-01 2020-01-29 キヤノン株式会社 Image processing apparatus, image processing method, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4214457B2 (en) * 2003-01-09 2009-01-28 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2011010108A (en) * 2009-06-26 2011-01-13 Seiko Epson Corp Imaging control apparatus, imaging apparatus, and imaging control method

Also Published As

Publication number Publication date
JP2013074335A (en) 2013-04-22

Similar Documents

Publication Publication Date Title
US9049380B2 (en) Image processing apparatus for generating an image having an expanded dynamic range and method thereof, and image capture apparatus
US7956899B2 (en) Imaging device and image processing apparatus
US8009337B2 (en) Image display apparatus, method, and program
US8570334B2 (en) Image processing device capable of efficiently correcting image data and imaging apparatus capable of performing the same
JP5898466B2 (en) Imaging device, control method thereof, and program
JP4293174B2 (en) Imaging apparatus and image processing apparatus
US8072511B2 (en) Noise reduction processing apparatus, noise reduction processing method, and image sensing apparatus
US20160344954A1 (en) Image processing device that generates an image from pixels with different exposure times
CN104980652B (en) Image processing apparatus and image processing method
EP2523452A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
US20100265353A1 (en) Image Processing Device, Image Sensing Device And Image Reproduction Device
US8542298B2 (en) Image processing device and image processing method
US8861846B2 (en) Image processing apparatus, image processing method, and program for performing superimposition on raw image or full color image
JP2007201985A (en) Wide dynamic range imaging apparatus
US20120169900A1 (en) Image processing device and image processing method
JP6087612B2 (en) Image processing apparatus and image processing method
JP2009027604A (en) Noise reducer, and noise reducing method
JP5820213B2 (en) Image processing apparatus and method, and imaging apparatus
US11722788B2 (en) Image processing apparatus and method, and image capturing apparatus
JP5171287B2 (en) Data processing device
JP6152009B2 (en) Imaging apparatus, imaging method, program, and recording medium
JP5852385B2 (en) Imaging device
WO2014115522A1 (en) Frame rate converter, frame rate conversion method, and display device and image-capturing device provided with frame rate converter
JP4969371B2 (en) Imaging device
JP2015204489A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151002

R151 Written notification of patent or utility model registration

Ref document number: 5820213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees