JP5598106B2 - Image control apparatus, imaging apparatus, and image control program - Google Patents

Image control apparatus, imaging apparatus, and image control program Download PDF

Info

Publication number
JP5598106B2
JP5598106B2 JP2010135267A JP2010135267A JP5598106B2 JP 5598106 B2 JP5598106 B2 JP 5598106B2 JP 2010135267 A JP2010135267 A JP 2010135267A JP 2010135267 A JP2010135267 A JP 2010135267A JP 5598106 B2 JP5598106 B2 JP 5598106B2
Authority
JP
Japan
Prior art keywords
frame
evaluation value
color
region
image control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010135267A
Other languages
Japanese (ja)
Other versions
JP2012004665A (en
Inventor
将幸 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010135267A priority Critical patent/JP5598106B2/en
Publication of JP2012004665A publication Critical patent/JP2012004665A/en
Application granted granted Critical
Publication of JP5598106B2 publication Critical patent/JP5598106B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、パターン検出の結果に基づく処理のパラメータ制御に関する。   The present invention relates to parameter control of processing based on pattern detection results.

特許文献1に記載のホワイトバランス調整では、白検出に基づき算出された第1のホワイトバランス係数と、顔検出に基づき算出された第2のホワイトバラン係数とを重み付け合成することで最終的なホワイトバランス係数を算出しており、顔検出の信頼度が低いときほど第2のホワイトバランス係数に対する重みを抑えることで、顔の誤検出によるホワイトバランス調整の失敗を防いでいる。   In the white balance adjustment described in Patent Document 1, the final white is obtained by weighting and combining the first white balance coefficient calculated based on white detection and the second white balun coefficient calculated based on face detection. Since the balance coefficient is calculated and the weight of the second white balance coefficient is reduced as the reliability of face detection is lower, failure of white balance adjustment due to erroneous face detection is prevented.

特開2009-212853号公報JP 2009-212853

しかしながら顔検出の信頼度は、サングラスやマスクの着脱のみならず、顔の見え方や髪の状態の変化など、顔領域の僅かな変化によっても急激に低下することがあるため、顔検出の信頼度に依存した処理は、撮像シーンの構成が安定しているにも拘わらず結果が不安定となる虞がある。その一例として、顔検出を用いたホワイトバランス調整の場合、撮像シーンの照明色が安定しているにも拘わらず画像のホワイトバランスが不安定となる虞があった。   However, the reliability of face detection can be drastically reduced not only by the attachment and detachment of sunglasses and masks, but also by slight changes in the face area, such as changes in the appearance of the face and the state of the hair. The processing depending on the degree may cause the result to be unstable although the configuration of the imaging scene is stable. As an example, in the case of white balance adjustment using face detection, there is a possibility that the white balance of an image becomes unstable even though the illumination color of the imaging scene is stable.

そこで本発明は、パターン検出の結果に基づく処理のパラメータ制御を安定的に行うことのできる画像制御装置、撮像装置、画像制御プログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image control apparatus, an imaging apparatus, and an image control program capable of stably performing parameter control of processing based on a pattern detection result.

本発明の画像制御装置は、一連のカラー撮像画像の各フレームから、特定パターンの存在する特定領域を検出する検出手段と、前記各フレームの前記特定領域から、その特定領域の特徴量を示す第1領域評価値を抽出する第1領域評価値抽出手段と、前記特定領域の検出信頼度を示す第2領域評価値を、前記各フレームについて算出する第2領域評価値算出手段と、前記各フレームの全域から、そのフレームの撮像時の照明色を示す第1フレーム評価値を抽出する第1フレーム評価値抽出手段と、算出された前記第2領域評価値が閾値未満であった場合には、前記第2領域評価値の訂正を、それに対応する前記第1フレーム評価値のフレーム間相関度に基づき行う訂正手段と、前記各フレームの訂正後の前記第2領域評価値及び前記第1領域評価値に応じて、そのフレーム又はその後フレームに関する処理のパラメータを設定する設定手段とを備える。 The image control apparatus according to the present invention includes a detecting unit that detects a specific area where a specific pattern exists from each frame of a series of color captured images, and a feature amount of the specific area from the specific area of each frame. A first area evaluation value extracting means for extracting one area evaluation value; a second area evaluation value calculating means for calculating a second area evaluation value indicating the detection reliability of the specific area for each frame; and each frame. When the first frame evaluation value extracting means for extracting the first frame evaluation value indicating the illumination color at the time of imaging the frame from the whole area, and the calculated second area evaluation value is less than a threshold value, the correction of the second region evaluation value, and correcting means for performing, based on inter-frame correlation of the first frame evaluation value corresponding thereto, said second region evaluation value and the first region after correction for each frame Depending on the value, and setting means for setting the parameters of the process for that frame or subsequent frames.

本発明の撮像装置は、カラーの撮像素子と、前記撮像素子が取得した一連のカラー撮像画像の各フレームに基づき、そのフレーム又はその後フレームに関する処理のパラメータを設定する本発明の画像制御装置とを備える。   An image pickup apparatus according to the present invention includes a color image pickup device and an image control device according to the present invention that sets processing parameters relating to the frame or a subsequent frame based on each frame of a series of color image pickup images acquired by the image pickup device. Prepare.

本発明の画像制御プログラムは、一連のカラー撮像画像の各フレームから、特定パターンの存在する特定領域を検出する検出手順と、前記各フレームの前記特定領域から、その特定領域の特徴量を示す第1領域評価値を抽出する第1領域評価値抽出手順と、前記特定領域の検出信頼度を示す第2領域評価値を、前記各フレームについて算出する第2領域信頼度算出手順と、前記各フレームの全域から、そのフレームの撮像時の照明色を示す第1フレーム評価値を抽出する第1フレーム評価値抽出手順と、算出された前記第2領域評価値が閾値未満であった場合には、前記第2領域評価値の訂正を、それに対応する前記第1フレーム評価値のフレーム間相関度に基づき行う訂正手順と、前記各フレームの訂正後の前記第2領域評価値及び前記第1領域評価値に応じて、そのフレーム又はその後フレームに関する処理のパラメータを設定する設定手順とをコンピュータに実行させる。 The image control program of the present invention includes a detection procedure for detecting a specific area where a specific pattern exists from each frame of a series of color captured images, and a feature amount of the specific area from the specific area of each frame. A first region evaluation value extracting procedure for extracting one region evaluation value; a second region reliability calculating procedure for calculating a second region evaluation value indicating the detection reliability of the specific region for each frame; and each frame. When the first frame evaluation value extraction procedure for extracting the first frame evaluation value indicating the illumination color at the time of imaging the frame from the whole area, and the calculated second area evaluation value is less than a threshold, the correction of the second region evaluation value, a correction procedure performed on the basis of inter-frame correlation of the first frame evaluation value corresponding thereto, said second region evaluation value after correction of each frame and the first Depending on the region evaluation value, to execute the setting procedure for setting the parameters of the process for that frame or subsequent frames to the computer.

本発明によれば、パターン検出の結果に基づく処理のパラメータ制御を安定的に行うことのできる画像制御装置、撮像装置、画像制御プログラムが実現する。   According to the present invention, an image control apparatus, an imaging apparatus, and an image control program that can stably perform parameter control of processing based on a pattern detection result are realized.

電子カメラの構成図である。It is a block diagram of an electronic camera. 動画撮像時におけるCPU21の動作フローチャートである。It is an operation | movement flowchart of CPU21 at the time of video recording. ゲイン算出処理のサブルーチンである。This is a subroutine for gain calculation processing. 顔領域を説明する図である。It is a figure explaining a face area. 無彩色検出範囲を説明する図である。It is a figure explaining an achromatic color detection range. 色ヒストグラムを説明する図である。It is a figure explaining a color histogram. 照明色信頼度を説明する図である。It is a figure explaining illumination color reliability. フレーム評価値のフレーム間変化の表である。It is a table | surface of the change between frames of a frame evaluation value. 顔信頼度及び顔色のフレーム間変化のグラフである。It is a graph of the change between face reliability and face color. 顔信頼度V(t)の訂正方法の概念図である。It is a conceptual diagram of the correction method of face reliability V (t). 顔色の赤成分R(t)の訂正方法の概念図である。It is a conceptual diagram of the correction method of the red component R (t) of the face color.

[実施形態]
以下、本発明の実施形態として電子カメラを説明する。
[Embodiment]
Hereinafter, an electronic camera will be described as an embodiment of the present invention.

図1は、電子カメラの構成図である。図1に示すとおり電子カメラ1には、撮像素子11、信号処理回路12、バッファメモリ13、画像処理回路14、顔検出回路15A、ホワイトバランス演算回路15B、表示制御回路16、内部モニタ17、圧縮・伸張回路18、カードインタフェース19、CPU21、撮像回路22、入力器23、外部接続端子24などが備えられる。このうちバッファメモリ13、画像処理回路14、顔検出回路15A、ホワイトバランス演算回路15B、表示制御回路16、圧縮・伸張回路18、カードインタフェース19、CPU21は、共通のバスに接続されている。   FIG. 1 is a configuration diagram of an electronic camera. As shown in FIG. 1, the electronic camera 1 includes an image sensor 11, a signal processing circuit 12, a buffer memory 13, an image processing circuit 14, a face detection circuit 15A, a white balance calculation circuit 15B, a display control circuit 16, an internal monitor 17, and a compression. A decompression circuit 18, a card interface 19, a CPU 21, an imaging circuit 22, an input device 23, an external connection terminal 24, and the like are provided. Among these, the buffer memory 13, the image processing circuit 14, the face detection circuit 15A, the white balance calculation circuit 15B, the display control circuit 16, the compression / expansion circuit 18, the card interface 19, and the CPU 21 are connected to a common bus.

撮像素子11は、撮像レンズ2が形成した被写界像を撮像するカラー撮像素子であって、例えばベイヤ配列のカラーフィルタを有した単板式カラー撮像素子である。   The image pickup device 11 is a color image pickup device that picks up the object scene image formed by the image pickup lens 2 and is, for example, a single-plate color image pickup device having a Bayer array color filter.

信号処理回路12は、撮像素子11が撮像で取得したアナログ画像信号に対してアナログ信号処理及びA/D変換処理を順次に施し、ディジタル画像信号に変換する。   The signal processing circuit 12 sequentially performs analog signal processing and A / D conversion processing on the analog image signal acquired by the imaging device 11 through imaging, and converts the analog image signal into a digital image signal.

バッファメモリ13は、信号処理回路12から出力されるディジタル画像信号を順次に蓄積する。撮像素子11の1フレーム分の電荷読み出し期間に亘ってこの蓄積が行われると、バッファメモリ13には1フレーム分のディジタル画像データが蓄積されることになる。以下、1フレーム分のディジタル画像データを単に「画像」と称す。   The buffer memory 13 sequentially accumulates digital image signals output from the signal processing circuit 12. When this accumulation is performed over the charge reading period for one frame of the image sensor 11, digital image data for one frame is accumulated in the buffer memory 13. Hereinafter, digital image data for one frame is simply referred to as “image”.

画像処理回路14は、CPU21から指定された画像に対して、ホワイトバランス調整処理、色補間処理(所謂デベイヤ処理)、階調変換処理、KNEE処理などの一連の画像処理を施す。   The image processing circuit 14 performs a series of image processing such as white balance adjustment processing, color interpolation processing (so-called Debayer processing), gradation conversion processing, and KNEE processing on the image designated by the CPU 21.

顔検出回路15Aは、CPU21から指定された画像に対して顔検出処理を施す。顔検出処理は、予め学習した顔パターンと相関の高いパターンの存在領域(顔領域)を画像中から検出するものである。その際、顔検出回路15Aは、検出した顔領域のパターンと、予め学習した顔パターンとの相関度を、その検出の信頼度(以下、「顔信頼度」と称す。)として算出する。   The face detection circuit 15A performs a face detection process on the image designated by the CPU 21. In the face detection process, an existing area (face area) of a pattern having a high correlation with a previously learned face pattern is detected from the image. At that time, the face detection circuit 15A calculates the degree of correlation between the detected face area pattern and the previously learned face pattern as the reliability of the detection (hereinafter referred to as “face reliability”).

ホワイトバランス演算回路15Bは、CPU21から指定された画像に基づき、その画像の撮像時に被写界を照明していた光源の色(照明色)を推定する。その際、ホワイトバランス演算回路15Bは、その画像の中から特定の色範囲に属する画素群を見出し、その画素群の色ヒストグラムを作成する(詳細は後述)。   Based on the image designated by the CPU 21, the white balance calculation circuit 15B estimates the color (illumination color) of the light source that illuminates the object scene when the image is captured. At that time, the white balance calculation circuit 15B finds a pixel group belonging to a specific color range from the image, and creates a color histogram of the pixel group (details will be described later).

表示制御回路16は、表示用メモリを有しており、その表示用メモリに書き込まれた画像を内部モニタ17へ送出することにより、内部モニタ17上へ画像を表示する。なお、外部接続端子24に外部モニタが接続されている期間には、表示制御回路16による画像の送出先は、内部モニタ17ではなく外部モニタとなる。但し、以下では簡単のため、外部接続端子24に外部モニタは接続されていないものと仮定する。   The display control circuit 16 has a display memory, and displays an image on the internal monitor 17 by sending the image written in the display memory to the internal monitor 17. Note that during the period in which an external monitor is connected to the external connection terminal 24, the display destination of the image by the display control circuit 16 is not the internal monitor 17 but the external monitor. However, for simplicity, it is assumed that an external monitor is not connected to the external connection terminal 24.

内部モニタ17は、電子カメラ1の背面などに設けられ、電子カメラ1で取得された画像をユーザが確認する際などに使用されるモニタである。このモニタは、例えばLCDパネルなどで構成される。   The internal monitor 17 is a monitor that is provided on the back surface of the electronic camera 1 and used when a user confirms an image acquired by the electronic camera 1. This monitor is composed of, for example, an LCD panel.

外部接続端子24は、表示制御回路16を外部モニタへ接続するための端子である。外部接続端子24は、例えば、USBポートなどで構成される。   The external connection terminal 24 is a terminal for connecting the display control circuit 16 to an external monitor. The external connection terminal 24 is configured by, for example, a USB port.

圧縮・伸張回路18は、バッファメモリ13に格納された画像又は画像群に対し、データ圧縮処理を施す。また、圧縮・伸張回路18は、データ圧縮済みの画像又は画像群(画像ファイル又は動画像ファイル)に対し、データ伸張処理を施すこともできる。   The compression / decompression circuit 18 performs data compression processing on the image or the image group stored in the buffer memory 13. The compression / decompression circuit 18 can also perform data decompression processing on an image or image group (image file or moving image file) that has been subjected to data compression.

カードインタフェース19は、データ圧縮済みの画像(画像ファイル又は動画像ファイル)を、電子カメラ1のカードスロットに装着中のカードメモリ20へ書き込んだり、そのカードメモリ20に書き込まれている画像ファイル又は動画像ファイルを読み込んだりする。なお、カードメモリ20は、可搬の記憶媒体である。   The card interface 19 writes the image-compressed image (image file or moving image file) to the card memory 20 that is installed in the card slot of the electronic camera 1, or the image file or moving image written in the card memory 20. Read image files. The card memory 20 is a portable storage medium.

撮像回路22は、撮像レンズ2に対して駆動信号を与えることにより、撮像レンズ2の焦点距離(ズーム位置)、撮像レンズ2の合焦距離、撮像レンズ2の絞り値などを調節する。また、撮像回路22は、撮像素子11及び信号処理回路12に対して駆動信号を与えることにより、両者の駆動タイミングを制御する。また、撮像回路22は、撮像素子11の1フレーム当たりの電荷蓄積時間を制御する。なお、電子カメラ1のシャッター速度は、撮像素子11の電荷蓄積時間と不図示のメカシャッタの開放期間との組み合わせによって設定できるが、撮像素子11の電荷蓄積時間のみによって設定することもできる。   The imaging circuit 22 adjusts the focal length (zoom position) of the imaging lens 2, the focusing distance of the imaging lens 2, the aperture value of the imaging lens 2, and the like by giving a drive signal to the imaging lens 2. Further, the imaging circuit 22 controls the drive timing of both by providing a drive signal to the image sensor 11 and the signal processing circuit 12. The imaging circuit 22 controls the charge accumulation time per frame of the imaging device 11. Note that the shutter speed of the electronic camera 1 can be set by a combination of the charge accumulation time of the image sensor 11 and the opening period of a mechanical shutter (not shown), but can also be set only by the charge accumulation time of the image sensor 11.

CPU21は、入力器23を介して入力されるユーザの指示と、CPU21の内部メモリ(ROM)に予め書き込まれたファームウエアとに従い、以上の各部を制御する。なお、CPU21のファームウエアは、電子カメラ1に搭載された不図示の通信回路(公知のネットワーク端子など)を介して適宜に更新される。   The CPU 21 controls each of the above units in accordance with a user instruction input via the input device 23 and firmware written in advance in the internal memory (ROM) of the CPU 21. The firmware of the CPU 21 is appropriately updated via a communication circuit (not shown) (known network terminal or the like) mounted on the electronic camera 1.

入力器23は、電子カメラ1の上部に設けられたレリーズボタンや、電子カメラ1の背面に設けられたマルチセレクターなどの操作部材である。ユーザは、この入力器23を介して動画撮像又は静止画撮像の開始指示を入力することができる。また、ユーザは、動画撮像中に、この入力器23を介して動画撮像の終了指示を入力することができる。   The input device 23 is an operation member such as a release button provided on the top of the electronic camera 1 or a multi-selector provided on the back of the electronic camera 1. The user can input an instruction to start moving image capturing or still image capturing via the input device 23. Further, the user can input an instruction to end moving image capturing via the input device 23 during moving image capturing.

図2は、動画撮像時におけるCPU21の動作フローチャートである。なお、この動作フローチャートは、動画撮像の開始指示が入力された時点で開始される。以下、図2の各ステップを順に説明する。   FIG. 2 is an operation flowchart of the CPU 21 during moving image capturing. Note that this operation flowchart is started when a moving image imaging start instruction is input. Hereafter, each step of FIG. 2 is demonstrated in order.

ステップS10:CPU21は、電子カメラ1の撮像パラメータ(絞り値、シャッター速度、合焦距離、ズーム位置など)、電子カメラ1の画像処理パラメータ(ホワイトバランス調整処理のホワイトバランスゲイン、階調変換処理の階調変換カーブ、KNEE処理のKNEE特性カーブなど)を、予め決められた組み合わせに設定してから、動画撮像用のモード(ドラフトモード)で撮像素子11の駆動を開始するよう撮像回路22へ指示を出す。撮像回路22は、撮像素子11を例えば1/30秒間に1フレームずつ駆動し、バッファメモリ13へ1/30秒に1フレームずつ画像を蓄積する。   Step S10: The CPU 21 captures imaging parameters of the electronic camera 1 (aperture value, shutter speed, focus distance, zoom position, etc.), image processing parameters of the electronic camera 1 (white balance gain of white balance adjustment processing, and gradation conversion processing). Instruct the image pickup circuit 22 to start driving the image pickup device 11 in a moving image pickup mode (draft mode) after setting a gradation conversion curve, a KNEE characteristic curve of KNEE processing, etc.) to a predetermined combination. Put out. The imaging circuit 22 drives the imaging device 11 frame by frame for 1/30 seconds, for example, and stores an image in the buffer memory 13 frame by frame every 1/30 seconds.

なお、ここでは説明を簡単にするため、これらの画像処理パラメータ及び撮像パラメータのうちホワイトバランスゲインのみが動画撮像中にフィードバック制御され、その他の画像処理パラメータ及び撮像パラメータは固定されるものと仮定する。以降のステップS11〜S16の処理が、フィードバック制御の1ループに相当する。このループは、バッファメモリ13へ最新フレームの画像が蓄積される毎に開始され、後フレームの画像が蓄積される前に完了する(ここではフィードバック制御の1ループを1フレーム周期毎に実行する場合を例に挙げるが、フィードバック制御の1ループを複数フレーム周期毎に実行してもよいことは言うまでもない。)。   For simplicity of explanation, it is assumed that only the white balance gain among these image processing parameters and imaging parameters is feedback-controlled during moving image imaging, and other image processing parameters and imaging parameters are fixed. . The subsequent steps S11 to S16 correspond to one loop of feedback control. This loop is started each time an image of the latest frame is accumulated in the buffer memory 13 and is completed before an image of a subsequent frame is accumulated (in this case, one loop of feedback control is executed every frame period) However, it goes without saying that one loop of feedback control may be executed every plural frame periods.

ステップS11:CPU21は、バッファメモリ13に蓄積された最新フレームの画像を読み込む。   Step S11: The CPU 21 reads the latest frame image stored in the buffer memory 13.

ステップS12:CPU21は、最新フレームの画像に対して画像処理を施すよう画像処理回路14へ指示を出す。画像処理回路14は、その最新フレームの画像に対して前述した一連の画像処理(ホワイトバランス調整処理、色補間処理、階調変換処理、KNEE処理など)を施す。なお、初回のループのホワイトバランス調整処理で使用されるホワイトバランスゲインは、最初のステップS10で設定されたホワイトバランスゲインであり、2回目以降のループで使用されるホワイトバランスゲインは、前のループで更新されたホワイトバランスゲインである。   Step S12: The CPU 21 instructs the image processing circuit 14 to perform image processing on the image of the latest frame. The image processing circuit 14 performs the above-described series of image processing (white balance adjustment processing, color interpolation processing, gradation conversion processing, KNEE processing, etc.) on the image of the latest frame. The white balance gain used in the white balance adjustment process of the first loop is the white balance gain set in the first step S10, and the white balance gain used in the second and subsequent loops is the previous loop. The white balance gain updated in.

ステップS13:CPU21は、画像処理後の最新フレームの画像を表示制御回路16の表示用メモリへ書き込むことにより、その画像を表示する。よって、ユーザは、電子カメラ1が取得する画像をリアルタイムで確認することができる。   Step S13: The CPU 21 displays the image by writing the image of the latest frame after image processing into the display memory of the display control circuit 16. Therefore, the user can check the image acquired by the electronic camera 1 in real time.

ステップS14:CPU21は、ゲイン算出処理のサブルーチンを呼び出して実行する。このサブルーチンは、最新フレームの画像に基づき、後フレームの画像に適用すべきホワイトバランスゲインを算出するためのサブルーチンである。このサブルーチンの詳細は、後述する。   Step S14: The CPU 21 calls and executes a subroutine for gain calculation processing. This subroutine is a subroutine for calculating the white balance gain to be applied to the image of the subsequent frame based on the image of the latest frame. Details of this subroutine will be described later.

ステップS15:CPU21は、直前のステップS14で算出したホワイトバランスゲインを画像処理回路14に対して設定する。これにより、画像処理回路14が使用すべきホワイトバランスゲインが更新される。更新後のホワイトバランスゲインは、後フレームの画像へ適用される。   Step S15: The CPU 21 sets the white balance gain calculated in the immediately preceding step S14 for the image processing circuit 14. Thereby, the white balance gain to be used by the image processing circuit 14 is updated. The updated white balance gain is applied to the image of the subsequent frame.

ステップS16:CPU21は、ユーザから動画撮像の終了指示が入力されたか否かを判別し、入力されていない場合はステップS11へ戻り、入力された場合にはステップS17へ移行する。   Step S16: The CPU 21 determines whether or not an instruction to end moving image capturing is input from the user. If not input, the process returns to step S11. If input, the process proceeds to step S17.

ステップS17:CPU21は、現時点までにバッファメモリ13へ蓄積された各フレームの画像(画像処理後の画像)に対してデータ圧縮処理を施すよう圧縮・伸張回路18へ指示する。圧縮・伸張回路18は、各フレームの画像をデータ圧縮することにより、MPEGファイルなどの動画像ファイルを作成する。CPU21は、カードインタフェース19を介してその動画像ファイルをカードメモリ20へ書き込み、フローを終了する。これによって、各フレームの画像が1つの動画像ファイルとして保存される。   Step S17: The CPU 21 instructs the compression / decompression circuit 18 to perform data compression processing on the image of each frame (image after image processing) accumulated in the buffer memory 13 up to the present time. The compression / decompression circuit 18 creates a moving image file such as an MPEG file by compressing data of each frame image. The CPU 21 writes the moving image file to the card memory 20 via the card interface 19 and ends the flow. Thereby, the image of each frame is stored as one moving image file.

なお、図2では、ステップS12〜S13の処理と、ステップS14〜S15の処理とが並列処理として表現されているが、ループの所要時間が許容範囲内(ここではフレーム周期以下)に収まるのであれば、ステップS12〜S13の処理と、ステップS14〜S15の処理とを直列処理としても構わない。   In FIG. 2, the processing of steps S12 to S13 and the processing of steps S14 to S15 are expressed as parallel processing, but the required time of the loop may be within an allowable range (here, the frame period or less). For example, the processes in steps S12 to S13 and the processes in steps S14 to S15 may be performed in series.

図3は、ゲイン算出処理のサブルーチンである。以下、図3の各ステップを順に説明する。   FIG. 3 is a subroutine of gain calculation processing. Hereafter, each step of FIG. 3 is demonstrated in order.

ステップS14−1:CPU21は、最新フレームの画像に対して顔検出処理を施すよう顔検出回路15Aへ指示を出す。顔検出回路15Aは、その画像に対して顔検出処理を施し、その顔検出処理で検出した顔領域(例えば図4に示す矩形領域)と、顔検出処理の過程で算出した顔信頼度とをCPU21へ出力する。但し、顔信頼度が閾値未満であった場合(例えば顔信頼度が20%以下であった場合)、顔検出回路15Aは、顔領域を出力する代わりに、顔領域が検出できなかった旨を示す情報(エラー情報)を出力する。   Step S14-1: The CPU 21 instructs the face detection circuit 15A to perform face detection processing on the latest frame image. The face detection circuit 15A performs a face detection process on the image, and obtains a face area (for example, a rectangular area shown in FIG. 4) detected by the face detection process and the face reliability calculated in the face detection process. It outputs to CPU21. However, when the face reliability is less than the threshold (for example, when the face reliability is 20% or less), the face detection circuit 15A indicates that the face area could not be detected instead of outputting the face area. The information shown (error information) is output.

ステップS14−2:CPU21は、顔検出回路15Aから出力された顔信頼度を最新フレームの顔信頼度とみなす。また、CPU21は、顔検出回路15Aから出力された顔領域の平均色度を最新フレームの顔色として算出する。但し、CPU21は、顔検出回路15Aからエラー情報が出力された場合には、その算出を行うことなく最新フレームの顔色を予め決められた値(エラー値)に設定する。また、CPU21は、本ステップで取得した顔信頼度及び顔色を、後のループ(及び2つ後のループ)でも使用できるよう、最新フレームのフレーム番号と共に記憶する。   Step S14-2: The CPU 21 regards the face reliability output from the face detection circuit 15A as the face reliability of the latest frame. Further, the CPU 21 calculates the average chromaticity of the face area output from the face detection circuit 15A as the face color of the latest frame. However, when error information is output from the face detection circuit 15A, the CPU 21 sets the face color of the latest frame to a predetermined value (error value) without performing the calculation. Further, the CPU 21 stores the face reliability and the face color acquired in this step together with the frame number of the latest frame so that it can be used in the later loop (and the loop after the second).

ステップS14−3:CPU21は、最新フレームの画像の全域に対して照明色推定処理を施すようホワイトバランス演算回路15Bへ指示を与える。ホワイトバランス演算回路15Bは、その画像の各画素を色度座標(図5)上へ写像し、その色度座標上に予め設定された無彩色検出範囲(例えば図5に示す複数の閉曲線内)へ写像される画素群を見出すと、その画素群の色ヒストグラム(図6)を作成する。但し、その作成の際、ホワイトバランス演算回路15Bは、画素の輝度が高いほど画素の個数(頻度)へ大きな重みを付与し、高輝度な輝度の画素の頻度を多めに計上する。   Step S14-3: The CPU 21 instructs the white balance calculation circuit 15B to perform the illumination color estimation process on the entire area of the image of the latest frame. The white balance calculation circuit 15B maps each pixel of the image onto chromaticity coordinates (FIG. 5), and an achromatic color detection range preset on the chromaticity coordinates (for example, within a plurality of closed curves shown in FIG. 5). When a pixel group to be mapped is found, a color histogram (FIG. 6) of the pixel group is created. However, at the time of creation, the white balance calculation circuit 15B gives a larger weight to the number (frequency) of pixels as the luminance of the pixels is higher, and counts the frequency of pixels having higher luminance.

なお、無彩色検出範囲は、図5に示すとおり光源種毎に設定されており、例えば、電球の色範囲、晴天の色範囲、晴天日陰の色範囲、蛍光灯の色範囲、水銀灯の色範囲の5種類の色範囲がある。この場合、色ヒストグラムの頻度は、図6に示すとおり、それら5種類の色範囲別に計上される。   The achromatic color detection range is set for each light source type as shown in FIG. 5. For example, the color range of a light bulb, the color range of a clear sky, the color range of a clear sky, the color range of a fluorescent lamp, the color range of a mercury lamp There are five color ranges. In this case, the frequency of the color histogram is calculated for each of these five color ranges as shown in FIG.

そして、ホワイトバランス演算回路15Bは、作成した色ヒストグラム上で頻度が最大となった色範囲(図6では晴天の色範囲)を見出し、その色範囲に写像された画素群の色度座標上の輝度重心を照明色として推定すると共に、その色範囲の種別に応じて、その推定の信頼度(以下、「照明色信頼度」と称す。)を算出すると、作成した色ヒストグラムと、推定した照明色と、算出した照明色信頼度とを、CPU21へ出力する。   Then, the white balance calculation circuit 15B finds the color range (sunny sky color range in FIG. 6) having the highest frequency on the created color histogram, and on the chromaticity coordinates of the pixel group mapped to the color range. When the luminance center of gravity is estimated as the illumination color and the reliability of the estimation (hereinafter referred to as “illumination color reliability”) is calculated according to the type of the color range, the created color histogram and the estimated illumination are calculated. The color and the calculated illumination color reliability are output to the CPU 21.

ここで、照明色信頼度は、図7に示すとおり、推定した照明色の属する色範囲によって一義的に決まるものであり、黒体放射軌跡に近い色範囲ほど高い値が割り当てられ、中でも特に晴天の色範囲に対しては、最高値が割り当てられている。よって、推定した照明色の属する色範囲が晴天の色範囲であった場合は、照明色信頼度は最高値(100%)となる。   Here, as shown in FIG. 7, the illumination color reliability is uniquely determined by the color range to which the estimated illumination color belongs, and a color range closer to the black body radiation locus is assigned a higher value. The highest value is assigned to the color range. Therefore, when the estimated color range to which the illumination color belongs is a clear sky color range, the illumination color reliability is the highest value (100%).

ステップS14−4:CPU21は、ホワイトバランス演算回路15Bから出力された照明色信頼度を、最新フレームの照明色信頼度とみなす。また、CPU21は、ホワイトバランス演算回路15Bから出力された色ヒストグラム(図6)を、その前回値(前回のループで出力された色ヒストグラム)と比較することにより、その色ヒストグラムのフレーム間相関度を算出する。なお、このフレーム間相関度は、最新フレームの照明色の前フレームを基準とした安定度を示している。よって、以下、CPU21は、このフレーム間相関度を、最新フレームの照明色安定度として扱う。但し、初回のループの本ステップでは、色ヒストグラムの前回値が存在しないため、CPU21は、相関度の算出を行わずに、最新フレームの照明色安定度を最高値(100%)に設定する。   Step S14-4: The CPU 21 regards the illumination color reliability output from the white balance calculation circuit 15B as the illumination color reliability of the latest frame. Further, the CPU 21 compares the color histogram (FIG. 6) output from the white balance calculation circuit 15B with the previous value (color histogram output in the previous loop), and thereby the inter-frame correlation degree of the color histogram. Is calculated. Note that this inter-frame correlation indicates the stability based on the previous frame of the illumination color of the latest frame. Therefore, hereinafter, the CPU 21 treats this inter-frame correlation as the illumination color stability of the latest frame. However, in this step of the first loop, since the previous value of the color histogram does not exist, the CPU 21 sets the illumination color stability of the latest frame to the highest value (100%) without calculating the correlation.

そして、CPU21は、本ステップで取得した照明色信頼度及び照明色安定度を、後のループ(及び2つ後のループ)でも使用できるよう、最新フレームのフレーム番号と共に記憶する。   And CPU21 memorize | stores the illumination color reliability and illumination color stability which were acquired at this step with the frame number of the newest frame so that it can be used also in a subsequent loop (and a loop after 2).

なお、本ステップにおいて、色ヒストグラムのフレーム間相関度は、例えば、最新フレームの色ヒストグラムと前フレームの色ヒストグラムとの色範囲毎の頻度の差分の積算値などから求めることができる。或いは、ピアソンの積率相関係数、ニューロやサポートベクターマシンなどの学習マシンなどを利用して求めることもできる。   In this step, the inter-frame correlation degree of the color histogram can be obtained from, for example, the integrated value of the frequency difference for each color range between the color histogram of the latest frame and the color histogram of the previous frame. Alternatively, it can be obtained by using a Pearson product-moment correlation coefficient, a learning machine such as a neuro or a support vector machine, or the like.

以上のステップS14−1〜S14−4によると、最新フレームの顔領域の評価値(領域評価値)として、最新フレームの顔信頼度と顔色とが取得され、最新フレームの全域の評価値(フレーム評価値)として、最新フレームの照明色信頼度と照明色安定度とが取得されたことになる。   According to the above steps S14-1 to S14-4, the face reliability and face color of the latest frame are acquired as the evaluation values (area evaluation values) of the face area of the latest frame, and the evaluation values (frames) of the entire area of the latest frame are obtained. As an evaluation value, the illumination color reliability and illumination color stability of the latest frame are acquired.

以下、これら評価値のフレーム間変化が図8に示すとおりであったと仮定する。また、このうち、第tフレームが最新フレームであり、第(t−1)フレームが前フレームであり、第(t−2)フレームが2つ前のフレームであり、第(t+1)フレームが後フレームであると仮定する。   Hereinafter, it is assumed that the change between these evaluation values is as shown in FIG. Of these, the t-th frame is the latest frame, the (t-1) frame is the previous frame, the (t-2) frame is the previous frame, and the (t + 1) frame is the subsequent frame. Assume that it is a frame.

また、領域評価値(顔信頼度及び顔色)のフレーム間変化をグラフにすると、図9に示すとおりである。なお、実際の顔色は複数の色成分(赤成分、緑成分、青成分)を有するが、図9(及び後述する図11)では、複数の色成分を代表する1成分のみ(赤成分のみ)を示した。   Further, when the change in the region evaluation value (face reliability and face color) between frames is graphed, it is as shown in FIG. The actual face color has a plurality of color components (red component, green component, blue component), but in FIG. 9 (and FIG. 11 described later), only one component representing the plurality of color components (only the red component). showed that.

ステップS14−5:CPU21は、最新フレーム(ここでは第tフレーム)の顔信頼度が閾値未満(例えば20%以下)であるか否かを判別し、閾値未満であった場合には最新フレーム(ここでは第tフレーム)の領域評価値(顔信頼度及び顔色)を訂正する必要があるとみなしてステップS14−6へ移行し、閾値以上であった場合には最新フレーム(ここでは第tフレーム)の顔信頼度及び顔色を訂正する必要は無いとみなしてステップS15−7へ移行する。なお、図9に示した例では、最新フレーム(ここでは第tフレーム)の顔信頼度が閾値未満であるため、最新フレーム(ここでは第tフレーム)の領域評価値(顔信頼度及び顔色)を訂正する必要があるとみなされる。   Step S14-5: The CPU 21 determines whether or not the face reliability of the latest frame (here, the t-th frame) is less than a threshold value (for example, 20% or less). Here, it is considered that the area evaluation value (face reliability and face color) of the t-th frame needs to be corrected, and the process proceeds to step S14-6. ) And the process proceeds to step S15-7. In the example shown in FIG. 9, since the face reliability of the latest frame (here, the t-th frame) is less than the threshold value, the area evaluation value (face reliability and face color) of the latest frame (here, the t-th frame). Is deemed necessary to be corrected.

ステップS14−6:CPU21は、図10に示すとおり、最新フレーム(ここでは第tフレーム)の顔信頼度V(t)を、少なくとも、前フレーム(ここでは第(t−1)フレーム)の顔信頼度V(t−1)と、最新フレーム(ここでは第tフレーム)の照明色安定度S(t)とに基づき訂正する。この訂正は、簡単には、最新フレーム(第tフレーム)の照明色安定度S(t)が高い場合には、最新フレーム(ここでは第tフレーム)の顔信頼度V(t)を、前フレーム(ここでは第(t−1)フレーム)の顔信頼度V(t−1)と近い値に置換するものである。   Step S14-6: As shown in FIG. 10, the CPU 21 sets the face reliability V (t) of the latest frame (here, t-th frame) to at least the face of the previous frame (here, (t-1) frame). Correction is performed based on the reliability V (t−1) and the illumination color stability S (t) of the latest frame (here, the t-th frame). This correction is simply performed when the illumination color stability S (t) of the latest frame (t-th frame) is high, and the face reliability V (t) of the latest frame (here, the t-th frame) is The value is replaced with a value close to the face reliability V (t−1) of the frame (here, the (t−1) th frame).

また、CPU21は、図11に示すとおり、最新フレーム(ここでは第tフレーム)の顔色の赤成分R(t)を、少なくとも、前フレーム(ここでは第(t−1)フレーム)の顔色の赤成分R(t−1)と、最新フレーム(ここでは第tフレーム)の照明色安定度S(t)とに基づき訂正する。この訂正は、簡単には、最新フレーム(第tフレーム)の照明色安定度S(t)が高い場合には、最新フレーム(ここでは第tフレーム)の顔色の赤成分R(t)を、前フレーム(ここでは第(t−1)フレーム)の顔色の赤成分R(t−1)と近い色に置換するものである。   Further, as shown in FIG. 11, the CPU 21 uses at least the red component R (t) of the face color of the latest frame (here, the t-th frame) as the red color of the face color of the previous frame (here, the (t-1) frame). Correction is performed based on the component R (t−1) and the illumination color stability S (t) of the latest frame (here, the t-th frame). This correction is simply performed when the illumination color stability S (t) of the latest frame (t-th frame) is high, the red component R (t) of the facial color of the latest frame (here, the t-th frame), The face color is replaced with a color close to the red component R (t-1) of the face color (here, the (t-1) th frame).

また、CPU21は、最新フレーム(ここでは第tフレーム)の顔色の緑成分G(t)についても、赤成分R(t)を訂正したのと同様、少なくとも、前フレーム(ここでは第(t−1)フレーム)の顔色の緑成分G(t−1)と、最新フレーム(ここでは第tフレーム)の照明色安定度S(t)とに基づき訂正する。また、CPU21は、最新フレーム(ここでは第tフレーム)の顔色の青成分B(t)についても、赤成分R(t)を訂正したのと同様、少なくとも、前フレーム(ここでは第(t−1)フレーム)の顔色の青成分B(t−1)と、最新フレーム(ここでは第tフレーム)の照明色安定度S(t)とに基づき訂正する。   Further, the CPU 21 at least in the face component green component G (t) of the latest frame (here, the t-th frame) is at least the previous frame (here, the (t −)-th frame) as in the case where the red component R (t) is corrected. 1) Correction is performed based on the green component G (t−1) of the face color of the frame) and the illumination color stability S (t) of the latest frame (here, the t-th frame). Further, the CPU 21 also at least the previous frame (here, the (t−) th) in the same manner as the correction of the red component R (t) with respect to the blue component B (t) of the face color of the latest frame (here, the t-th frame). 1) Correction is performed based on the blue component B (t−1) of the face color of the frame) and the illumination color stability S (t) of the latest frame (here, the t-th frame).

但し、以上の訂正方法はあくまでも基本的な訂正方法である。以下、顔信頼度V(t)の具体的な訂正方法と、顔色の赤成分R(t)の具体的な訂正方法とを順に説明する。なお、顔色の緑成分G(t)の具体的な訂正方法と、青成分B(t)の具体的な訂正方法については、赤成分R(t)の具体的な訂正方法と同様であるため、説明を省略する。   However, the above correction method is only a basic correction method. Hereinafter, a specific correction method for the face reliability V (t) and a specific correction method for the red component R (t) of the face color will be described in order. Note that the specific correction method for the green component G (t) of the facial color and the specific correction method for the blue component B (t) are the same as the specific correction method for the red component R (t). The description is omitted.

先ず、顔信頼度V(t)の詳細な訂正方法は、以下の手順(a)〜(d)を含む(但し、初回及び2回目のループでは手順(c)は省略される。)。   First, the detailed correction method of the face reliability V (t) includes the following procedures (a) to (d) (however, the procedure (c) is omitted in the first and second loops).

(a)訂正の前処理として、最新フレーム(ここでは第tフレーム)の照明色安定度S(t)を、最新フレーム(ここでは第tフレーム)の照明色信頼度V’(t)により補正する。ここで、補正後の照明色安定度S(t)は、補正前の照明色安定度S(t)に対して照明色信頼度V’(t)を乗算したものである。よって、照明色信頼度V’(t)が100%であった場合には、照明色安定度S(t)は補正前後で不変となり、照明色信頼度V’(t)が低いときほど補正後の照明色安定度S(t)は低くなる。   (A) As pre-correction processing, the illumination color stability S (t) of the latest frame (here, the t-th frame) is corrected by the illumination color reliability V ′ (t) of the latest frame (here, the t-th frame). To do. Here, the corrected illumination color stability S (t) is obtained by multiplying the illumination color stability S (t) before correction by the illumination color reliability V ′ (t). Therefore, when the illumination color reliability V ′ (t) is 100%, the illumination color stability S (t) is unchanged before and after the correction, and the correction is performed as the illumination color reliability V ′ (t) is lower. The later illumination color stability S (t) becomes low.

(b)補正後の照明色安定度S(t)を、後のループ(及び2つ後のループ)でも使用できるよう、最新フレームのフレーム番号と共に記憶する。   (B) The corrected illumination color stability S (t) is stored together with the frame number of the latest frame so that it can also be used in the later loop (and the next two loops).

(c)図10に点線で示すとおり、前フレーム(ここでは第(t−1)フレーム)の顔信頼度V(t−1)と、前々フレーム(ここでは第(t−2)フレーム)の顔信頼度V(t−2)と、最新フレーム(ここでは第tフレーム)の補正後の照明色安定度S(t)と、前フレーム(ここでは第(t−1)フレーム)の補正後の照明色安定度S(t−1)と、前々フレーム(ここでは第(t−2)フレーム)の補正後の照明色安定度S(t−2)とを、以下の式(1)に当てはめることにより、訂正後の顔信頼度V(t)を生成する。   (C) As shown by a dotted line in FIG. 10, the face reliability V (t−1) of the previous frame (here, the (t−1) frame) and the previous frame (here, the (t−2) frame). Correction of the face color reliability V (t-2), the illumination color stability S (t) after correction of the latest frame (here, the t-th frame), and the previous frame (here, the (t-1) frame). The subsequent illumination color stability S (t−1) and the illumination color stability S (t−2) after correction of the previous frame (here, the (t−2) th frame) are expressed by the following equation (1). ) To generate a corrected face reliability V (t).

Figure 0005598106
なお、式(1)の上段で算出しているVは、顔信頼度V(t−2)、V(t−1)の重み付け平均値であって、その重み付け平均の重みとして、照明色安定度S(t−2)、S(t−1)が使用されている。そして、式(1)の下段では、その平均値V(t)と、顔信頼度V(t−1)と、照明色安定度S(t)とに基づき、顔信頼度V(t)が見積もられる。
Figure 0005598106
Note that V 0 calculated in the upper part of Expression (1) is a weighted average value of the face reliability V (t−2) and V (t−1), and the illumination color is used as the weighted average weight. Stability S (t-2) and S (t-1) are used. In the lower part of the equation (1), the face reliability V (t) is based on the average value V 0 (t), the face reliability V (t−1), and the illumination color stability S (t). Is estimated.

(d)訂正後の顔信頼度V(t)を、後のループ(及び2つ後のループ)でも使用できるよう、最新フレームのフレーム番号と共に記憶する。   (D) The corrected face reliability V (t) is stored together with the frame number of the latest frame so that it can be used in the later loop (and the loop after the second).

次に、顔色の赤成分R(t)の詳細な訂正方法は、以下の手順(a’)〜(d’)を含む(但し、初回及び2回目のループでは手順(c’)は省略される。)。   Next, the detailed correction method of the facial color red component R (t) includes the following procedures (a ′) to (d ′) (however, the procedure (c ′) is omitted in the first and second loops). )

(a’)訂正の前処理として、最新フレーム(ここでは第tフレーム)の照明色安定度S(t)を、最新フレーム(ここでは第tフレーム)の照明色信頼度V’(t)により補正する。なお、上述した手順(a)が実行済みであれば、この手順(a’)は省略される。   (A ′) As correction pre-processing, the illumination color stability S (t) of the latest frame (here, the t-th frame) is determined by the illumination color reliability V ′ (t) of the latest frame (here, the t-th frame). to correct. Note that if the procedure (a) described above has been executed, the procedure (a ′) is omitted.

(b’)補正後の照明色安定度S(t)を、後のループ(及び2つ後のループ)でも使用できるよう、最新フレームのフレーム番号と共に記憶する。なお、上述した手順(b)が実行済みであれば、この手順(b’)は省略される。   (B ′) The corrected illumination color stability S (t) is stored together with the frame number of the latest frame so that it can also be used in the later loop (and the next two loops). Note that if the procedure (b) described above has been executed, the procedure (b ′) is omitted.

(c’)図10に点線で示すとおり、前フレーム(ここでは第(t−1)フレーム)の赤成分R(t−1)と、前々フレーム(ここでは第(t−2)フレーム)の赤成分R(t−2)と、最新フレーム(ここでは第tフレーム)の補正後の照明色安定度S(t)と、前フレーム(ここでは第(t−1)フレーム)の補正後の照明色安定度S(t−1)と、前々フレーム(ここでは第(t−2)フレーム)の補正後の照明色安定度S(t−2)とを、以下の式(2)に当てはめることにより、訂正後の赤成分R(t)を生成する。   (C ′) As indicated by the dotted line in FIG. 10, the red component R (t−1) of the previous frame (here, the (t−1) frame) and the previous frame (here, the (t−2) frame) Red component R (t−2), the illumination color stability S (t) after correction of the latest frame (here, t-th frame), and after correction of the previous frame (here, (t−1) frame) The illumination color stability S (t−1) of the first frame and the illumination color stability S (t−2) after correction of the previous frame (here, the (t−2) th frame) are expressed by the following equation (2): Is applied to the corrected red component R (t).

Figure 0005598106
なお、式(2)の上段で算出しているRは、赤成分R(t−2)、R(t−1)の重み付け平均値であって、その重み付け平均の重みとして、照明色安定度S(t−2)、S(t−1)が使用されている。そして、式(2)の下段では、その平均値R(t)と、赤成分R(t−1)と、照明色安定度S(t)とに基づき、赤成分R(t)が見積もられる。
Figure 0005598106
Note that R 0 calculated in the upper part of Expression (2) is a weighted average value of the red components R (t−2) and R (t−1), and the illumination color stability is used as the weight of the weighted average. Degrees S (t-2) and S (t-1) are used. In the lower part of the equation (2), the red component R (t) is estimated based on the average value R 0 (t), the red component R (t−1), and the illumination color stability S (t). It is.

(d’)訂正後の赤成分R(t)を、後のループ(及び2つ後のループ)でも使用できるよう、最新フレームのフレーム番号と共に記憶する。   (D ′) The corrected red component R (t) is stored together with the frame number of the latest frame so that it can be used in the later loop (and the next two loops).

ステップS14−7:CPU21は、最新フレームの訂正後の顔色(R(t)、G(t)、B(t))に基づき、その顔色(R(t)、G(t)、B(t))を特定の肌色(照明による色付きの無い肌色)にするためのホワイトバランスゲイン(Gr、Gg、Gb)を算出し、そのホワイトバランスゲイン(Gr、Gg、Gb)を、第1の暫定ホワイトバランスゲイン(Gr、Gg、Gb)とする。 Step S14-7: The CPU 21 determines the face color (R (t), G (t), B (t) based on the face color (R (t), G (t), B (t)) after correction of the latest frame. )) Is calculated as a white balance gain (Gr, Gg, Gb) for a specific skin color (uncolored skin color due to illumination), and the white balance gain (Gr, Gg, Gb) is calculated as the first provisional white. The balance gain (Gr 1 , Gg 1 , Gb 1 ) is assumed.

ステップS14−8:CPU21は、直前のステップS14−1で検出された顔領域に基づき、最新フレームの画像から非顔領域を抽出すると共に、その非顔領域に対して照明色推定処理を施すようホワイトバランス演算回路15Bへ指示を与える。ホワイトバランス制御回路15Bは、ステップS14−4において画像全域に対して施した照明色推定処理と同様の手順で、非顔領域に対して照明色推定処理を施すことにより、非顔領域に関する照明色を推定し、推定した照明色をCPU21へ出力する。   Step S14-8: The CPU 21 extracts a non-face area from the latest frame image based on the face area detected in the immediately preceding step S14-1, and performs illumination color estimation processing on the non-face area. An instruction is given to the white balance arithmetic circuit 15B. The white balance control circuit 15B performs the illumination color estimation process on the non-face area in the same procedure as the illumination color estimation process performed on the entire image in step S14-4, thereby illuminating colors related to the non-face area. And the estimated illumination color is output to the CPU 21.

但し、直前のステップS14−1にて顔領域の代わりにエラー情報が出力された場合には、CPU21は、直前のステップS14−4にて推定された照明色(すなわち画像全域に関する照明色)を、非顔領域に関する照明色の代わりに使用する。   However, if error information is output instead of the face area in the immediately preceding step S14-1, the CPU 21 uses the illumination color estimated in the immediately preceding step S14-4 (that is, the illumination color for the entire image). Use instead of illumination color for non-facial areas.

ステップS14−9:CPU21は、非顔領域に関する照明色に基づき、その非顔領域中の無彩色物体を無彩色にするためのホワイトバランスゲイン(Gr、Gg、Gb)を算出し、そのホワイトバランスゲイン(Gr、Gg、Gb)を、第2の暫定ホワイトバランスゲイン(Gr、Gg、Gb)とする。 Step S14-9: The CPU 21 calculates a white balance gain (Gr, Gg, Gb) for making the achromatic object in the non-face area achromatic based on the illumination color related to the non-face area, and the white balance. The gains (Gr, Gg, Gb) are set as second provisional white balance gains (Gr 2 , Gg 2 , Gb 2 ).

ステップS14−10:CPU21は、第1の暫定ホワイトバランスゲイン(Gr、Gg、Gb)と、第2の暫定ホワイトバランスゲイン(Gr、Gg、Gb)とを重み付け平均することにより確定ホワイトバランスゲイン(Gr、Gg、Gb)を算出すると、その確定ホワイトバランスゲイン(Gr、Gg、Gb)を後フレームの画像へ適用すべきホワイトバランスゲインとみなし、図2のフローへ復帰する。 Step S14-10: The CPU 21 performs weighted averaging of the first provisional white balance gain (Gr 1 , Gg 1 , Gb 1 ) and the second provisional white balance gain (Gr 2 , Gg 2 , Gb 2 ). When the determined white balance gain (Gr 3 , Gg 3 , Gb 3 ) is calculated by the above, the determined white balance gain (Gr 3 , Gg 3 , Gb 3 ) is regarded as the white balance gain to be applied to the image of the subsequent frame. Return to the flow of 2.

但し、本ステップのCPU21は、第1の暫定ホワイトバランスゲイン(Gr、Gg、Gb)へ付与すべき重みAと、第2の暫定ホワイトバランスゲイン(Gr、Gg、Gb)へ付与すべき重みAとを、訂正後の顔信頼度V(t)に基づき、A:A=V(t):(100%−V(t))に設定する。したがって、顔信頼度V(t)が高いときほど、第1の暫定ホワイトバランスゲイン(Gr、Gg、Gb)の影響度を高くすることができる。 However, the CPU 21 in this step determines the weight A 1 to be given to the first provisional white balance gain (Gr 1 , Gg 1 , Gb 1 ) and the second provisional white balance gain (Gr 2 , Gg 2 , Gb 2). a weight a 2 to be applied to), based on the correction after the face reliability V (t), a 1: set to a 2 = V (t) :( 100% -V (t)). Therefore, the higher the face reliability V (t), the higher the influence degree of the first provisional white balance gain (Gr 1 , Gg 1 , Gb 1 ).

以上、本実施形態の電子カメラ1は、動画撮像中に取得される最新フレームに基づき、後フレームのホワイトバランスゲインを更新する。更新後のホワイトバランスゲインは、顔領域に基づくホワイトバランスゲイン(第1の暫定ホワイトバランスゲイン)と、非顔領域に基づくホワイトバランスゲイン(第2の暫定ホワイトバランスゲイン)とを、顔信頼度で重み付け平均したもの(確定ホワイトバランスゲイン)である。   As described above, the electronic camera 1 according to the present embodiment updates the white balance gain of the subsequent frame based on the latest frame acquired during moving image capturing. The updated white balance gain includes a white balance gain based on the face area (first provisional white balance gain) and a white balance gain based on the non-face area (second provisional white balance gain) based on the face reliability. Weighted average (determined white balance gain).

但し、顔信頼度は、上述したとおり、顔の見え方や髪の状態の変化など、顔領域の僅かな変化によっても急激に低下することがあるため、不安定である。   However, as described above, the face reliability is unstable because it may be drastically lowered by a slight change in the face area such as a change in the appearance of the face or a change in the hair state.

そこで、本実施形態の電子カメラ1は、動画撮像中に顔信頼度が閾値未満となった場合には、照明色のフレーム間の安定度(照明色安定度)に基づき顔信頼度及び顔色を訂正することで、それら顔信頼度及び顔色のフレーム間の安定度を向上させる。したがって、たとえ顔領域に何らかの変化が生じたとしても、シーンの照明色に変化が生じていない限りは、確定ホワイトバランスゲインを安定させ、画面の色のちらつきを抑えることができる。   In view of this, the electronic camera 1 of the present embodiment, when the face reliability is less than the threshold during moving image capturing, determines the face reliability and the face color based on the stability between the illumination color frames (illumination color stability). By correcting, the face reliability and the stability between frames of the face color are improved. Therefore, even if some change occurs in the face area, as long as there is no change in the illumination color of the scene, the confirmed white balance gain can be stabilized and the flickering of the screen color can be suppressed.

また、本実施形態の電子カメラ1は、訂正を行う際に、照明色安定度を照明色信頼度により補正するので、顔信頼度の訂正を、より高精度に行うことができる。   In addition, since the electronic camera 1 according to the present embodiment corrects the illumination color stability with the illumination color reliability when performing the correction, the face reliability can be corrected with higher accuracy.

また、本実施形態の電子カメラ1は、フレーム評価値として、フレーム全域の画素群のうち無彩色検出範囲に属する画素群の色ヒストグラムを使用するので、照明色推定処理の推定結果(照明色)を使用するよりも、照明色色安定を、より高精度に求めることができる。   Moreover, since the electronic camera 1 of this embodiment uses the color histogram of the pixel group which belongs to an achromatic color detection range among the pixel groups of the whole frame as a frame evaluation value, the estimation result (illumination color) of the illumination color estimation process It is possible to obtain illumination color color stability with higher accuracy than using the above.

[実施形態の補足]
なお、上述した実施形態のCPU21は、1フレームから検出する顔領域の個数を1としたが、2以上の複数であってもよい。その場合、CPU21は、最新フレームから検出された複数の顔領域の平均色を最新フレームの顔色として算出し、最新フレームから検出された複数の顔領域の顔信頼度の平均値を最新フレームの顔信頼度として算出すればよい。
[Supplement of embodiment]
In the above-described embodiment, the number of face areas detected from one frame is 1, but the number may be two or more. In this case, the CPU 21 calculates the average color of the plurality of face areas detected from the latest frame as the face color of the latest frame, and calculates the average value of the face reliability of the plurality of face areas detected from the latest frame. What is necessary is just to calculate as reliability.

また、図3では、ステップS14−1の処理と、ステップS14−3の処理とが並列処理として表現されているが、前述したループの所用時間が許容範囲内(ここではフレーム周期以下)に収まるのであれば、ステップS14−1の処理と、ステップS14−3の処理とを直列処理としても構わない。   In FIG. 3, the processing in step S14-1 and the processing in step S14-3 are expressed as parallel processing, but the required time of the loop described above falls within an allowable range (here, the frame period or less). In this case, the processing in step S14-1 and the processing in step S14-3 may be serial processing.

また、上述した実施形態のゲイン算出処理(図3)では、フレーム全域に関する照明色推定処理を(ステップS14−3)実行した後に、非顔領域に関する照明色推定処理(ステップS14−8)を実行したが、演算負荷を軽減するため、非顔領域に関する照明色推定処理を省略してもよい。その場合、第2の暫定ホワイトバランスゲインの算出(ステップS14−9)では、非顔領域の照明色を使用する代わりに、フレーム全域の照明色(すなわちステップS14−3で算出したもの)をそのまま使用すればよい。   In the gain calculation process (FIG. 3) of the above-described embodiment, the illumination color estimation process (step S14-8) for the non-face area is performed after the illumination color estimation process for the entire frame (step S14-3). However, in order to reduce the calculation load, the illumination color estimation process for the non-face area may be omitted. In that case, in the second provisional white balance gain calculation (step S14-9), instead of using the illumination color of the non-face area, the illumination color of the entire frame (that is, the one calculated in step S14-3) is used as it is. Use it.

また、上述した実施形態のCPU21は、ゲイン算出処理(図3)に使用する画像を、最新フレームの画像それ自体としたが、演算負荷を軽減するため、ゲイン算出処理に使用する画像を、最新フレームの画像の代わりに、その最新フレームの画像のサイズ縮小版としてもよい。   Further, although the CPU 21 of the above-described embodiment uses the image used for the gain calculation process (FIG. 3) as the latest frame image itself, the image used for the gain calculation process is updated to the latest frame image itself. Instead of the frame image, a size-reduced version of the latest frame image may be used.

また、上述した実施形態では、記録用の動画撮像を説明したが、静止画撮像前の確認用の動画撮像や、記録用の動画撮像前の確認用の動画撮像にも、本発明は同様に適用可能である。   In the above-described embodiment, recording moving image capturing has been described. However, the present invention is similarly applied to confirmation moving image capturing before still image capturing and confirmation moving image capturing before recording moving image capturing. Applicable.

また、上述した実施形態では、動画撮像中のホワイトバランスゲインの制御を説明したが、動画撮像中に顔領域に応じて行われる他の制御、例えば、動画撮像中の階調変換カーブの制御、動画撮像中のKNEE特性カーブの制御、動画撮像中の露出制御、動画撮像中の合焦距離制御などにも本発明は同様に適用可能である。また、同時に2以上の制御を行い、それらの制御の各々に対して本発明を適用してもよい。   Further, in the above-described embodiment, the control of the white balance gain during the moving image capturing has been described. However, other control performed according to the face area during the moving image capturing, for example, the control of the gradation conversion curve during the moving image capturing, The present invention can be similarly applied to control of the KNEE characteristic curve during moving image capturing, exposure control during moving image capturing, and focusing distance control during moving image capturing. Also, two or more controls may be performed simultaneously, and the present invention may be applied to each of those controls.

因みに、本発明を露出制御に適用する場合は、上述した電子カメラ1を例えば次のとおり変形すればよい。   Incidentally, when the present invention is applied to exposure control, the electronic camera 1 described above may be modified as follows, for example.

すなわち、電子カメラ1の変形例は、動画撮像中に取得される最新フレームに基づき、後フレームの撮像時の露出(絞り値とシャッター速度との組み合わせ)を更新する。更新後の露出値は、顔領域を適正露出にするための露出値(第1の暫定露出値)と、非顔領域を適正露出にするための露出値(第2の暫定露出値)とを、顔信頼度で重み付け平均したもの(確定露出値)である。そして、この変形例は、動画撮像中に顔信頼度が閾値未満となった場合には、照明色のフレーム間安定度(照明色安定度)により顔信頼度及び顔色を訂正することで、それら顔信頼度及び顔色のフレーム間の安定度を向上させる。したがって、たとえ顔領域に何らかの変化が生じたとしても、シーンの照明色に変化が生じていない限りは、露出を安定させ、画面の明るさのちらつきを抑えることができる。   That is, the modification of the electronic camera 1 updates the exposure (combination of the aperture value and the shutter speed) at the time of imaging of the subsequent frame based on the latest frame acquired during moving image imaging. The updated exposure value includes an exposure value for making the face area appropriate exposure (first provisional exposure value) and an exposure value for making the non-face area appropriate exposure (second provisional exposure value). A weighted average of the face reliability (determined exposure value). In this modification, when the face reliability becomes less than the threshold during moving image capturing, the face reliability and the face color are corrected by the inter-frame stability of the illumination color (illumination color stability). Improve face reliability and stability between faces of frames. Therefore, even if some change occurs in the face area, as long as there is no change in the illumination color of the scene, it is possible to stabilize the exposure and suppress flickering of the brightness of the screen.

また、制御対象となるパラメータを、ホワイトバランスゲイン、階調変換カーブ、KNEE特性カーブなどの画像処理パラメータとする場合には、最新フレームに基づき後フレームのパラメータを更新するのではなく、最新フレームに基づき同フレームのパラメータを更新することとしてもよい(但し、その場合、パラメータの設定に要する時間は、バッファメモリに画像が蓄積されてから画像が表示されるまでの期間より短いものとする。)。これによって、制御の応答速度を高めることができる。   In addition, when the parameter to be controlled is an image processing parameter such as a white balance gain, a gradation conversion curve, or a KNEE characteristic curve, the parameter of the subsequent frame is not updated based on the latest frame, but is updated to the latest frame. The parameter of the same frame may be updated based on this (however, in this case, the time required for setting the parameter is shorter than the period from when the image is stored in the buffer memory until the image is displayed). . Thereby, the response speed of control can be increased.

一方、制御対象となるパラメータを、露出、合焦距離などの撮像パラメータとする場合には、最新フレームに基づき同フレームのパラメータを更新することはできないので、制御の応答速度を高めるには、前述した撮像素子11とは別の撮像素子を少なくとも1つ追加すると共に、撮像素子11による最新フレームの撮像パラメータを、追加した撮像素子が出力する最新フレームに基づき更新すればよい。因みに、一眼レフレックスカメラは、メインの撮像素子の他に、分割測光素子と呼ばれるサブの撮像素子を有していることが多いので、これを利用すればよい。   On the other hand, when the parameter to be controlled is an imaging parameter such as exposure and focus distance, the parameter of the same frame cannot be updated based on the latest frame. At least one image sensor different from the image sensor 11 is added, and the imaging parameters of the latest frame by the image sensor 11 may be updated based on the latest frame output by the added image sensor. Incidentally, since a single-lens reflex camera often has a sub-image sensor called a split photometric element in addition to the main image sensor, this may be used.

また、制御対象となるパラメータを、ホワイトバランスゲイン、階調変換カーブ、KNEE特性カーブなどの画像処理パラメータとする場合には、パラメータの設定を動画撮像中のリアルタイム処理として行う代わりに、動画撮像後、動画像ファイル(又は一連のRAW画像)に対するバッチ処理として行ってもよい。   In addition, when the parameter to be controlled is an image processing parameter such as a white balance gain, a gradation conversion curve, or a KNEE characteristic curve, the parameter setting is not performed as real-time processing during moving image capturing, but after moving image capturing. Alternatively, it may be performed as a batch process for a moving image file (or a series of RAW images).

なお、このようなバッチ処理は、電子カメラ1とは別体で設けられた画像処理装置、例えば、電子フォトフレーム、プリンタ、コンピュータなどに実行させることも可能である。また、そのバッチ処理を汎用コンピュータに実行させる場合は、そのバッチ処理のコンピュータプログラムが通信網又は記憶媒体を介してコンピュータへインストールされることになる。   Note that such batch processing can be executed by an image processing apparatus provided separately from the electronic camera 1, such as an electronic photo frame, a printer, or a computer. When the general-purpose computer executes the batch processing, the computer program for the batch processing is installed in the computer via a communication network or a storage medium.

また、上述した実施形態では、制御の対象となる複数の画像が、動画撮像で得られた一連の画像であったが、静止画像の連写撮像で得られた一連の画像や、タイムラプス撮像で得られた一連の画像や、ユーザが断続的に撮像した一連の画像であってもよい。なお、一連の画像の撮像間隔が不均等である場合や、一連の画像の撮像間隔がユーザの任意に設定される場合には、前述した最新フレームの照明色信頼度に対して、前フレームと最新フレームとのフレーム間隔を反映させることで(例えば間隔が短いほど大きな係数を乗算することで)、照明色信頼度による照明色安定度の補正精度を、さらに向上させることができる。   In the above-described embodiment, the plurality of images to be controlled are a series of images obtained by moving image capturing. However, a series of images obtained by continuous shooting of still images and time lapse imaging are used. It may be a series of images obtained or a series of images taken intermittently by the user. In addition, when the imaging interval of a series of images is uneven or when the imaging interval of a series of images is arbitrarily set by the user, the previous frame is compared with the illumination color reliability of the latest frame described above. By reflecting the frame interval with the latest frame (for example, by multiplying a larger coefficient as the interval is shorter), it is possible to further improve the correction accuracy of the illumination color stability based on the illumination color reliability.

1…電子カメラ、11…撮像素子、12…信号処理回路、13…バッファメモリ、14…画像処理回路、15A…顔検出回路、15B…ホワイトバランス演算回路、16…表示制御回路、17…内部モニタ、18…圧縮・伸張回路、19…カードインタフェース、21…CPU、22…撮像回路、23…入力器、24…外部接続端子。   DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 11 ... Imaging device, 12 ... Signal processing circuit, 13 ... Buffer memory, 14 ... Image processing circuit, 15A ... Face detection circuit, 15B ... White balance arithmetic circuit, 16 ... Display control circuit, 17 ... Internal monitor , 18 ... compression / decompression circuit, 19 ... card interface, 21 ... CPU, 22 ... imaging circuit, 23 ... input device, 24 ... external connection terminal.

Claims (10)

一連のカラー撮像画像の各フレームから、特定パターンの存在する特定領域を検出する検出手段と、
前記各フレームの前記特定領域から、その特定領域の特徴量を示す第1領域評価値を抽出する第1領域評価値抽出手段と、
前記特定領域の検出信頼度を示す第2領域評価値を、前記各フレームについて算出する第2領域評価値算出手段と、
前記各フレームの全域から、そのフレームの撮像時の照明色を示す第1フレーム評価値を抽出する第1フレーム評価値抽出手段と、
算出された前記第2領域評価値が閾値未満であった場合には、前記第2領域評価値の訂正を、それに対応する前記第1フレーム評価値のフレーム間相関度に基づき行う訂正手段と、
前記各フレームの訂正後の前記第2領域評価値及び前記第1領域評価値に応じて、そのフレーム又はその後フレームに関する処理のパラメータを設定する設定手段と
を備えたことを特徴とする画像制御装置。
Detecting means for detecting a specific area where a specific pattern exists from each frame of a series of color captured images;
First area evaluation value extracting means for extracting a first area evaluation value indicating a feature amount of the specific area from the specific area of each frame;
A second region evaluation value calculating means for calculating a second region evaluation value indicating the detection reliability of the specific region for each frame;
First frame evaluation value extraction means for extracting a first frame evaluation value indicating the illumination color at the time of imaging of the frame from the entire area of each frame;
If the calculated second region evaluation value is less than the threshold value, the correction of the second region evaluation value, and correcting means for performing, based on inter-frame correlation of the first frame evaluation value corresponding thereto,
An image control apparatus comprising: setting means for setting processing parameters relating to the frame or a subsequent frame in accordance with the second area evaluation value and the first area evaluation value after correction of each frame. .
請求項に記載の画像制御装置において、
前記訂正手段は、
算出された前記第2領域信頼度が閾値未満であった場合には、その第2領域評価値を訂正すると共に、それに対応する前記第1領域評価値をも訂正する
ことを特徴とする画像制御装置。
The image control apparatus according to claim 1 .
The correction means includes
When the calculated second region reliability is less than a threshold, the second region evaluation value is corrected, and the corresponding first region evaluation value is also corrected. apparatus.
請求項又は請求項に記載の画像制御装置において、
前記第1フレーム評価値の抽出信頼度を示す第2フレーム評価値を、前記各フレームについて算出する第2フレーム評価値算出手段を更に備え、
前記訂正手段は、
前記訂正に先立ち、前記第1フレーム評価値のフレーム間相関度を、それに対応する前記第2フレーム評価値により補正する
ことを特徴とする画像制御装置。
The image control apparatus according to claim 1 or 2 ,
A second frame evaluation value calculating means for calculating a second frame evaluation value indicating the extraction reliability of the first frame evaluation value for each frame;
The correction means includes
Prior to the correction, the inter-frame correlation of the first frame evaluation value is corrected by the corresponding second frame evaluation value.
請求項1〜請求項の何れか一項に記載の画像制御装置において、
前記第1フレーム評価値は、
前記全域の画素群のうち所定の色範囲に属する画素群の色ヒストグラムである
ことを特徴とする画像制御装置。
In the image control apparatus according to any one of claims 1 to 3 ,
The first frame evaluation value is:
The image control apparatus according to claim 1, wherein the image control device is a color histogram of a pixel group belonging to a predetermined color range among the pixel groups of the entire region.
請求項1〜請求項の何れか一項に記載の画像制御装置において、
前記特定領域は、
顔領域である
ことを特徴とする画像制御装置。
In the image control device according to any one of claims 1 to 4 ,
The specific area is
An image control device characterized by being a face region.
請求項1〜請求項の何れか一項に記載の画像制御装置において、
前記パラメータは、
画像処理パラメータである
ことを特徴とする画像制御装置。
In the image control device according to any one of claims 1 to 5 ,
The parameter is
An image control apparatus characterized by being an image processing parameter.
請求項1〜請求項の何れか一項に記載の画像制御装置において、
前記パラメータは、
撮像パラメータである
ことを特徴とする画像制御装置。
In the image control device according to any one of claims 1 to 5 ,
The parameter is
An image control apparatus characterized by being an imaging parameter.
カラーの撮像素子と、
前記撮像素子が取得した一連のカラー撮像画像の各フレームに基づき、そのフレーム又はその後フレームに関する処理のパラメータを設定する請求項1〜請求項の何れか一項に記載の画像制御装置と、
を備えたことを特徴とする撮像装置。
A color image sensor;
The image control device according to any one of claims 1 to 7 , which sets processing parameters related to the frame or a subsequent frame based on each frame of a series of color captured images acquired by the imaging device;
An imaging apparatus comprising:
請求項に記載の撮像装置において、
前記画像制御装置は、
前記パラメータの設定を、前記一連のカラー撮像画像の取得期間中にリアルタイムで行う
ことを特徴とする撮像装置。
The imaging device according to claim 8 ,
The image control device includes:
The imaging apparatus is characterized in that the parameter setting is performed in real time during an acquisition period of the series of color captured images.
一連のカラー撮像画像の各フレームから、特定パターンの存在する特定領域を検出する検出手順と、
前記各フレームの前記特定領域から、その特定領域の特徴量を示す第1領域評価値を抽出する第1領域評価値抽出手順と、
前記特定領域の検出信頼度を示す第2領域評価値を、前記各フレームについて算出する第2領域信頼度算出手順と、
前記各フレームの全域から、そのフレームの撮像時の照明色を示す第1フレーム評価値を抽出する第1フレーム評価値抽出手順と、
算出された前記第2領域評価値が閾値未満であった場合には、前記第2領域評価値の訂を、それに対応する前記第1フレーム評価値のフレーム間相関度に基づき行う訂正手順と、
前記各フレームの訂正後の前記第2領域評価値及び前記第1領域評価値に応じて、そのフレーム又はその後フレームに関する処理のパラメータを設定する設定手順と、
をコンピュータに実行させることを特徴とする画像制御プログラム。
From each frame of a series of color captured images, a detection procedure for detecting a specific area where a specific pattern exists,
A first region evaluation value extraction procedure for extracting a first region evaluation value indicating a feature amount of the specific region from the specific region of each frame;
A second region reliability calculation procedure for calculating a second region evaluation value indicating the detection reliability of the specific region for each frame;
A first frame evaluation value extraction procedure for extracting a first frame evaluation value indicating an illumination color at the time of imaging of the frame from the entire area of each frame;
If the calculated second region evaluation value is less than the threshold value, the corrections of the second region evaluation value, a correction procedure performed on the basis of inter-frame correlation of the first frame evaluation value corresponding thereto ,
In accordance with the second region evaluation value and the first region evaluation value after the correction of each frame, a setting procedure for setting processing parameters for the frame or a subsequent frame;
An image control program for causing a computer to execute.
JP2010135267A 2010-06-14 2010-06-14 Image control apparatus, imaging apparatus, and image control program Active JP5598106B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010135267A JP5598106B2 (en) 2010-06-14 2010-06-14 Image control apparatus, imaging apparatus, and image control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010135267A JP5598106B2 (en) 2010-06-14 2010-06-14 Image control apparatus, imaging apparatus, and image control program

Publications (2)

Publication Number Publication Date
JP2012004665A JP2012004665A (en) 2012-01-05
JP5598106B2 true JP5598106B2 (en) 2014-10-01

Family

ID=45536198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010135267A Active JP5598106B2 (en) 2010-06-14 2010-06-14 Image control apparatus, imaging apparatus, and image control program

Country Status (1)

Country Link
JP (1) JP5598106B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4217698B2 (en) * 2005-06-20 2009-02-04 キヤノン株式会社 Imaging apparatus and image processing method
JP4971785B2 (en) * 2006-12-28 2012-07-11 キヤノン株式会社 Image processing apparatus and method, and imaging apparatus
JP5398156B2 (en) * 2008-03-04 2014-01-29 キヤノン株式会社 WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE

Also Published As

Publication number Publication date
JP2012004665A (en) 2012-01-05

Similar Documents

Publication Publication Date Title
US8599283B2 (en) Image capture apparatus and image capturing method
JP5169318B2 (en) Imaging apparatus and imaging method
US8493458B2 (en) Image capture apparatus and image capturing method
US9813634B2 (en) Image processing apparatus and method
US9871976B2 (en) Imaging apparatus, control system and control method
KR20150109177A (en) Photographing apparatus, method for controlling the same, and computer-readable recording medium
US9589339B2 (en) Image processing apparatus and control method therefor
JP4479845B2 (en) Image correction apparatus, image correction method, and image correction program
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP5215775B2 (en) White balance control device, imaging device using the same, and white balance control method
JP2002290988A (en) Imaging device
KR20130134165A (en) Photographing apparatus, method for controlling the same, and computer-readable recording medium
JP2017147535A (en) White balance adjustment device, white balance adjustment method, white balance adjustment program, and photographing device
JP2012163679A (en) Imaging device, stroboscope control method, and stroboscope control program
JP5598106B2 (en) Image control apparatus, imaging apparatus, and image control program
JP4705146B2 (en) Imaging apparatus and imaging method
JP2005072694A (en) Image pickup apparatus
JP2015119436A (en) Imaging apparatus
JP5659574B2 (en) Image processing apparatus, imaging apparatus, and image processing program
JP5677485B2 (en) White balance control device, imaging device using the same, and white balance control method
JP2012129611A (en) Imaging apparatus
CN110166716B (en) Image processing apparatus and image processing method
US20230048045A1 (en) Imaging apparatus, imaging method, and storage medium
JP5307572B2 (en) Imaging system, video signal processing program, and imaging method
JP4819737B2 (en) Imaging apparatus and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140728

R150 Certificate of patent or registration of utility model

Ref document number: 5598106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250