JP2010217614A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2010217614A
JP2010217614A JP2009065407A JP2009065407A JP2010217614A JP 2010217614 A JP2010217614 A JP 2010217614A JP 2009065407 A JP2009065407 A JP 2009065407A JP 2009065407 A JP2009065407 A JP 2009065407A JP 2010217614 A JP2010217614 A JP 2010217614A
Authority
JP
Japan
Prior art keywords
determination result
imaging
distance
adjustment
irradiation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009065407A
Other languages
Japanese (ja)
Inventor
Takahiro Hori
貴裕 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009065407A priority Critical patent/JP2010217614A/en
Publication of JP2010217614A publication Critical patent/JP2010217614A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera for keeping the focusing accuracy to a face part existing in a proximity and minimizing the consumption of power resulting from irradiation of unnecessary light. <P>SOLUTION: An imager 18 outputs image data showing a field caught through a focus lens 14. The position of the focus lens 14 is adjusted based on the image data output from the imager 18. An LED device 32 radiates light to the filed in relation to such an AF processing. In executing irradiation processing, a CPU 28 determines whether the face part of a person exists in the field, and the CPU 28 determines whether the distance to the face part of the person existing in the field is shorter than a reference. The irradiation processing is allowed when the determination result about the presence or absence of the face part is negative. The irradiation processing is allowed when the determination result about the distance to the face part is positive, and is restricted when the determination result about the distance to the face part is negative. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、電子カメラに関し、特に、フォーカス調整処理に関連して低照度の被写界に光を照射する、電子カメラに関する。   The present invention relates to an electronic camera, and more particularly, to an electronic camera that irradiates light onto a low-illumination field in connection with a focus adjustment process.

この種のカメラの一例が、特許文献1に開示されている。この背景技術によれば、輝度検出部は、被写界から検出された1または2以上の顔領域の輝度を判定する。AF処理部は、被写界から検出された1または2以上の顔領域の各々からカメラまでの距離を算出する。対象顔領域決定部は、カメラまでの距離が最も小さい顔領域を対象顔領域として決定する。AF補助光照射部は、対象顔領域にAF補助光を照射すべきか否かを対象顔領域について取得された輝度および距離に基づいて判定し、判定結果を踏まえてAF補助光を対象顔領域に照射する。これによって、対象顔領域に対して確実にAF処理を行うことができる。   An example of this type of camera is disclosed in Patent Document 1. According to this background art, the luminance detection unit determines the luminance of one or more face areas detected from the scene. The AF processing unit calculates the distance from each of the one or more face areas detected from the object scene to the camera. The target face area determination unit determines the face area with the shortest distance to the camera as the target face area. The AF auxiliary light irradiation unit determines whether or not the target face area should be irradiated with AF auxiliary light based on the brightness and distance acquired for the target face area, and based on the determination result, the AF auxiliary light is applied to the target face area. Irradiate. Thereby, AF processing can be reliably performed on the target face area.

特開2008−124846号公報Japanese Patent Laid-Open No. 2008-124846

しかし、顔領域が1つも検出できなかったときのAF補助光の照射制御について、背景技術は何ら開示していない。ここで、顔領域が1つも検出できなかったときにAF補助光の照射を中止するようにすると、実際には近くに顔領域が存在した場合にAF精度の低下を引き起こす。また、顔領域が1つも検出できなかったときにAF補助光の照射を実行するようにすると、実際には遠くに顔領域が存在した場合に電力の浪費を引き起こす。   However, no background art is disclosed about the irradiation control of AF auxiliary light when no face area is detected. Here, if the irradiation of the AF auxiliary light is stopped when no face area is detected, the AF accuracy is lowered when the face area actually exists. Also, if AF assist light irradiation is performed when no face area is detected, power is wasted when the face area actually exists far away.

それゆえに、この発明の主たる目的は、近くに存在する特定物体に対する合焦精度を維持でき、かつ不要な光の照射に起因する電力の浪費を抑制することができる、電子カメラを提供することである。   Therefore, a main object of the present invention is to provide an electronic camera that can maintain focusing accuracy with respect to a specific object present in the vicinity and can suppress waste of electric power due to unnecessary light irradiation. is there.

この発明に従う電子カメラ(10:実施例で相当する参照符号。以下同じ)は、フォーカスレンズ(14)を通して被写界を捉える撮像面を有し、被写界像を出力する撮像手段(18)、撮像手段から出力された被写界像に基づいてフォーカスレンズから撮像面までの距離を調整する調整手段(S27, S51, S55)、調整手段の調整処理に関連して被写界に光を照射する照射処理を実行する照射手段(S25)、撮像手段から出力された被写界像に基づいて被写界に特定物体が存在するか否かを判別し、判別結果が否定的であるとき照射処理を許可する第1制御手段(S17)、および第1制御手段の判別結果が肯定的であるとき特定物体までの距離が基準を下回るか否かを判別し、判別結果が肯定的であるとき照射処理を許可する一方、判別結果が否定的であるとき照射処理を制限する第2制御手段(S19~S23)を備える。   The electronic camera according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) has an imaging surface for capturing the object scene through the focus lens (14), and outputs an object image. Adjusting means (S27, S51, S55) for adjusting the distance from the focus lens to the imaging surface based on the object scene image output from the imaging means; Irradiation means (S25) that performs the irradiation process to irradiate, determines whether a specific object exists in the scene based on the scene image output from the imaging means, and the determination result is negative When the determination result of the first control means (S17) permitting the irradiation process and the first control means is affirmative, it is determined whether or not the distance to the specific object is below the reference, and the determination result is affirmative When the irradiation process is allowed, the irradiation process is limited when the determination result is negative Second control means (S19 to S23).

好ましくは、撮像手段から出力された被写界像を参照して被写界から特定物体を探索する探索手段(S43~S47, S53)がさらに備えられ、第1制御手段は探索手段の探索結果を参照して制御処理を実行する。   Preferably, search means (S43 to S47, S53) for searching for a specific object from the object scene with reference to the object scene image output from the imaging means is further provided, and the first control means is a search result of the search means. The control process is executed with reference to

さらに好ましくは、調整手段は、探索手段の探索結果に応じて異なるエリアを調整エリアとして設定するエリア設定手段(S51, S55)、および被写界像のうち調整エリアに属する部分画像を参照して距離調整処理を実行する処理手段(S27)を含む。   More preferably, the adjustment means refers to an area setting means (S51, S55) for setting a different area as an adjustment area according to a search result of the search means, and a partial image belonging to the adjustment area of the object scene image. Processing means (S27) for executing distance adjustment processing is included.

好ましくは、第2制御手段は、撮像手段から出力された被写界像に現れた特定物体像のサイズを検出するサイズ検出手段(S19)、およびサイズ検出手段によって検出されたサイズとズーム倍率とに基づいて特定物体までの距離を算出する距離算出手段(S21)を含む。   Preferably, the second control means includes a size detection means (S19) for detecting the size of the specific object image appearing in the object scene image output from the imaging means, and the size detected by the size detection means and the zoom magnification. Distance calculating means (S21) for calculating the distance to the specific object based on

この発明に従う撮像制御プログラムは、フォーカスレンズ(14)を通して被写界を捉える撮像面を有し、被写界像を出力する撮像手段(18)を備える電子カメラ(10)のプロセッサ(28)に、撮像手段から出力された被写界像に基づいてフォーカスレンズから撮像面までの距離を調整する調整ステップ(S27, S51, S55)、調整ステップの調整処理に関連して被写界に光を照射する照射処理を実行する照射ステップ(S25)、撮像手段から出力された被写界像に基づいて被写界に特定物体が存在するか否かを判別し、判別結果が否定的であるとき照射処理を許可する第1制御ステップ(S17)、および第1制御ステップの判別結果が肯定的であるとき特定物体までの距離が基準を下回るか否かを判別し、判別結果が肯定的であるとき照射処理を許可する一方、判別結果が否定的であるとき照射処理を制限する第2制御ステップ(S19~S23)を実行させるための、撮像制御プログラムである。   An imaging control program according to the present invention is provided in a processor (28) of an electronic camera (10) having an imaging surface for capturing an object scene through a focus lens (14) and having an imaging means (18) for outputting the object scene image. The adjustment step (S27, S51, S55) for adjusting the distance from the focus lens to the imaging surface based on the object scene image output from the imaging means, and the light to the object field in connection with the adjustment process of the adjustment step Irradiation step (S25) for performing irradiation processing to irradiate, based on the object scene image output from the imaging means, determine whether a specific object exists in the object scene, and when the determination result is negative When the determination result of the first control step (S17) permitting the irradiation process and the first control step is affirmative, it is determined whether or not the distance to the specific object is below the reference, and the determination result is affirmative When the irradiation process is allowed, the discrimination result is negative For executing a second control step of limiting an irradiation treatment (S19 ~ S23) when it is an imaging control program.

この発明に従う撮像制御方法は、フォーカスレンズ(14)を通して被写界を捉える撮像面を有し、被写界像を出力する撮像手段(18)を備える電子カメラ(10)によって実行される撮像制御方法であって、撮像手段から出力された被写界像に基づいてフォーカスレンズから撮像面までの距離を調整する調整ステップ(S27, S51, S55)、調整ステップの調整処理に関連して被写界に光を照射する照射処理を実行する照射ステップ(S25)、撮像手段から出力された被写界像に基づいて被写界に特定物体が存在するか否かを判別し、判別結果が否定的であるとき照射処理を許可する第1制御ステップ(S17)、および第1制御ステップの判別結果が肯定的であるとき特定物体までの距離が基準を下回るか否かを判別し、判別結果が肯定的であるとき照射処理を許可する一方、判別結果が否定的であるとき照射処理を制限する第2制御ステップ(S19~S23)を備える。   The imaging control method according to the present invention is an imaging control executed by an electronic camera (10) having an imaging surface for capturing an object scene through a focus lens (14) and having an imaging means (18) for outputting the object scene image. An adjustment step (S27, S51, S55) for adjusting the distance from the focus lens to the imaging surface based on the object scene image output from the imaging means, Irradiation step (S25) for performing an irradiation process for irradiating the field with light, determining whether or not a specific object exists in the object scene based on the object scene image output from the imaging means, and the determination result is negative If the determination result of the first control step (S17) permitting the irradiation process when the target is correct and the determination result of the first control step is affirmative, it is determined whether or not the distance to the specific object is below a reference, While allowing the irradiation process when positive A second control step (S19 to S23) for limiting the irradiation process when the determination result is negative is provided.

この発明によれば、特定物体の検出に失敗したときは、照射処理が実行される。これによって、近くに存在する特定物体に対する合焦精度が維持される。また、特定物体の検出に成功したときは、特定物体までの距離を参照して照射処理が許可または制限される。これによって、近くに存在する特定物体に対する合焦精度を維持できるとともに、遠くの特定物体に向けた不要な照射処理に起因する電力の浪費を回避することができる。   According to this invention, when the detection of the specific object fails, the irradiation process is executed. Thereby, the focusing accuracy for a specific object existing in the vicinity is maintained. When the specific object is successfully detected, the irradiation process is permitted or restricted with reference to the distance to the specific object. As a result, it is possible to maintain focusing accuracy for a specific object present in the vicinity, and to avoid waste of power due to unnecessary irradiation processing toward a specific object far away.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 撮像面における評価エリアの割り当て状態の一例を示す図解図である。It is an illustration figure which shows an example of the allocation state of the evaluation area in an imaging surface. (A)は図2実施例に適用される倍率レジスタの構成の一例を示す図解図であり、(B)は図4実施例に適用される顔情報レジスタの構成の一例を示す図解図である。(A) is an illustrative view showing an example of a configuration of a magnification register applied to the embodiment in FIG. 2, and (B) is an illustrative view showing an example of a configuration of a face information register applied to the embodiment in FIG. . (A)は図2実施例における探索動作の一部を示す図解図であり、(B)は図2実施例における探索動作の他の一部を示す図解図であり、(C)は図3実施例における探索動作のその他の一部を示す図解図である。(A) is an illustrative view showing a part of the search operation in FIG. 2 embodiment, (B) is an illustrative view showing another part of the search operation in FIG. 2 embodiment, and (C) is FIG. It is an illustration figure which shows a part of other search operation | movement in an Example. 図2実施例によって捉えられる被写界の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of an object scene captured by the embodiment in FIG. 2; 図2実施例によって捉えられる被写界の他の一例を示す図解図である。FIG. 9 is an illustrative view showing another example of the object scene captured by the embodiment in FIG. 2; 図2実施例によって捉えられる被写界のその他の一例を示す図解図である。FIG. 10 is an illustrative view showing another example of the object scene captured by the embodiment in FIG. 2; (A)はカメラから人物までの距離の一例を示す図解図であり、(B)はカメラから人物までの距離の他の一例を示す図解図である。(A) is an illustration figure which shows an example of the distance from a camera to a person, (B) is an illustration figure which shows another example of the distance from a camera to a person. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この発明の電子カメラは、基本的に次のように構成される。撮像手段2は、フォーカスレンズ1を通して被写界を捉える撮像面を有し、被写界像を出力する。調整手段3は、撮像手段2から出力された被写界像に基づいてフォーカスレンズ1から撮像面までの距離を調整する。照射手段4は、調整手段3の調整処理に関連して被写界に光を照射する照射処理を実行する。第1制御手段5は、撮像手段2から出力された被写界像に基づいて被写界に特定物体が存在するか否かを判別し、判別結果が否定的であるとき照射処理を許可する。第2制御手段6は、第1制御手段5の判別結果が肯定的であるとき特定物体までの距離が基準を下回るか否かを判別し、判別結果が肯定的であるとき照射処理を許可する一方、判別結果が否定的であるとき照射処理を制限する。   Referring to FIG. 1, the electronic camera of the present invention is basically configured as follows. The imaging means 2 has an imaging surface that captures the scene through the focus lens 1 and outputs a scene image. The adjusting unit 3 adjusts the distance from the focus lens 1 to the imaging surface based on the object scene image output from the imaging unit 2. The irradiating unit 4 executes an irradiating process for irradiating the object with light in association with the adjusting process of the adjusting unit 3. The first control unit 5 determines whether or not the specific object exists in the scene based on the scene image output from the imaging unit 2, and permits the irradiation process when the determination result is negative. . The second control unit 6 determines whether or not the distance to the specific object is below the reference when the determination result of the first control unit 5 is positive, and permits the irradiation process when the determination result is positive. On the other hand, when the determination result is negative, the irradiation process is limited.

したがって、特定物体の検出に失敗したときは、照射処理が実行される。これによって、近くに存在する特定物体に対する合焦精度が維持される。また、特定物体の検出に成功したときは、特定物体までの距離を参照して照射処理が許可または制限される。これによって、近くに存在する特定物体に対する合焦精度を維持できるとともに、遠くの特定物体に向けた不要な照射処理に起因する電力の浪費を回避することができる。
[実施例]
Therefore, when the detection of the specific object fails, the irradiation process is executed. Thereby, the focusing accuracy for a specific object existing in the vicinity is maintained. When the specific object is successfully detected, the irradiation process is permitted or restricted with reference to the distance to the specific object. As a result, it is possible to maintain focusing accuracy for a specific object present in the vicinity, and to avoid waste of power due to unnecessary irradiation processing toward a specific object far away.
[Example]

図2を参照して、この実施例のディジタルカメラ10は、ドライバ20a,20bおよび20cによってそれぞれ駆動されるズームレンズ12,フォーカスレンズ14および絞りユニット16を含む。これらの部材を経た被写界の光学像は、イメージャ18の撮像面に照射され、光電変換を施される。これによって、被写界像を表す電荷が生成される。   Referring to FIG. 2, the digital camera 10 of this embodiment includes a zoom lens 12, a focus lens 14 and an aperture unit 16 driven by drivers 20a, 20b and 20c, respectively. The optical image of the object scene that has passed through these members is irradiated onto the imaging surface of the imager 18 and subjected to photoelectric conversion. As a result, a charge representing the object scene image is generated.

キー入力装置30上の電源キー30pが操作されると、CPU28は、撮像タスクの下でスルー画像処理を開始するべく、ドライバ20dに露光動作および間引き読み出し動作の繰り返しを命令する。ドライバ20dは、図示しないSG(Signal Generator)から周期的に発生する垂直同期信号Vsyncに応答して、撮像面を露光し、かつ撮像面で生成された電荷の一部をラスタ走査態様で読み出す。イメージャ18からは、読み出された電荷に基づく低解像度の生画像信号が周期的に出力される。   When the power key 30p on the key input device 30 is operated, the CPU 28 instructs the driver 20d to repeat the exposure operation and the thinning readout operation in order to start through image processing under the imaging task. In response to a vertical synchronization signal Vsync periodically generated from an SG (Signal Generator) (not shown), the driver 20d exposes the imaging surface and reads out part of the charge generated on the imaging surface in a raster scanning manner. The imager 18 periodically outputs a low-resolution raw image signal based on the read charges.

前処理回路22は、イメージャ18から出力された生画像信号にCDS(Correlated Double Sampling),AGC(Automatic Gain Control),A/D変換などの処理を施し、ディジタル信号である生画像データを出力する。出力された生画像データは、メモリ制御回路34を通してSDRAM36の生画像エリア36aに書き込まれる。   The preprocessing circuit 22 performs processing such as CDS (Correlated Double Sampling), AGC (Automatic Gain Control), and A / D conversion on the raw image signal output from the imager 18 and outputs raw image data that is a digital signal. . The output raw image data is written into the raw image area 36 a of the SDRAM 36 through the memory control circuit 34.

後処理回路38は、生画像エリア36aに格納された生画像データをメモリ制御回路34を通して読み出し、読み出された生画像データに白バランス調整,色分離,YUV変換などの処理を施す。これによって生成されたYUV形式の画像データは、メモリ制御回路34を通してSDRAM36のYUV画像エリア36bに書き込まれる。   The post-processing circuit 38 reads the raw image data stored in the raw image area 36a through the memory control circuit 34, and performs processing such as white balance adjustment, color separation, and YUV conversion on the read raw image data. The YUV format image data thus generated is written into the YUV image area 36 b of the SDRAM 36 through the memory control circuit 34.

LCDドライバ40は、YUV画像エリア36bに格納された画像データをメモリ制御回路34を通して繰り返し読み出し、読み出された画像データに基づいてLCDモニタ42を駆動する。この結果、被写界のリアルタイム動画像(スルー画像)がモニタ画面に表示される。   The LCD driver 40 repeatedly reads out the image data stored in the YUV image area 36b through the memory control circuit 34, and drives the LCD monitor 42 based on the read image data. As a result, a real-time moving image (through image) of the object scene is displayed on the monitor screen.

前処理回路22は、上述した処理に加えて、生画像データを簡易的にRGBデータに変換する簡易RGB変換処理を実行し、変換されたRGBデータをAE評価回路24およびAF評価回路26に与える。   In addition to the above-described processing, the preprocessing circuit 22 executes simple RGB conversion processing that simply converts raw image data into RGB data, and provides the converted RGB data to the AE evaluation circuit 24 and the AF evaluation circuit 26. .

また、図3を参照して、撮像面の中央には評価エリアEVAが割り当てられる。評価エリアEVAは水平方向および垂直方向の各々において16分割され、256個の分割エリアが評価エリアEVAを形成する。後述するように、256個の分割エリアの全部または一部が、撮像パラメータを調整するためのエリアつまり調整エリアとして定義される。   Further, referring to FIG. 3, an evaluation area EVA is allocated at the center of the imaging surface. The evaluation area EVA is divided into 16 in each of the horizontal direction and the vertical direction, and 256 divided areas form the evaluation area EVA. As will be described later, all or a part of the 256 divided areas is defined as an area for adjusting the imaging parameter, that is, an adjustment area.

AE評価回路24は、前処理回路22から与えられたRGBデータのうち調整エリアに属するRGBデータを垂直同期信号Vsyncが発生する毎に積分し、これによって算出された積分値をAE評価値としてCPU28に与える。   The AE evaluation circuit 24 integrates RGB data belonging to the adjustment area among the RGB data supplied from the preprocessing circuit 22 every time the vertical synchronization signal Vsync is generated, and the CPU 28 uses the integrated value calculated thereby as an AE evaluation value. To give.

一方、AF評価回路26は、前処理回路22から与えられたRGBデータのうち調整エリアに属するRGBデータをYデータに変換し、変換されたYデータの高周波成分を垂直同期信号Vsyncが発生する毎に積分する。これによって算出された積分値は、AF評価値としてCPU28に与えられる。   On the other hand, the AF evaluation circuit 26 converts the RGB data belonging to the adjustment area among the RGB data supplied from the preprocessing circuit 22 to Y data, and generates a high frequency component of the converted Y data every time the vertical synchronization signal Vsync is generated. Integrate into. The integrated value calculated in this way is given to the CPU 28 as an AF evaluation value.

CPU28は、AE評価値に基づくスルー画像用AE処理をスルー画像処理と並列して実行し、適正EV値を算出する。算出された適正EV値を定義する絞り量および露光時間は、ドライバ20bおよび20cにそれぞれ設定される。この結果、スルー画像の明るさが適度に調整される。   The CPU 28 executes through image AE processing based on the AE evaluation value in parallel with the through image processing, and calculates an appropriate EV value. The aperture amount and the exposure time that define the calculated appropriate EV value are set in the drivers 20b and 20c, respectively. As a result, the brightness of the through image is appropriately adjusted.

CPU28はまた、キー入力装置30上のズームボタン30zが操作されたとき、ドライバ20aを制御してズームレンズ12を光軸方向に移動させる。これによって光学ズーム倍率が変更され、スルー画像の画角が所望の方向に変化する。   The CPU 28 also controls the driver 20a to move the zoom lens 12 in the optical axis direction when the zoom button 30z on the key input device 30 is operated. As a result, the optical zoom magnification is changed, and the angle of view of the through image is changed in a desired direction.

撮像パラメータを調整するための調整エリアを定義するとき、CPU28は、撮像タスクと並列して調整エリア制御タスクを実行する。調整エリア制御タスクでは、図4(A)に示す倍率レジスタRGST1と図4(B)に示す顔情報レジスタRGST2とが参照され、かつ顔検出回路48が利用される。   When defining an adjustment area for adjusting the imaging parameter, the CPU 28 executes an adjustment area control task in parallel with the imaging task. In the adjustment area control task, the magnification register RGST1 shown in FIG. 4A and the face information register RGST2 shown in FIG. 4B are referred to, and the face detection circuit 48 is used.

図4(A)に示す倍率レジスタRGST1は、YUV画像エリア36bに格納された画像データに対する電子ズーム倍率を登録するためのレジスタであり、カラム番号“1”〜“Nmax”にそれぞれ対応する複数のカラムが準備される。1番目のカラムには図5(A)に示すサイズに対応する電子ズーム倍率が記述され、2番目のカラムには図5(B)に示すサイズに対応する電子ズーム倍率が記述され、そして3番目のカラムには図5(C)に示すサイズに対応する電子ズーム倍率が記述される。なお、4番目以降のカラムについては、図示を省略する。   A magnification register RGST1 shown in FIG. 4A is a register for registering an electronic zoom magnification with respect to image data stored in the YUV image area 36b. A plurality of magnification registers RGST1 correspond to column numbers “1” to “Nmax”, respectively. A column is prepared. The first column describes the electronic zoom magnification corresponding to the size shown in FIG. 5A, the second column describes the electronic zoom magnification corresponding to the size shown in FIG. 5B, and 3 The electronic zoom magnification corresponding to the size shown in FIG. Note that illustration of the fourth and subsequent columns is omitted.

調整エリア制御タスクでは、まず変数Nが“1”に設定され、倍率レジスタRGST1のN番目のカラムに記述された電子ズーム倍率が選択される。変数Nは“1”から“Nmax”まで増大する変数である。電子ズーム倍率が選択されると、CPU28から顔検出回路48に向けて探索要求が発行される。探索要求には、選択された電子ズーム倍率が記述される。   In the adjustment area control task, first, the variable N is set to “1”, and the electronic zoom magnification described in the Nth column of the magnification register RGST1 is selected. The variable N is a variable that increases from “1” to “Nmax”. When the electronic zoom magnification is selected, a search request is issued from the CPU 28 to the face detection circuit 48. In the search request, the selected electronic zoom magnification is described.

顔検出回路48は、評価エリアEVAに属する画像データをメモリ制御回路34を通してYUV画像エリア36bから読み出し、読み出された画像データに探索要求の記述を参照した電子ズーム処理を施す。顔検出回路48は続いて、図5(A)〜図5(C)に示す照合枠MTFを評価エリアEVAの先頭位置に設定し、電子ズーム処理を施された画像データのうち照合枠MTFに対応する一部の画像データを人物の顔部を表すテンプレートと照合する。   The face detection circuit 48 reads out image data belonging to the evaluation area EVA from the YUV image area 36b through the memory control circuit 34, and performs electronic zoom processing with reference to the description of the search request on the read image data. Subsequently, the face detection circuit 48 sets the collation frame MTF shown in FIGS. 5A to 5C to the start position of the evaluation area EVA, and the collation frame MTF of the image data subjected to the electronic zoom processing is set to the collation frame MTF. Corresponding partial image data is collated with a template representing a human face.

照合枠MTFに対応する画像データがテンプレートと符号すると、顔検出回路48は、YUV画像エリア32b上の画像データのうち現時点の照合枠MTFに属する一部の画像データを人物の顔部画像データとみなし、この顔部画像データを囲う顔枠の位置およびサイズを示す顔情報を顔情報レジスタRGST2に記述する。   When the image data corresponding to the verification frame MTF is encoded as a template, the face detection circuit 48 converts some image data belonging to the current verification frame MTF out of the image data on the YUV image area 32b as human face image data. The face information indicating the position and size of the face frame surrounding the face image data is described in the face information register RGST2.

照合枠MTFは、照合処理が完了する毎に、評価エリアEVA上をラスタ方向に既定量ずつ移動する。上述の電子ズーム処理および照合処理は、移動後の照合枠MTFに属する画像データに対して実行される。照合枠MTFが評価エリアEVAの末尾位置に到達し、この位置における電子ズーム処理および照合処理が完了すると、顔検出回路48からCPU28に向けて探索終了通知が返送される。   The collation frame MTF moves by a predetermined amount in the raster direction on the evaluation area EVA every time collation processing is completed. The above-described electronic zoom processing and collation processing are executed for image data belonging to the collation frame MTF after movement. When the collation frame MTF reaches the end position of the evaluation area EVA and the electronic zoom process and the collation process at this position are completed, a search end notification is returned from the face detection circuit 48 to the CPU 28.

探索終了通知を受けたCPU28は、変数Nが定数Nmaxに達したか否かを判別する。変数Nが定数Nmaxを下回れば、CPU28は、変数Nをインクメントし、変数Nに対応する電子ズーム倍率が記述された探索要求を顔検出回路48に向けて発行する。   Receiving the search end notification, the CPU 28 determines whether or not the variable N has reached a constant Nmax. If the variable N falls below the constant Nmax, the CPU 28 increments the variable N and issues a search request describing the electronic zoom magnification corresponding to the variable N to the face detection circuit 48.

この結果、照合枠MTFは、N=1に対応して図5(A)に示す要領で評価エリアEVA上を移動し、N=2に対応して図5(B)に示す要領で評価エリアEVA上を移動し、そしてN=3に対応して図5(C)に示す要領で評価エリアEVA上を移動する。これによって、互いに異なるサイズを有する顔部画像データが評価エリアEVAから探索され、発見された顔部画像データを囲う顔枠のサイズおよび位置が顔情報として顔情報レジスタREGT2に蓄積される。   As a result, the verification frame MTF moves on the evaluation area EVA in the manner shown in FIG. 5A corresponding to N = 1, and the evaluation area in the manner shown in FIG. 5B corresponding to N = 2. Move on EVA, and move on evaluation area EVA according to the procedure shown in FIG. 5C corresponding to N = 3. Thereby, face image data having different sizes are searched from the evaluation area EVA, and the size and position of the face frame surrounding the found face image data are stored in the face information register REGT2 as face information.

顔情報レジスタRGST2に登録された顔情報が存在すれば、CPU28は、人物の顔部が被写界から検出されたことを表明するべくフラグFLGfcを“1”に設定し、さらに顔情報レジスタRGST2に登録された顔情報に適合する顔枠KFの表示をLCDドライバ40に命令する。   If the face information registered in the face information register RGST2 exists, the CPU 28 sets the flag FLGfc to “1” to indicate that the face portion of the person has been detected from the object scene, and further, the face information register RGST2 The LCD driver 40 is instructed to display a face frame KF that matches the face information registered in (1).

顔枠KFは、顔情報によって定義されたサイズを有しかつ顔情報によって定義された位置に配置される態様で、LCDモニタ42に表示される。CPU28は続いて、評価エリアEVAを形成する256個の分割エリアのうち登録された顔情報によって定義される顔枠KFのエリアを覆う一部の分割エリアを調整エリアとして定義する。   The face frame KF has a size defined by the face information and is displayed on the LCD monitor 42 in such a manner that the face frame KF is arranged at a position defined by the face information. Subsequently, the CPU 28 defines, as an adjustment area, a part of the divided area that covers the area of the face frame KF defined by the registered face information among the 256 divided areas forming the evaluation area EVA.

一方、顔情報レジスタRGST2に登録された顔情報が存在しなければ、CPU28は、人物の顔部が被写界から検出されなかったことを表明するべく、フラグFLGfcを“0”に設定する。CPU28はまた、評価エリアEVA全体を調整エリアとして定義する。   On the other hand, if the face information registered in the face information register RGST2 does not exist, the CPU 28 sets the flag FLGfc to “0” in order to express that the face portion of the person has not been detected from the object scene. The CPU 28 also defines the entire evaluation area EVA as an adjustment area.

したがって、図6に示す被写界が撮像面によって捉えられ、人物HMの顔部が探索処理によって発見されたときは、人物HMの顔部を覆うように顔枠KFがLCDモニタ42に表示され、フラグFLGfcが“1”に設定され、そして顔枠KFのエリアを覆う一部の分割エリアが調整エリアとして定義される。   Therefore, when the object scene shown in FIG. 6 is captured by the imaging surface and the face portion of the person HM is found by the search process, the face frame KF is displayed on the LCD monitor 42 so as to cover the face portion of the person HM. The flag FLGfc is set to “1”, and a part of the divided area covering the area of the face frame KF is defined as the adjustment area.

また、図7に示す被写界が撮像面によって捉えられ、横を向く人物HMの顔部が探索処理によって発見できなかったときは、顔枠KFがLCDモニタ42に表示されることはなく、フラグFLGfcは“0”に設定され、そして評価エリアEVA全体が調整エリアとして定義される。   Further, when the object scene shown in FIG. 7 is captured by the imaging surface and the face portion of the person HM facing sideways cannot be found by the search process, the face frame KF is not displayed on the LCD monitor 42, The flag FLGfc is set to “0”, and the entire evaluation area EVA is defined as the adjustment area.

さらに、図8に示す被写界が撮像面によって捉えられ、人物HMの顔部が探索処理によって発見されたときは、人物HMの顔部を覆うように顔枠KFがLCDモニタ42に表示され、フラグFLGfcが“1”に設定され、そして顔枠KFのエリアを覆う一部の分割エリアが調整エリアとして定義される。   Further, when the object scene shown in FIG. 8 is captured by the imaging surface and the face of the person HM is found by the search process, a face frame KF is displayed on the LCD monitor 42 so as to cover the face of the person HM. The flag FLGfc is set to “1”, and a part of the divided area covering the area of the face frame KF is defined as the adjustment area.

シャッタボタン28sが半押しされると、CPU28は、撮像タスクの下で被写界の照度を判別し、低照度であればフラグFLGfcの状態をさらに判別する。なお、AE評価値が閾値THを下回ると、被写界は低照度と判別される。   When the shutter button 28s is half-pressed, the CPU 28 determines the illuminance of the object field under the imaging task, and further determines the state of the flag FLGfc if the illuminance is low. Note that when the AE evaluation value falls below the threshold value TH, the object scene is determined to be low illuminance.

フラグFLGfcが“0”であれば、CPU28は、人物の顔部が被写界に存在しないか、実際には被写界に存在するものの人物の顔部の探索に失敗したとみなし、LED装置32を起動する。LED装置32から発せられた光は、被写界に照射される。   If the flag FLGfc is “0”, the CPU 28 regards that the face portion of the person does not exist in the object scene or that the search for the face portion of the person that actually exists in the object scene has failed, and the LED device 32 is started. Light emitted from the LED device 32 is applied to the object scene.

フラグFLGfcが“1”であれば、CPU28は、人物の顔部が被写界に存在するとみなし、顔情報レジスタRGST2に記述された顔部のサイズと現在の光学ズーム倍率とを参照して人物の顔部までの距離を“DL”として算出する。CPU28はさらに、算出された距離DLを基準値REFと比較し、距離DLが基準値REFを下回るときにLED装置32を起動する一方、距離DLが基準値REF以上のときにLED装置32の起動を見送る。なお、LED装置32の起動は、被写界の照度が高いときにも見送られる。   If the flag FLGfc is “1”, the CPU 28 regards the person's face as being in the object scene and refers to the face size described in the face information register RGST2 and the current optical zoom magnification. Is calculated as “DL”. The CPU 28 further compares the calculated distance DL with the reference value REF, and activates the LED device 32 when the distance DL is less than the reference value REF, while activating the LED device 32 when the distance DL is greater than or equal to the reference value REF. See off. The activation of the LED device 32 is also deferred when the illuminance of the object scene is high.

したがって、図7に示す被写界が撮像面によって捉えられ、人物HMの顔部が探索処理によって発見できなかった場合、LED装置32は、人物HMまでの距離に関係なく起動される。一方、図6または図8に示す被写界が撮像面によって捉えられ、人物HMの顔部が探索処理によって発見された場合、LED装置32を起動すべきか否かは、人物HMの顔部までの距離を参照して決定される。   Therefore, when the object scene illustrated in FIG. 7 is captured by the imaging surface and the face portion of the person HM cannot be found by the search process, the LED device 32 is activated regardless of the distance to the person HM. On the other hand, when the object scene shown in FIG. 6 or FIG. 8 is captured by the imaging surface and the face portion of the person HM is found by the search process, whether or not the LED device 32 should be activated depends on the face portion of the person HM. It is determined with reference to the distance.

つまり、図6に示す被写界に現れた人物HMまでの距離DLと基準値REFとの間で図9(A)に示す大小関係が成り立ち、図8に示す被写界に現れた人物HMまでの距離DLと基準値REFとの間で図9(B)に示す大小関係が成り立つ場合、LED装置32は、図6に示す被写界に対応して起動される一方、図8に示す被写界に対応して停止状態を維持する。   That is, the magnitude relationship shown in FIG. 9A is established between the distance DL to the person HM appearing in the scene shown in FIG. 6 and the reference value REF, and the person HM appearing in the scene shown in FIG. When the magnitude relationship shown in FIG. 9B is established between the distance DL to the reference value REF and the reference value REF, the LED device 32 is activated corresponding to the object field shown in FIG. The stop state is maintained corresponding to the object scene.

CPU28は、AF評価回路26から出力されたAF評価値を参照したAF処理を、このようなLED装置32の起動制御の後に実行する。フォーカスレンズ14は、ドライバ20bによって光軸方向に移動し、いわゆる山登り制御によって合焦点に配置される。この結果、スルー画像のフォーカスが良好に調整される。起動したLED装置32は、AF処理が完了した後に停止される。   The CPU 28 executes AF processing with reference to the AF evaluation value output from the AF evaluation circuit 26 after such activation control of the LED device 32. The focus lens 14 is moved in the optical axis direction by the driver 20b, and is arranged at a focal point by so-called hill-climbing control. As a result, the focus of the through image is adjusted well. The activated LED device 32 is stopped after the AF processing is completed.

CPU28は続いて、AE評価値に基づいて記録用AE処理を実行し、最適EV値を算出する。算出された最適EV値を定義する絞り量および露光時間は、上述と同様、ドライバ20bおよび20cにそれぞれ設定される。この結果、スルー画像の明るさが厳格に調整される。   Subsequently, the CPU 28 executes a recording AE process based on the AE evaluation value, and calculates an optimum EV value. The aperture amount and the exposure time that define the calculated optimum EV value are set in the drivers 20b and 20c, respectively, as described above. As a result, the brightness of the through image is adjusted strictly.

シャッタボタン30sが全押しされると、CPU28は、記録処理のために、ドライバ20dに露光動作および全画素読み出し動作を1回ずつ実行することを命令し、さらにI/F44を起動する。ドライバ20dは、垂直同期信号Vsyncに応答して撮像面を露光し、これによって生成された電荷の全てをラスタ走査態様で撮像面から読み出す。イメージャ18からは、高解像度を有する1フレームの生画像信号が出力される。   When the shutter button 30s is fully pressed, the CPU 28 instructs the driver 20d to execute the exposure operation and the all-pixel reading operation once for the recording process, and further activates the I / F 44. The driver 20d exposes the imaging surface in response to the vertical synchronization signal Vsync, and reads out all the charges generated thereby from the imaging surface in a raster scanning manner. From the imager 18, a one-frame raw image signal having a high resolution is output.

イメージャ18から出力された生画像信号は前処理回路22によって生画像データに変換され、変換された生画像データはメモリ制御回路34によってSDRAM36の生画像エリア36aに書き込まれる。   The raw image signal output from the imager 18 is converted into raw image data by the preprocessing circuit 22, and the converted raw image data is written into the raw image area 36 a of the SDRAM 36 by the memory control circuit 34.

後処理回路38は、生画像エリア36aに格納された生画像データをメモリ制御回路34を通して読み出し、読み出された生画像データをYUV形式の画像データに変換し、変換された画像データをメモリ制御回路34を通して記録画像エリア36cに書き込む。I/F44は、こうして記録画像エリア36cに格納された画像データをメモリ制御回路34を通して読み出し、読み出された画像データをファイル形式で記録媒体46に記録する。   The post-processing circuit 38 reads the raw image data stored in the raw image area 36a through the memory control circuit 34, converts the read raw image data into image data in the YUV format, and performs memory control on the converted image data. The recorded image area 36c is written through the circuit 34. The I / F 44 reads out the image data thus stored in the recording image area 36c through the memory control circuit 34, and records the read image data in the recording medium 46 in a file format.

なお、スルー画像処理は、高解像度を有する生画像データが生画像エリア36aに確保された時点で再開される。   Note that the through image processing is resumed when raw image data having high resolution is secured in the raw image area 36a.

CPU28は、図10〜図12に示す撮像タスクおよび図13〜図14に示す調整エリア制御タスクを含む複数のタスクを並列的に実行する。これらのタスクに対応する制御プログラムは、フラッシュメモリ50に記憶される。   The CPU 28 executes a plurality of tasks including the imaging task shown in FIGS. 10 to 12 and the adjustment area control task shown in FIGS. 13 to 14 in parallel. Control programs corresponding to these tasks are stored in the flash memory 50.

図10を参照して、まずステップS1でスルー画像処理を実行し、ステップS3で調整エリア制御タスクを起動する。ステップS1の処理の結果、被写界を表すスルー画像がLCDモニタ42に表示される。また、ステップS3の処理の結果、図13〜図14に示す調整エリア制御タスクに従う処理が開始される。ステップS7ではシャッタボタン28sが半押しされたか否かを判別し、判別結果がYESであればステップS13に進む一方、NOであればステップS7に進む。   Referring to FIG. 10, through image processing is first executed in step S1, and an adjustment area control task is activated in step S3. As a result of the processing in step S1, a through image representing the object scene is displayed on the LCD monitor 42. Further, as a result of the processing in step S3, processing according to the adjustment area control task shown in FIGS. 13 to 14 is started. In step S7, it is determined whether or not the shutter button 28s is half-pressed. If the determination result is YES, the process proceeds to step S13, whereas if NO, the process proceeds to step S7.

ステップS7では、調整エリアに属するAE評価値を参照したスルー画像用AE処理を実行する。これによって、スルー画像の明るさが適度に調整される。ステップS9ではズームボタン30zが操作されたか否かを判別し、NOであればステップS5に戻る一方、YESであればステップS11に進む。ステップS11では、光学ズーム倍率を変更するべく、ドライバ20aを通じてズームレンズ12を光軸方向に移動させる。光学ズーム倍率の変更が完了すると、ステップS5に戻る。   In step S7, the through image AE process with reference to the AE evaluation value belonging to the adjustment area is executed. As a result, the brightness of the through image is appropriately adjusted. In step S9, it is determined whether or not the zoom button 30z has been operated. If NO, the process returns to step S5, whereas if YES, the process proceeds to step S11. In step S11, the zoom lens 12 is moved in the optical axis direction through the driver 20a in order to change the optical zoom magnification. When the change of the optical zoom magnification is completed, the process returns to step S5.

ステップS13では調整エリア制御タスクを停止し、続くステップS15では被写界が低照度であるか否か(厳密には、AE評価値が閾値THを下回るか否か)を判別する。判別結果がNOであればステップS27に進み、判別結果がYESであればフラグFLGfcが“1”であるか否かをステップS17で判別する。フラグFLGfcが“0”であれば、人物の顔部は被写界から発見されなかったとみなし、ステップS25でLED装置32を起動してからステップS27に進む。一方、フラグFLGfcが“1”であれば、人物の顔部が被写界から発見されたとみなし、ステップS19に進む。   In step S13, the adjustment area control task is stopped, and in the subsequent step S15, it is determined whether or not the object scene has low illuminance (strictly, whether or not the AE evaluation value is lower than the threshold value TH). If the determination result is NO, the process proceeds to step S27, and if the determination result is YES, it is determined in step S17 whether or not the flag FLGfc is “1”. If the flag FLGfc is “0”, it is considered that the face of the person has not been found from the object scene, and the LED device 32 is activated in step S25, and then the process proceeds to step S27. On the other hand, if the flag FLGfc is “1”, it is considered that the face portion of the person has been found from the object scene, and the process proceeds to step S19.

ステップS19では、顔情報レジスタRGST2を参照して、被写界像に現れた人物の顔部のサイズを検出する。続くステップS21では、現時点の光学ズーム倍率とステップS19で検出されたサイズとを参照して、人物の顔部までの距離を“DL”として算出する。ステップS23では算出された距離DLが基準値REFを下回るか否かを判別し、YESであればステップS25の処理を経てステップS27に進む一方、NOであればステップS25の処理を経ることなくステップS27に進む。   In step S19, the face information register RGST2 is referenced to detect the face size of the person who appears in the object scene image. In the subsequent step S21, the distance to the human face is calculated as “DL” with reference to the current optical zoom magnification and the size detected in step S19. In step S23, it is determined whether or not the calculated distance DL is less than the reference value REF. If YES, the process proceeds to step S27 through step S25. If NO, the process proceeds to step S25 without performing step S25. Proceed to S27.

ステップS27では、調整エリアに属するAF評価値に基づいてAF処理を実行する。ステップS29ではLED装置32を停止し、ステップS31では調整エリアに属するAE評価値に基づいて記録用AE処理を実行する。ステップS27およびS31の処理によって、スルー画像のフォーカスおよび明るさが厳格に調整される。   In step S27, AF processing is executed based on the AF evaluation value belonging to the adjustment area. In step S29, the LED device 32 is stopped, and in step S31, the recording AE process is executed based on the AE evaluation value belonging to the adjustment area. Through the processing in steps S27 and S31, the focus and brightness of the through image are strictly adjusted.

ステップS33ではシャッタボタン30sが全押しされたか否かを判別し、ステップS35ではシャッタボタン30sの操作が解除されたか否かを判別する。ステップS33でYESであればステップS37に進み、ステップS35でYESであればステップS3に戻る。ステップS37では、シャッタボタン30sが全押しされた時点の被写界像を記録媒体42に記録するべく、記録処理を実行する。ステップS39ではスルー画像処理を再開し、その後にステップS3に戻る。   In step S33, it is determined whether or not the shutter button 30s has been fully pressed. In step S35, it is determined whether or not the operation of the shutter button 30s has been released. If “YES” in the step S33, the process proceeds to a step S37, and if “YES” in the step S35, the process returns to the step S3. In step S37, a recording process is executed in order to record the object scene image at the time when the shutter button 30s is fully pressed onto the recording medium 42. In step S39, the through image processing is resumed, and then the process returns to step S3.

図13を参照して、ステップS41では垂直同期信号Vsyncが発生したか否かを判別し、判別結果がNOからYESに更新されるとステップS43で探索処理を実行する。照合枠MTFは、倍率レジスタRGST1の記述に基づいて、図5(A)〜図5(C)に示す要領で評価エリアEVA上を移動する。ステップS45では、顔情報レジスタRGST2に顔情報が登録されているか否かを判別し、YESであればステップS47に進む一方、NOであればステップS53に進む。   Referring to FIG. 13, in step S41, it is determined whether or not the vertical synchronization signal Vsync has been generated. When the determination result is updated from NO to YES, search processing is executed in step S43. The verification frame MTF moves on the evaluation area EVA in the manner shown in FIGS. 5A to 5C based on the description of the magnification register RGST1. In step S45, it is determined whether or not face information is registered in the face information register RGST2. If YES, the process proceeds to step S47, and if NO, the process proceeds to step S53.

ステップS47では、被写界から人物の顔部が発見されたことを表明するべく、フラグFLGfcを“1”に設定する。ステップS49では、顔情報レジスタRGST2に登録された顔情報に適合する顔枠KFの表示をLCDドライバ40に命令する。顔枠KFは、顔情報によって定義されたサイズを有しかつ顔情報によって定義された位置に配置される態様で、LCDモニタ42に表示される。続くステップS51では、評価エリアEVAを形成する256個の分割エリアのうち顔枠KF内のエリアを覆う一部の分割エリアを調整エリアとして定義する。   In step S47, the flag FLGfc is set to “1” in order to announce that a human face has been found in the scene. In step S49, the LCD driver 40 is instructed to display a face frame KF that matches the face information registered in the face information register RGST2. The face frame KF has a size defined by the face information and is displayed on the LCD monitor 42 in such a manner that the face frame KF is arranged at a position defined by the face information. In the subsequent step S51, a part of the divided areas covering the area in the face frame KF among the 256 divided areas forming the evaluation area EVA is defined as the adjustment area.

一方、ステップS53では、被写界から人物の顔部が発見されなかったことを表明するべく、フラグFLGfcを“0”に設定する。ステップS55では、評価エリアEVA全体を調整エリアとして定義する。ステップS49またはS51の処理が完了すると、ステップS41に戻る。   On the other hand, in step S53, the flag FLGfc is set to “0” in order to announce that no person's face has been found from the object scene. In step S55, the entire evaluation area EVA is defined as an adjustment area. When the process of step S49 or S51 is completed, the process returns to step S41.

図13に示すステップS43の探索処理は、図14に示すサブルーチンに従って実行される。まずステップS61で顔情報レジスタRGST2をクリアし、ステップS63で変数Nを“1”に設定する。続くステップS65では、倍率レジスタRGST1の変数Nに対応するカラムを参照して電子ズーム倍率を決定する。電子ズーム倍率が決定されると、ステップS67で探索要求を顔検出回路48に向けて発行する。発行された探索要求には、ステップS65で決定された電子ズーム倍率が記述される。   The search process in step S43 shown in FIG. 13 is executed according to a subroutine shown in FIG. First, in step S61, the face information register RGST2 is cleared, and in step S63, a variable N is set to “1”. In the subsequent step S65, the electronic zoom magnification is determined with reference to the column corresponding to the variable N of the magnification register RGST1. When the electronic zoom magnification is determined, a search request is issued to the face detection circuit 48 in step S67. In the issued search request, the electronic zoom magnification determined in step S65 is described.

探索要求を受けた顔検出回路48は、図5(A)〜図5(C)に示す要領で照合枠MTFを評価エリアEVA上で移動させ、照合枠MTFに属する一部の画像をテンプレートと照合し、これによって検出された顔枠のサイズおよび位置を示す顔情報を顔情報レジスタRGST2に記述する。探索処理が完了すると、顔検出回路48は探索終了通知をCPU28に返送する。   Upon receiving the search request, the face detection circuit 48 moves the matching frame MTF on the evaluation area EVA in the manner shown in FIGS. 5A to 5C, and sets some images belonging to the matching frame MTF as templates. The face information indicating the size and position of the face frame detected by collation is described in the face information register RGST2. When the search process is completed, the face detection circuit 48 returns a search end notification to the CPU 28.

探索終了通知が返送されるとステップS69からステップS71に進み、変数Nが定数Nmaxに達したか否かを判別する。判別結果がNOであればステップS73で変数NをインクメントしてからステップS65に戻り、判別結果がYESであれば上階層のルーチンに復帰する。   When the search end notification is returned, the process proceeds from step S69 to step S71, and it is determined whether or not the variable N has reached a constant Nmax. If the determination result is NO, the variable N is incremented in step S73 and then the process returns to step S65. If the determination result is YES, the process returns to the upper hierarchy routine.

以上の説明から分かるように、イメージャ18は、フォーカスレンズ14を通して被写界を捉える撮像面を有し、画像データを出力する。フォーカスレンズ14の位置は、イメージャ18から出力された画像データに基づいて調整される(S27, S51, S55)。LED装置32は、このようなAF処理に関連して被写界に光を照射する(S25)。照射処理にあたっては、被写界に人物の顔部が存在するか否かがCPU28によって判別され(S17)、さらに被写界に存在する人物の顔部までの距離が基準値REFを下回るか否かがCPU28によって判別される(S19~S23)。照射処理は、人物の顔部の有無に関する判別結果が否定的であるときに許可される。照射処理はまた、人物の顔部までの距離に関する判別結果が肯定的であるときに許可され、人物の顔部までの距離に関する判別結果が否定的であるときに制限される。   As can be understood from the above description, the imager 18 has an imaging surface for capturing an object scene through the focus lens 14 and outputs image data. The position of the focus lens 14 is adjusted based on the image data output from the imager 18 (S27, S51, S55). The LED device 32 irradiates the object scene with light in association with such AF processing (S25). In the irradiation process, the CPU 28 determines whether or not a person's face exists in the object scene (S17), and whether or not the distance to the person's face existing in the object field is below the reference value REF. Is discriminated by the CPU 28 (S19 to S23). The irradiation process is permitted when the determination result regarding the presence or absence of a human face is negative. The irradiation process is also permitted when the determination result regarding the distance to the person's face is positive, and is limited when the determination result regarding the distance to the person's face is negative.

したがって、顔部の検出に失敗したときは、照射処理が実行される。これによって、近くに存在する顔部に対する合焦精度が維持される。また、顔部の検出に成功したときは、顔部までの距離を参照して照射処理が許可または制限される。これによって、近くに存在する顔部に対する合焦精度を維持できるとともに、遠くに存在する顔部に向けた不要な照射処理に起因する電力の浪費を回避することができる。   Therefore, when face detection fails, the irradiation process is executed. As a result, the focusing accuracy with respect to the face portion existing nearby is maintained. When the detection of the face portion is successful, the irradiation process is permitted or restricted with reference to the distance to the face portion. Thereby, it is possible to maintain the focusing accuracy with respect to the face part existing in the vicinity, and it is possible to avoid waste of power due to unnecessary irradiation processing toward the face part existing in the distance.

なお、この実施例ではフォーカス調整にあたってフォーカスレンズ14を光軸方向に移動させるようにしているが、フォーカスレンズ14に代えて或いはフォーカスレンズ14とともにイメージャ18を光軸方向に移動させるようにしてもよい。   In this embodiment, the focus lens 14 is moved in the optical axis direction for focus adjustment, but the imager 18 may be moved in the optical axis direction instead of the focus lens 14 or together with the focus lens 14. .

また、この実施例ではスルー画像の倍率を調整するにあたって光学ズーム処理を実行するようにしているが、光学ズーム処理に代えて或いは光学ズーム処理とともに電子ズーム処理を実行するようにしてもよい。   In this embodiment, the optical zoom process is executed when adjusting the magnification of the through image. However, the electronic zoom process may be executed instead of the optical zoom process or together with the optical zoom process.

さらに、この実施例では特定物体として人物の顔部を想定しているが、これに代えて、バスケットボールや犬の顔部などの物体を想定するようにしてもよい。   Further, in this embodiment, a human face is assumed as the specific object, but instead, an object such as a basketball or a dog face may be assumed.

10 …ディジタルカメラ
12 …ズームレンズ
14 …フォーカスレンズ
18 …イメージャ
24 …AE評価回路
26 …AF評価回路
28 …CPU
32 …LED装置
36 …SDRAM
48 …顔検出回路
DESCRIPTION OF SYMBOLS 10 ... Digital camera 12 ... Zoom lens 14 ... Focus lens 18 ... Imager 24 ... AE evaluation circuit 26 ... AF evaluation circuit 28 ... CPU
32 ... LED device 36 ... SDRAM
48. Face detection circuit

Claims (6)

フォーカスレンズを通して被写界を捉える撮像面を有し、被写界像を出力する撮像手段、
前記撮像手段から出力された被写界像に基づいて前記フォーカスレンズから前記撮像面までの距離を調整する調整手段、
前記調整手段の調整処理に関連して前記被写界に光を照射する照射処理を実行する照射手段、
前記撮像手段から出力された被写界像に基づいて前記被写界に特定物体が存在するか否かを判別し、判別結果が否定的であるとき前記照射処理を許可する第1制御手段、および
前記第1制御手段の判別結果が肯定的であるとき前記特定物体までの距離が基準を下回るか否かを判別し、判別結果が肯定的であるとき前記照射処理を許可する一方、判別結果が否定的であるとき前記照射処理を制限する第2制御手段を備える、電子カメラ。
An imaging means having an imaging surface for capturing the scene through the focus lens and outputting the scene image;
Adjusting means for adjusting the distance from the focus lens to the imaging surface based on the object scene image output from the imaging means;
Irradiation means for executing an irradiation process for irradiating the object with light in relation to the adjustment process of the adjustment means;
First control means for determining whether or not a specific object exists in the object scene based on the object scene image output from the imaging means, and permitting the irradiation process when the determination result is negative; When the determination result of the first control means is affirmative, it is determined whether or not the distance to the specific object is below a reference, and when the determination result is affirmative, the irradiation process is permitted, while the determination result is An electronic camera comprising: second control means for restricting the irradiation process when is negative.
前記撮像手段から出力された被写界像を参照して前記被写界から前記特定物体を探索する探索手段をさらに備え、
前記第1制御手段は前記探索手段の探索結果を参照して制御処理を実行する、請求項1記載の電子カメラ。
Search means for searching for the specific object from the object scene with reference to the object scene image output from the imaging means,
The electronic camera according to claim 1, wherein the first control unit executes a control process with reference to a search result of the search unit.
前記調整手段は、前記探索手段の探索結果に応じて異なるエリアを調整エリアとして設定するエリア設定手段、および前記被写界像のうち調整エリアに属する部分画像を参照して距離調整処理を実行する処理手段を含む、請求項2記載の電子カメラ。   The adjustment means executes an area adjustment means for setting a different area as an adjustment area according to a search result of the search means, and a distance adjustment process with reference to a partial image belonging to the adjustment area in the object scene image. The electronic camera according to claim 2, comprising processing means. 前記第2制御手段は、前記撮像手段から出力された被写界像に現れた特定物体像のサイズを検出するサイズ検出手段、および前記サイズ検出手段によって検出されたサイズとズーム倍率とに基づいて前記特定物体までの距離を算出する距離算出手段を含む、請求項1記載の電子カメラ。   The second control means is based on a size detection means for detecting the size of the specific object image appearing in the object scene image output from the imaging means, and the size detected by the size detection means and the zoom magnification. The electronic camera according to claim 1, further comprising distance calculation means for calculating a distance to the specific object. フォーカスレンズを通して被写界を捉える撮像面を有し、被写界像を出力する撮像手段を備える電子カメラのプロセッサに、
前記撮像手段から出力された被写界像に基づいて前記フォーカスレンズから前記撮像面までの距離を調整する調整ステップ、
前記調整ステップの調整処理に関連して前記被写界に光を照射する照射処理を実行する照射ステップ、
前記撮像手段から出力された被写界像に基づいて前記被写界に特定物体が存在するか否かを判別し、判別結果が否定的であるとき前記照射処理を許可する第1制御ステップ、および
前記第1制御ステップの判別結果が肯定的であるとき前記特定物体までの距離が基準を下回るか否かを判別し、判別結果が肯定的であるとき前記照射処理を許可する一方、判別結果が否定的であるとき前記照射処理を制限する第2制御ステップを実行させるための、撮像制御プログラム。
To the processor of an electronic camera that has an imaging surface that captures the scene through the focus lens and that has an imaging means for outputting the scene image,
An adjustment step of adjusting a distance from the focus lens to the imaging surface based on an object scene image output from the imaging means;
An irradiation step of performing an irradiation process of irradiating the object with light in relation to the adjustment process of the adjustment step;
A first control step of determining whether or not a specific object exists in the object scene based on the object scene image output from the imaging unit, and permitting the irradiation process when the determination result is negative; When the determination result of the first control step is affirmative, it is determined whether the distance to the specific object is below a reference, and when the determination result is affirmative, the irradiation process is permitted, while the determination result is The imaging control program for performing the 2nd control step which restrict | limits the said irradiation process when is negative.
フォーカスレンズを通して被写界を捉える撮像面を有し、被写界像を出力する撮像手段を備える電子カメラによって実行される撮像制御方法であって、
前記撮像手段から出力された被写界像に基づいて前記フォーカスレンズから前記撮像面までの距離を調整する調整ステップ、
前記調整ステップの調整処理に関連して前記被写界に光を照射する照射処理を実行する照射ステップ、
前記撮像手段から出力された被写界像に基づいて前記被写界に特定物体が存在するか否かを判別し、判別結果が否定的であるとき前記照射処理を許可する第1制御ステップ、および
前記第1制御ステップの判別結果が肯定的であるとき前記特定物体までの距離が基準を下回るか否かを判別し、判別結果が肯定的であるとき前記照射処理を許可する一方、判別結果が否定的であるとき前記照射処理を制限する第2制御ステップを備える、撮像制御方法。
An imaging control method executed by an electronic camera having an imaging surface that captures a scene through a focus lens and having an imaging means for outputting a scene image,
An adjustment step of adjusting a distance from the focus lens to the imaging surface based on an object scene image output from the imaging means;
An irradiation step of performing an irradiation process of irradiating the object with light in relation to the adjustment process of the adjustment step;
A first control step of determining whether or not a specific object exists in the object scene based on the object scene image output from the imaging unit, and permitting the irradiation process when the determination result is negative; When the determination result of the first control step is affirmative, it is determined whether the distance to the specific object is below a reference, and when the determination result is affirmative, the irradiation process is permitted, while the determination result is An imaging control method comprising: a second control step for limiting the irradiation process when is negative.
JP2009065407A 2009-03-18 2009-03-18 Electronic camera Withdrawn JP2010217614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009065407A JP2010217614A (en) 2009-03-18 2009-03-18 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009065407A JP2010217614A (en) 2009-03-18 2009-03-18 Electronic camera

Publications (1)

Publication Number Publication Date
JP2010217614A true JP2010217614A (en) 2010-09-30

Family

ID=42976529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009065407A Withdrawn JP2010217614A (en) 2009-03-18 2009-03-18 Electronic camera

Country Status (1)

Country Link
JP (1) JP2010217614A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017009769A (en) * 2015-06-22 2017-01-12 株式会社 日立産業制御ソリューションズ Imaging device, focus control device and imaging method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017009769A (en) * 2015-06-22 2017-01-12 株式会社 日立産業制御ソリューションズ Imaging device, focus control device and imaging method

Similar Documents

Publication Publication Date Title
JP4974812B2 (en) Electronic camera
JP2010050798A (en) Electronic camera
JP5485781B2 (en) Electronic camera
JP2009192960A (en) Electronic camera
JP2010098382A (en) Electronic camera
JP5865120B2 (en) Electronic camera
JP5213639B2 (en) Image processing device
US20120075495A1 (en) Electronic camera
JP2011142486A (en) Electronic camera
JP2010217614A (en) Electronic camera
JP5297766B2 (en) Electronic camera
JP4964062B2 (en) Electronic camera
JP5261769B2 (en) Imaging apparatus and group photo shooting support program
JP4827811B2 (en) Electronic camera
JP2006039254A (en) Camera
US20130050785A1 (en) Electronic camera
JP2009077175A (en) Electronic camera
JP2009145622A (en) Electronic camera
JP2011223181A (en) Electronic camera
JP2012129796A (en) Image processing device
JP5356162B2 (en) Object image search device
US20110141303A1 (en) Electronic camera
JP2013143755A (en) Electronic camera
JP2005323144A (en) Electronic camera
JP2014045318A (en) Electronic camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120605