JP5477345B2 - Imaging apparatus, focusing method, and program - Google Patents

Imaging apparatus, focusing method, and program Download PDF

Info

Publication number
JP5477345B2
JP5477345B2 JP2011160708A JP2011160708A JP5477345B2 JP 5477345 B2 JP5477345 B2 JP 5477345B2 JP 2011160708 A JP2011160708 A JP 2011160708A JP 2011160708 A JP2011160708 A JP 2011160708A JP 5477345 B2 JP5477345 B2 JP 5477345B2
Authority
JP
Japan
Prior art keywords
image
evaluation
area
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011160708A
Other languages
Japanese (ja)
Other versions
JP2011242796A (en
Inventor
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011160708A priority Critical patent/JP5477345B2/en
Publication of JP2011242796A publication Critical patent/JP2011242796A/en
Application granted granted Critical
Publication of JP5477345B2 publication Critical patent/JP5477345B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像認識機能を利用したオートフォーカス(自動合焦)処理を行う撮像装置、合焦方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an in-focus method, and a program that perform an autofocus (autofocus) process using an image recognition function.

近年、デジタルカメラのオートフォーカス(AF)処理においては、顔認識技術等の画像認識技術が採用されることにより、人の顔の画像に合焦して撮影することが可能になっている。
また、上記の技術を応用した特許文献1に記載された技術では、撮像画像における検出された顔領域の位置や大きさを覚えて設定し、次回撮像されるスルー画像から顔領域を検出する際には、上記設定された位置や大きさで顔領域を検出することが記載されている。
In recent years, in an autofocus (AF) process of a digital camera, an image recognition technique such as a face recognition technique has been adopted, so that an image of a human face can be focused and photographed.
Further, in the technique described in Patent Document 1 to which the above technique is applied, the position and size of the detected face area in the captured image are set while being remembered, and the face area is detected from the through image captured next time. Describes that a face area is detected at the set position and size.

特開2008−164839号公報JP 2008-164839 A

しかしながら、上記特許文献1に係る技術においては、撮像画像における検出すべき顔領域の位置や大きさが設定されると、その設定した位置や大きさを優先して合焦すべき顔領域を探索するので、静止画撮影する場合には構図が固定されてしまうという問題があった。   However, in the technique according to Patent Document 1, when the position and size of the face area to be detected in the captured image are set, the face area to be focused is searched with priority on the set position and size. Therefore, there is a problem that the composition is fixed when taking a still image.

本発明の課題は、被写体に適したAF評価領域を設定することができるようにすることである。   An object of the present invention is to be able to set an AF evaluation area suitable for a subject.

上記課題を解決するため、請求項1に記載の発明の撮像装置は、
撮像手段と、前記撮像手段により撮像される画像から被写体の画像領域を検出する検出手段と、前記検出手段により検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する第1の領域設定手段と、前記検出手段にて被写体の画像領域が検出できなかった場合には、撮像画角上の予め決められている特定位置に前記評価領域を1つだけ設定する第2の領域設定手段と、前記第1の領域設定手段又は前記第2の領域設定手段により設定された前記評価領域について合焦評価値をそれぞれ算出する算出手段と、前記算出手段による算出結果に基づいて合焦する合焦手段と、を備え、前記第1の領域設定手段は、前記検出手段にて検出された被写体の画像領域を包含するように、当該画像領域の輪郭部分と交わる位置に複数の前記評価領域を設定し、前記算出手段にて算出された合焦評価値に基づいて、前記第1の領域設定手段にて設定された前記複数の評価領域を取捨選択して絞り込む絞込手段と、前記撮像手段にて撮像される画像をライブビュー画像として表示手段に表示させるとともに、前記絞込手段にて絞り込まれた前記評価領域を前記ライブビュー画像上に重畳表示させる表示制御手段とを更に備え、前記合焦手段は、前記絞込手段にて絞り込まれた前記評価領域の合焦評価値に基づいて合焦することを特徴としている。
In order to solve the above problem, an imaging apparatus according to claim 1 is provided.
A plurality of evaluation areas for calculating a focus evaluation value are set in the imaging means, a detection means for detecting an image area of a subject from an image captured by the imaging means, and an image area of the subject detected by the detection means If the image area of the subject cannot be detected by the first area setting means and the detecting means, only one evaluation area is set at a predetermined specific position on the imaging angle of view. Two area setting means, a calculation means for calculating a focus evaluation value for each of the evaluation areas set by the first area setting means or the second area setting means, and a calculation result by the calculation means. comprising a focusing means for focusing, the Te, the first area setting means, so as to encompass the image area of the detected object by said detecting means, a plurality in a position intersecting the contour portion of the image area A narrowing-down means for setting the evaluation area and selecting and narrowing down the plurality of evaluation areas set by the first area setting means based on the focus evaluation value calculated by the calculation means; Display control means for causing the image picked up by the image pickup means to be displayed as a live view image on the display means, and for displaying the evaluation area narrowed down by the narrowing means superimposed on the live view image. The focusing means is characterized in that focusing is performed based on a focus evaluation value of the evaluation area narrowed down by the narrowing-down means .

請求項に記載の発明は、請求項1に記載の撮像装置において、
前記算出手段により算出された複数の合焦評価値とこの合焦評価値から得られる焦点距離とに基づいて、前記算出された各評価領域の合焦評価値のピーク位置を所定の範囲内に最も多く含む焦点距離範囲を特定する特定手段を更に備え、前記合焦手段は、前記特定手段により特定された焦点距離範囲に基づいて合焦することを特徴とするとしている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
Based on the plurality of focus evaluation values calculated by the calculation means and the focal length obtained from the focus evaluation values, the peak positions of the focus evaluation values of the calculated evaluation regions are within a predetermined range. The image processing apparatus further includes a specifying unit that specifies a focal length range that includes the largest amount, and the focusing unit performs focusing based on the focal length range specified by the specifying unit.

請求項に記載の発明は、請求項に記載の撮像装置において、
前記特定手段により特定された範囲内の複数の合焦評価値のピーク位置に対応する焦点距離の平均を算出する平均距離算出手段を更に備え、前記合焦手段は、前記平均距離算出手段により算出された平均の焦点距離で合焦することを特徴としている。
The invention according to claim 3 is the imaging apparatus according to claim 2 ,
Average distance calculating means for calculating an average of focal lengths corresponding to peak positions of a plurality of focus evaluation values within the range specified by the specifying means is further provided, and the focusing means is calculated by the average distance calculating means. It is characterized by focusing at an average focal length.

請求項に記載の発明は、請求項に記載の撮像装置において、
前記特定手段により特定された焦点距離範囲の中間点の距離を算出する中間距離算出手段を更に備え、前記合焦手段は、前記中間距離算出手段により算出された中間点の距離で合焦することを特徴としている。
The invention according to claim 4 is the imaging apparatus according to claim 2 ,
It further comprises intermediate distance calculating means for calculating the distance of the intermediate point of the focal length range specified by the specifying means, and the focusing means is focused at the distance of the intermediate point calculated by the intermediate distance calculating means. It is characterized by.

請求項に記載の発明の合焦方法は、
撮像装置の撮像部にて撮像される画像から被写体の画像領域を検出する検出ステップと、前記検出ステップにて検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する第1の領域設定ステップと、前記検出ステップにて被写体の画像領域が検出できなかった場合には、撮像画角上の予め決められている特定位置に前記評価領域を1つだけ設定する第2の領域設定ステップと、前記第1の領域設定ステップ又は前記第2の領域設定ステップにて設定された前記評価領域について合焦評価値をそれぞれ算出する算出ステップと、前記算出ステップでの算出結果に基づいて合焦する合焦ステップと、を含み、前記第1の領域設定ステップは、前記検出ステップにて検出された被写体の画像領域を包含するように、当該画像領域の輪郭部分と交わる位置に複数の前記評価領域を設定し、前記算出ステップにて算出された合焦評価値に基づいて、前記第1の領域設定ステップにて設定された前記複数の評価領域を取捨選択して絞り込む絞込ステップと、前記撮像部にて撮像される画像をライブビュー画像として表示手段に表示させるとともに、前記絞込ステップにて絞り込まれた前記評価領域を前記ライブビュー画像上に重畳表示させる表示制御ステップとを更に含み、前記合焦ステップは、前記絞込ステップにて絞り込まれた前記評価領域の合焦評価値に基づいて合焦することを特徴としている。
The focusing method of the invention according to claim 5 is:
A detection step for detecting an image area of a subject from an image captured by an imaging unit of the imaging device, and a plurality of evaluation areas for calculating a focus evaluation value are set in the image area of the subject detected in the detection step When the image area of the subject cannot be detected in the first area setting step and the detection step, only one evaluation area is set at a predetermined specific position on the imaging angle of view. 2 region setting step, a calculation step for calculating a focus evaluation value for each of the evaluation regions set in the first region setting step or the second region setting step, and a calculation result in the calculation step seen including a focusing step of focusing, the based on the first area setting step, so as to encompass the image area of the detected object in the detection step, the image A plurality of the evaluation areas are set at positions intersecting with the contour portion of the area, and the plurality of evaluation areas set in the first area setting step based on the focus evaluation value calculated in the calculation step A narrowing-down step of selecting and narrowing down, and an image captured by the imaging unit is displayed as a live view image on the display means, and the evaluation area narrowed down in the narrowing-down step is displayed on the live view image A focusing control value of the evaluation area narrowed down in the narrowing-down step, and focusing .

請求項に記載の発明のプログラムは、
撮像装置が備えるコンピュータを、撮像される画像から被写体の画像領域を検出する検出手段、前記検出手段によって検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する第1の領域設定手段、前記検出手段にて被写体の画像領域が検出できなかった場合には、撮像画角上の予め決められている特定位置に前記評価領域を1つだけ設定する第2の領域設定手段、前記前記第1の領域設定手段又は前記第2の領域設定手段によって設定された前記評価領域について合焦評価値をそれぞれ算出する算出手段、
前記算出手段における算出結果に基づいて合焦する合焦手段、として機能させ、前記第1の領域設定手段は、前記検出手段にて検出された被写体の画像領域を包含するように、当該画像領域の輪郭部分と交わる位置に複数の前記評価領域を設定し、前記算出手段にて算出された合焦評価値に基づいて、前記第1の領域設定手段にて設定された前記複数の評価領域を取捨選択して絞り込む絞込手段、前記撮像装置にて撮像される画像をライブビュー画像として表示手段に表示させるとともに、前記絞込手段にて絞り込まれた前記評価領域を前記ライブビュー画像上に重畳表示させる表示制御手段として更に機能させ、前記合焦手段は、前記絞込手段にて絞り込まれた前記評価領域の合焦評価値に基づいて合焦することを特徴としている。
The program of the invention described in claim 6 is:
First, a computer provided in the imaging apparatus detects a subject image region from a captured image, and sets a plurality of evaluation regions for calculating a focus evaluation value in the subject image region detected by the detection unit. A second area that sets only one evaluation area at a predetermined specific position on the imaging angle of view when the image area of the subject cannot be detected by the first area setting means or the detection means; Setting means, calculation means for calculating a focus evaluation value for each of the evaluation areas set by the first area setting means or the second area setting means,
The image area is made to function as a focusing means for focusing based on a calculation result in the calculation means, and the first area setting means includes the image area of the subject detected by the detection means. A plurality of the evaluation areas are set at positions intersecting with the contour portion of the plurality of evaluation areas, and the plurality of evaluation areas set by the first area setting means are determined based on the focus evaluation values calculated by the calculation means. A narrowing-down means for selecting and narrowing down, an image captured by the imaging device is displayed on the display means as a live view image, and the evaluation area narrowed down by the narrowing-down means is superimposed on the live view image and further functions as a display control means for displaying said focusing means is characterized Rukoto to be focused on the basis of the focus evaluation value of the evaluation region narrowed by the narrowing section.

本発明によれば、被写体に適したAF評価領域を設定することができる。   According to the present invention, an AF evaluation area suitable for a subject can be set.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 撮像装置による撮像処理に係る動作の一例を示すフローチャートである。12 is a flowchart illustrating an example of an operation related to an imaging process performed by the imaging apparatus. 図2の撮像処理の続きを示すフローチャートである。3 is a flowchart showing a continuation of the imaging process of FIG. 2. 図2の撮像処理に係るAF評価値とフォーカスレンズアドレスとの対応関係の一例を模式的に示す図である。FIG. 3 is a diagram schematically illustrating an example of a correspondence relationship between an AF evaluation value and a focus lens address according to the imaging process of FIG. 2. 図2の撮像処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the imaging process of FIG. 図2の撮像処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the imaging process of FIG. 図2の撮像処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the imaging process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の撮像装置100は、図1に示すように、撮像装置100は、フォーカスレンズ1、レンズ駆動部2、電子撮像部3、ユニット回路4、撮像制御部5、画像生成部6、AF処理部7、画像処理部8、表示部9、画像記録部10、操作入力部11、バッファメモリ12、プログラムメモリ13、中央制御部14等を備えている。
また、レンズ駆動部2、撮像制御部5、画像生成部6、AF処理部7、画像処理部8、表示部9、画像記録部10、バッファメモリ12、プログラムメモリ13、中央制御部14は、バスライン15を介して接続されている。
As shown in FIG. 1, the imaging apparatus 100 according to the present embodiment includes a focus lens 1, a lens driving unit 2, an electronic imaging unit 3, a unit circuit 4, an imaging control unit 5, an image generation unit 6, and an AF. A processing unit 7, an image processing unit 8, a display unit 9, an image recording unit 10, an operation input unit 11, a buffer memory 12, a program memory 13, a central control unit 14 and the like are provided.
The lens driving unit 2, the imaging control unit 5, the image generation unit 6, the AF processing unit 7, the image processing unit 8, the display unit 9, the image recording unit 10, the buffer memory 12, the program memory 13, and the central control unit 14 are They are connected via a bus line 15.

レンズ駆動部2は、フォーカスレンズ1をそれぞれ光軸方向に駆動させる。具体的には、レンズ駆動部2は、フォーカスモータ等の駆動源と、中央制御部14からの制御信号に従って駆動源を駆動させるドライバ等を備えている(何れも図示略)。   The lens driving unit 2 drives the focus lens 1 in the optical axis direction. Specifically, the lens driving unit 2 includes a driving source such as a focus motor and a driver that drives the driving source in accordance with a control signal from the central control unit 14 (none of which is shown).

電子撮像部3は、フォーカスレンズ1の光軸上に配置されている。また、電子撮像部3は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、フォーカスレンズ1等の各種レンズを通過した光学像を二次元の画像信号に変換する。   The electronic imaging unit 3 is disposed on the optical axis of the focus lens 1. The electronic imaging unit 3 is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and an optical image that has passed through various lenses such as the focus lens 1 is a two-dimensional image. Convert to signal.

ユニット回路4は、電子撮像部3から出力される被写体の光学像に応じたアナログの撮像信号が入力され、入力された撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(ADC)等から構成されている。
そして、ユニット回路4は、デジタルの撮像信号を画像生成部6に送信する。
The unit circuit 4 receives an analog imaging signal corresponding to the optical image of the subject output from the electronic imaging unit 3, receives a CDS that holds the input imaging signal, and a gain adjustment amplifier (AGC) that amplifies the imaging signal. ), An A / D converter (ADC) for converting the amplified imaging signal into a digital imaging signal, and the like.
Then, the unit circuit 4 transmits a digital imaging signal to the image generation unit 6.

撮像制御部5は、中央制御部14が設定するフレームレートに従ったタイミングで、電子撮像部3やユニット回路4を駆動させる制御を行う。具体的には、撮像制御部5は、TG(Timing Generator)、電子撮像部3を駆動するドライバ等(何れも図示略)を備え、TGを介してドライバやユニット回路4の動作タイミングを制御する。即ち、中央制御部14が、プログラムメモリ13から読み出したプログラム線図に従ってシャッタースピードを設定すると、撮像制御部5のTGは、当該シャッタースピードに対応する電荷蓄積時間をシャッターパルスとしてドライバに出力し、ドライバからの駆動パルス信号に従って電子撮像部3を動作させて電荷蓄積時間(露光時間)を制御する。   The imaging control unit 5 performs control to drive the electronic imaging unit 3 and the unit circuit 4 at a timing according to the frame rate set by the central control unit 14. Specifically, the imaging control unit 5 includes a TG (Timing Generator), a driver for driving the electronic imaging unit 3, and the like (both not shown), and controls the operation timing of the driver and the unit circuit 4 via the TG. . That is, when the central control unit 14 sets the shutter speed according to the program diagram read from the program memory 13, the TG of the imaging control unit 5 outputs the charge accumulation time corresponding to the shutter speed to the driver as a shutter pulse, The electronic image pickup unit 3 is operated according to the drive pulse signal from the driver to control the charge accumulation time (exposure time).

このように構成されたフォーカスレンズ1、電子撮像部3、ユニット回路4及び撮像制御部5は、被写体を撮像する撮像手段を構成している。   The focus lens 1, the electronic imaging unit 3, the unit circuit 4, and the imaging control unit 5 configured in this way constitute imaging means for imaging a subject.

画像生成部6は、ユニット回路4から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成する。そして、画像生成部6は、生成された輝度色差信号の画像データをAF処理部7及び画像処理部8に出力する。   The image generation unit 6 performs processing such as γ correction processing and white balance processing on the image data sent from the unit circuit 4 and generates a luminance color difference signal (YUV data). Then, the image generation unit 6 outputs the generated image data of the luminance / color difference signal to the AF processing unit 7 and the image processing unit 8.

AF処理部7は、撮像画像G(図5(a)等参照)の画像データに基づいて、当該撮像画像Gの画像認識を行う画像認識部7aを具備している。
画像認識部7aは、例えば、画像生成部6から画像データが送られてくる毎に当該画像データに対して、水平方向(横)及び垂直方向(縦)ともに所定倍率の縮小処理を行って低解像度の画像データを得、更に、この低解像度の画像データについて所定の画像認識技術を利用して解析した結果を示す解析結果画像データ(例えば、横×縦:40×30画素;図5(b)参照)Lを逐次生成する。そして、画像認識部7aは、解析結果画像データLに対して所定の画像認識技術を利用して合焦対象となる被写体Sを特定して画像領域Aを抽出する。
画像認識処理は、例えば、色、明るさ、コントラスト、高周波成分情報などの画像の各種情報を利用して被写体Sの画素集合の輪郭を抽出することで行っても良いし、予め被写体Sの種類を特定しておき当該被写体Sの特徴情報と比較判定して輪郭を抽出することで行っても良い。
ここで、画像認識部7aは、撮像画像Gから被写体Sの画像領域Aを検出する検出手段を構成している。
The AF processing unit 7 includes an image recognition unit 7a that performs image recognition of the captured image G based on image data of the captured image G (see FIG. 5A and the like).
For example, each time image data is sent from the image generation unit 6, the image recognition unit 7 a performs a reduction process with a predetermined magnification on the image data in both the horizontal direction (horizontal) and the vertical direction (vertical). Further, analysis result image data (for example, horizontal × vertical: 40 × 30 pixels; FIG. 5B) showing the result of analyzing the low-resolution image data using a predetermined image recognition technique is obtained. ) See) Sequentially generate L. Then, the image recognition unit 7a uses the predetermined image recognition technique for the analysis result image data L to identify the subject S to be focused and extracts the image area A.
The image recognition process may be performed by extracting the outline of the pixel set of the subject S using various information of the image such as color, brightness, contrast, and high-frequency component information, for example. This may be performed by extracting the outline by specifying and comparing with the feature information of the subject S.
Here, the image recognition unit 7 a constitutes a detection unit that detects the image area A of the subject S from the captured image G.

なお、図5(b)、図6(b)、図7(b)にあっては、解析結果画像データを二値化して表しており、ドットなし白抜きで表されている画像領域Aが被写体Sに相当し、ドット有りの黒で表されている画像領域Aが被写体S以外の部分に相当する。
また、被写体Sは、必ずしも一つの被写体として独立している必要はなく、複数の被写体が前後方向に重なった状態であっても良いし、複数の被写体が左右若しくは上下方向に離れて分離した状態であっても良い。
In FIGS. 5B, 6B, and 7B, the analysis result image data is binarized and an image area A represented by white without dots is represented. An image area A that corresponds to the subject S and is represented by black with dots corresponds to a portion other than the subject S.
In addition, the subject S does not necessarily have to be independent as one subject, and a plurality of subjects may overlap in the front-rear direction, or a plurality of subjects may be separated in the left-right or up-down direction. It may be.

また、AF処理部7は、被写体Sの画像領域Aの寸法を基準として判定処理を行う領域判定部7bを具備している。
領域判定部7bは、第1判定手段として、画像認識部7aにより検出された被写体Sの画像領域Aの寸法が、予め設定されている各AF評価領域Pの最小寸法よりも大きいか否かを判定する。AF評価領域Pの最小寸法は、例えば、低解像度(例えば、横×縦:40×30画素)の画像データである解析結果画像データLに対して、最小の水平幅が6画素、最小の垂直幅が4画素に設定されている。
ここで、領域判定部7bは、被写体Sの画像領域Aの寸法がAF評価領域Pとして設定可能な最小寸法よりも大きいか否かを判定する第1判定手段を構成している。
The AF processing unit 7 includes an area determination unit 7b that performs a determination process based on the size of the image area A of the subject S.
As a first determination unit, the region determination unit 7b determines whether the size of the image region A of the subject S detected by the image recognition unit 7a is larger than the preset minimum size of each AF evaluation region P. judge. The minimum dimension of the AF evaluation area P is, for example, a minimum horizontal width of 6 pixels and a minimum vertical with respect to the analysis result image data L which is image data of low resolution (for example, horizontal × vertical: 40 × 30 pixels). The width is set to 4 pixels.
Here, the area determination unit 7b constitutes first determination means for determining whether or not the size of the image area A of the subject S is larger than the minimum dimension that can be set as the AF evaluation area P.

また、AF処理部7は、フォーカスレンズ1の合焦状態の評価領域であるAF評価領域Pを設定する領域設定部7cを具備している。
領域設定部7cは、撮像画像Gにおけるフォーカスレンズ1の合焦状態の評価に係り、評価値算出部7dによってAF評価値が算出されるAF評価領域P(図5(a)等参照)を設定する。即ち、領域検出部は、被写体Sの画像領域Aの寸法(例えば、被写体Sの画像領域Aを囲む最小の矩形枠等)に応じてAF評価領域Pの設定数を変更して当該AF評価領域Pを設定する。具体的には、領域設定部7cは、領域判定部7bにより被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法よりも大きいと判定された場合、AF評価領域Pを複数(例えば、9個;図4(a)参照)設定する。このとき、領域設定部7cは、被写体Sの画像領域Aを包含するように、被写体Sの画像領域Aと重なる位置や被写体Sの画像領域Aの輪郭部分と交わる位置に複数のAF評価領域Pの各々を設定する。一方、領域判定部7bにより被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法以下であると判定された場合、領域設定部7cは、AF評価領域Pを一つ設定する。
また、領域設定部7cは、画像認識部7aにより被写体Sが検出されなかった場合には、測距方式を「スポットAF」に切り替えて画角の略中央にAF評価領域を設定する。
ここで、領域設定部7cは、画像認識部7aにより検出された被写体Sの画像領域Aに、撮像手段の合焦状態の評価領域としてAF評価値を算出すべきAF評価領域Pを複数設定する領域設定手段を構成している。
In addition, the AF processing unit 7 includes an area setting unit 7 c that sets an AF evaluation area P that is an evaluation area of the focus state of the focus lens 1.
The area setting unit 7c sets an AF evaluation area P (see FIG. 5A and the like) in which the AF evaluation value is calculated by the evaluation value calculation unit 7d in connection with the evaluation of the focus state of the focus lens 1 in the captured image G. To do. That is, the area detection unit changes the set number of AF evaluation areas P according to the size of the image area A of the subject S (for example, the smallest rectangular frame surrounding the image area A of the subject S), and the AF evaluation area Set P. Specifically, the area setting unit 7c determines that the area determination unit 7b determines that the size of the image area A of the subject S is larger than the minimum dimension of the AF evaluation area P. 9; see FIG. 4A). At this time, the area setting unit 7c includes a plurality of AF evaluation areas P at positions that overlap with the image area A of the subject S or positions that intersect the contour portion of the image area A of the subject S so as to include the image area A of the subject S. Set each of. On the other hand, when the area determination unit 7b determines that the size of the image area A of the subject S is equal to or smaller than the minimum dimension of the AF evaluation area P, the area setting unit 7c sets one AF evaluation area P.
In addition, when the subject S is not detected by the image recognition unit 7a, the region setting unit 7c switches the distance measurement method to “spot AF” and sets the AF evaluation region at the approximate center of the angle of view.
Here, the area setting unit 7c sets a plurality of AF evaluation areas P in which AF evaluation values should be calculated as evaluation areas for the focusing state of the imaging unit in the image area A of the subject S detected by the image recognition unit 7a. It constitutes an area setting means.

なお、領域設定部7cは、撮像画像Gに対する被写体Sの画像領域Aの寸法の割合が所定の割合(例えば、5割)以上である場合に、AF評価領域Pを複数設定しても良い。即ち、第2判定手段としての領域判定部7bが、撮像画像Gに対する被写体Sの画像領域Aの寸法の割合が所定の割合(例えば、5割)以上であるか否かを判定し、当該判定の結果、撮像画像Gに対する被写体Sの画像領域Aの寸法の割合が所定の割合(例えば、5割)以上であると判定された場合に、領域設定部7cは、AF評価領域Pを複数設定する。   The area setting unit 7c may set a plurality of AF evaluation areas P when the ratio of the size of the image area A of the subject S to the captured image G is a predetermined ratio (for example, 50%) or more. That is, the area determination unit 7b as the second determination unit determines whether or not the ratio of the size of the image area A of the subject S to the captured image G is equal to or greater than a predetermined ratio (for example, 50%). As a result, when it is determined that the ratio of the size of the image area A of the subject S to the captured image G is a predetermined ratio (for example, 50%) or more, the area setting unit 7c sets a plurality of AF evaluation areas P. To do.

また、AF処理部7は、フォーカスレンズ1の合焦状態の評価に係るAF評価値を算出する評価値算出部7dを具備している。
評価値算出部7dは、画像認識部7aにより生成された解析結果画像データLについて、領域設定部7cにより設定された各AF評価領域Pの画像データに基づいて、各AF評価領域Pの画像のコントラストの高低を示すAF評価値(図4(b)参照)を算出する。具体的には、自動合焦処理にてフォーカスレンズ1をレンズ駆動部2により光軸方向に移動させる際に、評価値算出部7dは、フォーカスレンズ1の光軸方向の位置を規定する複数(例えば、0〜100)のフォーカスレンズアドレスのうち、所定数(例えば、20〜30個)のアドレスに対応する測距位置で、複数のAF評価領域Pの各々についてAF評価値を算出する。
なお、図4(b)にあっては、例えば、AF評価領域Pを9つ設定した場合において、評価値算出部7dにより算出された各AF評価領域P1〜P9のAF評価値についてフォーカスレンズアドレスと対応付けて表している。
ここで、評価値算出部7dは、領域設定部7cにより設定された複数のAF評価領域Pについて、AF評価値(合焦評価値)をそれぞれ算出する算出手段を構成している。
In addition, the AF processing unit 7 includes an evaluation value calculation unit 7 d that calculates an AF evaluation value related to the evaluation of the focus state of the focus lens 1.
The evaluation value calculation unit 7d uses the analysis result image data L generated by the image recognition unit 7a based on the image data of each AF evaluation region P set by the region setting unit 7c. An AF evaluation value (see FIG. 4B) indicating the level of contrast is calculated. Specifically, when the focus lens 1 is moved in the optical axis direction by the lens driving unit 2 in the automatic focusing process, the evaluation value calculation unit 7d defines a plurality of ( For example, an AF evaluation value is calculated for each of a plurality of AF evaluation areas P at ranging positions corresponding to a predetermined number (for example, 20 to 30) of addresses among 0 to 100 focus lens addresses.
In FIG. 4B, for example, when nine AF evaluation areas P are set, the focus lens address for the AF evaluation values of the AF evaluation areas P1 to P9 calculated by the evaluation value calculation unit 7d. Are shown in association with each other.
Here, the evaluation value calculation unit 7d constitutes a calculation unit that calculates an AF evaluation value (focus evaluation value) for each of the plurality of AF evaluation regions P set by the region setting unit 7c.

また、AF処理部7は、複数のAF評価値をフォーカスレンズ1の測距位置に従って整列した場合に、AF評価値が集中している範囲を特定する範囲特定部7eを具備している。
範囲特定部7eは、具体的には、先ず、複数のAF評価領域PのAF評価値をフォーカスレンズアドレス(測距位置)に従って整列して、所定の範囲に設定されている評価値探索範囲内にAF評価値のピーク位置が最も多く含まれる位置を探索する。例えば、図4(b)にあっては、AF評価領域P5、P8以外のAF評価領域P1〜P4、P6、P7、P9のAF評価値のピーク位置は、フォーカスレンズアドレスが40近辺となっており、当該アドレスが集中している範囲を評価値集中範囲Rとして特定する。
なお、図4(b)にあっては、各AF評価領域PのAF評価値をフォーカスレンズ1の測距位置と対応付けて整列したが、フォーカスレンズ1の焦点距離に従って整列しても良い。
ここで、範囲特定部7eは、評価値算出部7dにより算出された複数のAF評価値とこのAF評価値から得られる焦点距離とに基づいて、各AF評価領域のAF評価値のピーク位置を所定の範囲内に最も多く含む焦点距離範囲(評価値集中範囲R)を特定する特定手段を構成している。
In addition, the AF processing unit 7 includes a range specifying unit 7e that specifies a range in which AF evaluation values are concentrated when a plurality of AF evaluation values are aligned according to the distance measurement position of the focus lens 1.
Specifically, the range specifying unit 7e first arranges the AF evaluation values of the plurality of AF evaluation areas P according to the focus lens address (ranging position), and within the evaluation value search range set to a predetermined range. Are searched for the positions where the peak positions of the AF evaluation values are most frequently included. For example, in FIG. 4B, the peak position of the AF evaluation values in the AF evaluation areas P1 to P4, P6, P7, and P9 other than the AF evaluation areas P5 and P8 is around 40 in the focus lens address. The range in which the addresses are concentrated is specified as the evaluation value concentration range R.
In FIG. 4B, the AF evaluation values of each AF evaluation area P are aligned in association with the distance measurement position of the focus lens 1, but may be aligned according to the focal distance of the focus lens 1.
Here, the range specifying unit 7e determines the peak position of the AF evaluation value in each AF evaluation region based on the plurality of AF evaluation values calculated by the evaluation value calculating unit 7d and the focal length obtained from the AF evaluation value. A specifying means for specifying a focal length range (evaluation value concentration range R) that is included most in a predetermined range is configured.

また、AF処理部7は、撮像手段を合焦可能な焦点距離を算出する距離算出部7fを具備している。
距離算出部7fは、範囲特定部7eにより特定された評価値集中範囲R内で、複数のAF評価値のピーク位置に対応するフォーカスレンズ1の測距位置を取得して、これら測距位置から換算した焦点距離の平均(平均焦点距離)を算出する。例えば、図4(b)にあっては、距離算出部7fは、範囲特定部7eにより特定された評価値集中範囲R内に存するAF評価領域P1〜P4、P6、P7、P9のAF評価値のピーク位置に対応する焦点距離の平均を算出することで平均焦点距離を特定する。
ここで、距離算出部7fは、範囲特定部7eにより特定された評価値集中範囲R内の複数のAF評価値のピーク位置に対応する焦点距離の平均を算出する平均距離算出手段を構成している。
Further, the AF processing unit 7 includes a distance calculation unit 7f that calculates a focal length at which the imaging unit can be focused.
The distance calculation unit 7f acquires the distance measurement positions of the focus lens 1 corresponding to the peak positions of the plurality of AF evaluation values within the evaluation value concentration range R specified by the range specification part 7e, and uses these distance measurement positions. The average of the converted focal lengths (average focal length) is calculated. For example, in FIG. 4B, the distance calculation unit 7f includes the AF evaluation values of the AF evaluation areas P1 to P4, P6, P7, and P9 existing in the evaluation value concentration range R specified by the range specifying unit 7e. The average focal length is specified by calculating the average of the focal lengths corresponding to the peak positions.
Here, the distance calculation unit 7f constitutes an average distance calculation unit that calculates the average of the focal lengths corresponding to the peak positions of the plurality of AF evaluation values within the evaluation value concentration range R specified by the range specifying unit 7e. Yes.

なお、距離算出部(算出手段)7fは、複数のAF評価領域Pの焦点距離の平均に代えて、評価値集中範囲R内で、複数のAF評価領域Pのうちの最多のAF評価領域Pに対して合焦可能なフォーカスレンズアドレスを焦点距離として算出しても良い。即ち、距離算出部7fは、評価値集中範囲R内で、最も多くのAF評価領域Pの画像を被写界深度内に含むことができるフォーカスレンズアドレスを焦点距離として算出しても良い。
また、距離算出部7fが、中間距離算出手段として、評価値集中範囲Rの中間位置を算出して焦点距離としても良い。
Note that the distance calculation unit (calculation means) 7f replaces the average of the focal lengths of the plurality of AF evaluation areas P with the largest number of AF evaluation areas P among the plurality of AF evaluation areas P within the evaluation value concentration range R. The focus lens address that can be focused on may be calculated as the focal length. That is, the distance calculation unit 7f may calculate, as the focal length, a focus lens address that can include the most AF evaluation region P images within the depth of field within the evaluation value concentration range R.
In addition, the distance calculation unit 7f may calculate the intermediate position of the evaluation value concentration range R as the intermediate distance calculation means to obtain the focal distance.

画像処理部8は、画像生成部6により生成された画像データ(YUVデータ)を所定の符号化方式(例えば、JPEG方式等)により圧縮・符号化する符号化部(図示略)や、画像記録部10から読み出された符号化された画像データを当該符号化方式に対応する復号化方式で復号化する復号化部等(何れも図示略)を具備している。   The image processing unit 8 includes an encoding unit (not shown) that compresses and encodes image data (YUV data) generated by the image generation unit 6 using a predetermined encoding method (for example, JPEG method), and image recording. The image processing apparatus includes a decoding unit (not shown) that decodes the encoded image data read from the unit 10 using a decoding method corresponding to the encoding method.

表示部9は、バッファメモリ12に格納された1フレーム分のYUVデータをビデオ信号に変換した後、ライブビュー画像として表示画面に表示する。具体的には、表示部9は、被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を逐次表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
また、画像再生時においては、表示部9は、画像記録部10から読み出されて画像処理部8にて復号化された画像データに基づく画像を表示する。
The display unit 9 converts the YUV data for one frame stored in the buffer memory 12 into a video signal, and then displays it as a live view image on the display screen. Specifically, the display unit 9 sequentially displays a live view image based on a plurality of image frames generated by imaging a subject, or displays a REC view image captured as a main captured image.
At the time of image reproduction, the display unit 9 displays an image based on the image data read from the image recording unit 10 and decoded by the image processing unit 8.

また、表示部9は、表示手段として、ライブビュー画像の表示中に、操作入力部11のシャッタボタン11aが半押し操作されると、合焦する焦点距離にあるAF評価領域Pに対応付けてAF枠(合焦領域枠)Wを表示する(図5(c)、図6(c)、図7(c)参照)。   Further, as a display unit, the display unit 9 is associated with the AF evaluation region P at the focal length that is in focus when the shutter button 11a of the operation input unit 11 is half-pressed during display of the live view image. An AF frame (in-focus area frame) W is displayed (see FIGS. 5C, 6C, and 7C).

画像記録部10は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部10は、画像処理部8の符号化部(図示略)により所定の符号化方式(例えば、JPEG方式やMPEG方式等)により圧縮・符号化された静止画像データや動画像データを記録する。   The image recording unit 10 is configured by, for example, a nonvolatile memory (flash memory). The image recording unit 10 also includes still image data and moving image data that have been compressed and encoded by a coding unit (not shown) of the image processing unit 8 using a predetermined coding method (for example, JPEG method, MPEG method, etc.). Record.

操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮影指示に係り、半押し及び全押し操作可能なシャッタボタン11a、撮像モードや機能等の選択指示に係る選択決定ボタン(図示略)、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部14に出力する。   The operation input unit 11 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 11 is related to a subject shooting instruction, a shutter button 11a that can be half-pressed and fully pressed, a selection determination button (not shown) related to a selection instruction such as an imaging mode or a function, and a zoom amount. A zoom button (not shown) associated with the adjustment instruction is provided, and a predetermined operation signal is output to the central control unit 14 in accordance with the operation of these buttons.

バッファメモリ12は、画像データ等を一時保存するバッファであるとともに、中央制御部14のワーキングメモリ等としても使用される。   The buffer memory 12 is a buffer for temporarily storing image data and the like, and is also used as a working memory for the central control unit 14.

プログラムメモリ13には、当該撮像装置100の機能に係る各種プログラムやデータが格納されている。また、プログラムメモリ13には、静止画撮影時、連写時、ライブビュー画像撮影時等の各撮影時における適正な露出値(EV)に対応する絞り値(F)とシャッタースピードとの組み合わせを示すプログラム線図を構成するプログラムAEデータや、EV値表も格納されている。   The program memory 13 stores various programs and data related to the functions of the imaging apparatus 100. The program memory 13 also has a combination of an aperture value (F) and a shutter speed corresponding to an appropriate exposure value (EV) at each shooting such as still image shooting, continuous shooting, and live view image shooting. Program AE data constituting the program diagram shown and an EV value table are also stored.

中央制御部14は、撮像装置100の各部を制御するワンチップマイコンである。
また、中央制御部14は、操作入力部11から出力され入力された操作信号に基づいて、撮像装置100の各部を制御する。具体的には、中央制御部14は、操作入力部11のシャッタボタン11aの所定操作に従って出力された撮像信号が入力されると、プログラムメモリ13に記憶されている所定のプログラムに従って、TGにより電子撮像部3及びユニット回路4の駆動タイミングを制御して静止画像を撮影する処理を実行する。この静止画像の撮影によりバッファメモリ12に格納された1フレーム分のYUVデータは、画像処理部8にてJPEG方式等により圧縮され符号化されて、画像記録部10に静止画像データとして記録される。
The central control unit 14 is a one-chip microcomputer that controls each unit of the imaging apparatus 100.
The central control unit 14 controls each unit of the imaging apparatus 100 based on the operation signal output from the operation input unit 11 and input. Specifically, when an imaging signal output according to a predetermined operation of the shutter button 11a of the operation input unit 11 is input, the central control unit 14 performs electronic control using a TG according to a predetermined program stored in the program memory 13. A process of taking a still image by controlling the drive timing of the imaging unit 3 and the unit circuit 4 is executed. One frame of YUV data stored in the buffer memory 12 by shooting this still image is compressed and encoded by the image processing unit 8 by the JPEG method or the like, and recorded as still image data in the image recording unit 10. .

また、中央制御部14は、自動合焦処理にて、フォーカスレンズ1の焦点距離が範囲特定部7eにより特定された評価値集中範囲R内の焦点距離となるように、所定の制御信号をレンズ駆動部2に出力してフォーカスモータを駆動させて当該フォーカスレンズ1の合焦位置を調整する。具体的には、中央制御部14は、評価値集中範囲Rの複数の焦点距離から距離算出部7fにより算出された平均焦点距離に基づいて、所定の制御信号をレンズ駆動部2に出力してフォーカスモータを駆動させることで、フォーカスレンズ1の焦点距離が平均焦点距離となるように調整する。
ここで、中央制御部14、フォーカスレンズ1及びレンズ駆動部2は、評価値算出部7dによる算出結果に基づいて合焦する合焦手段を構成している。
Further, the central control unit 14 sends a predetermined control signal to the lens so that the focal length of the focus lens 1 becomes the focal length within the evaluation value concentration range R specified by the range specifying unit 7e in the automatic focusing process. It outputs to the drive part 2 and drives a focus motor to adjust the focus position of the focus lens 1. Specifically, the central control unit 14 outputs a predetermined control signal to the lens driving unit 2 based on the average focal length calculated by the distance calculation unit 7f from a plurality of focal lengths in the evaluation value concentration range R. By driving the focus motor, the focal length of the focus lens 1 is adjusted to be the average focal length.
Here, the central control unit 14, the focus lens 1, and the lens driving unit 2 constitute focusing means for focusing based on the calculation result by the evaluation value calculation unit 7d.

次に、撮像装置100による合焦方法に係る撮像処理について、図2〜図7を参照して説明する。
図2及び図3は、撮像処理に係る動作の一例を示すフローチャートである。
撮像処理は、中央制御部14の制御下にて静止画像や動画像を撮像する処理であり、ユーザによる操作入力部11の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から撮像モードが選択指示された場合に実行される。
Next, imaging processing according to the focusing method performed by the imaging apparatus 100 will be described with reference to FIGS.
2 and 3 are flowcharts illustrating an example of an operation related to the imaging process.
The imaging process is a process of capturing a still image or a moving image under the control of the central control unit 14, and a plurality of images displayed on the menu screen based on a predetermined operation of the selection determination button of the operation input unit 11 by the user. This is executed when an imaging mode is selected from the imaging modes.

図2に示すように、先ず、中央制御部14は、被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部9の表示画面に表示させる(ステップS1)。
続けて、中央制御部14は、ユーザにより操作入力部11のシャッタボタン11aが半押し操作されたか否かを判定する(ステップS2)。
ここで、シャッタボタン11aが半押し操作されたと判定されると(ステップS2;YES)、AF処理部7の画像認識部7aは、被写体の撮像により生成された撮像画像Gの複数の画像フレーム(図5(a)等参照)に係る画像データが画像生成部6からAF処理部7に送られてくる毎に、当該画像データから被写体Sの画像領域Aを検出する処理を行う(ステップS3)。具体的には、AF処理部7の画像認識部7aは、画像生成部6から送られてきた各画像データに対して所定倍率の縮小処理を行って解析結果画像データL(例えば、横×縦:40×30画素)を生成した後、解析結果画像データLに対して所定の画像認識技術を利用して合焦対象となる被写体S(図5(b)参照)を特定して抽出する。
As shown in FIG. 2, first, the central control unit 14 displays a live view image on the display screen of the display unit 9 based on a plurality of image frames generated by imaging a subject (step S1).
Subsequently, the central control unit 14 determines whether or not the user has pressed the shutter button 11a of the operation input unit 11 halfway (step S2).
Here, if it is determined that the shutter button 11a is half-pressed (step S2; YES), the image recognition unit 7a of the AF processing unit 7 includes a plurality of image frames ( Every time the image data according to FIG. 5A and the like is sent from the image generation unit 6 to the AF processing unit 7, a process of detecting the image area A of the subject S from the image data is performed (step S3). . Specifically, the image recognition unit 7a of the AF processing unit 7 performs a reduction process at a predetermined magnification on each image data sent from the image generation unit 6 and performs analysis result image data L (for example, horizontal × vertical). : 40 × 30 pixels), the subject S (see FIG. 5B) to be focused is specified and extracted from the analysis result image data L using a predetermined image recognition technique.

次に、AF処理部7は、画像認識部7aによる被写体Sの検出結果に基づいて、被写体Sが検出されたか否かを判定する(ステップS4)。そして、被写体Sが検出されたと判定されると(ステップS4;YES)、AF処理部7の領域判定部7bは、画像認識部7aにより検出された被写体Sの画像領域Aの寸法が、予め設定されている各AF評価領域Pの最小寸法よりも大きいか否かを判定する(ステップS5)。
ここで、被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法よりも大きいと判定されると(ステップS5;YES)、AF処理部7の領域設定部7cは、被写体Sの画像領域Aを包含するように、被写体Sの画像領域Aと重なる位置や被写体Sの画像領域Aの輪郭部分と交わる位置に複数のAF評価領域P(例えば、9個;図4(a)参照)の各々を設定する(ステップS6)。
Next, the AF processing unit 7 determines whether or not the subject S is detected based on the detection result of the subject S by the image recognition unit 7a (step S4). When it is determined that the subject S has been detected (step S4; YES), the area determination unit 7b of the AF processing unit 7 sets the size of the image region A of the subject S detected by the image recognition unit 7a in advance. It is determined whether or not it is larger than the minimum dimension of each AF evaluation area P that has been set (step S5).
If it is determined that the size of the image area A of the subject S is larger than the minimum size of the AF evaluation area P (step S5; YES), the area setting unit 7c of the AF processing unit 7 A plurality of AF evaluation areas P (for example, nine; see FIG. 4A) at positions that overlap with the image area A of the subject S or positions that intersect the contour portion of the image area A of the subject S so as to include A. Each is set (step S6).

図3に示すように、AF処理部7の評価値算出部7dは、解析結果画像データLについて領域設定部7cにより設定されたAF評価領域Pの画像データに基づいて、画像のコントラストの高低を示すAF評価値を算出する(ステップS7)。具体的には、評価値算出部7dは、フォーカスレンズ1の光軸方向の位置を規定する複数(例えば、0〜100)のフォーカスレンズアドレスのうち、所定数(例えば、20〜30個)のアドレスに対応する測距位置で、複数のAF評価領域Pの各々についてAF評価値を算出する。
次に、範囲特定部7eは、複数のAF評価領域PのAF評価値をフォーカスレンズアドレス(測距位置)に従って整列して、AF評価値のピーク位置が最も多く含まれる範囲を探索して特定する(ステップS8)。例えば、図4(b)にあっては、範囲特定部7eは、AF評価領域P1〜P4、P6、P7、P9のAF評価値のピーク位置が存するフォーカスレンズアドレスが40近辺の範囲を評価値集中範囲Rとして特定する。その後、中央制御部14は、評価値集中範囲R内のAF評価領域Pの縁部分に対応するAF枠W(図5(c)等参照)をライブビュー画像の被写体Sに重畳させて表示部9に表示させる。
As shown in FIG. 3, the evaluation value calculation unit 7d of the AF processing unit 7 determines the level of contrast of the image based on the image data of the AF evaluation region P set by the region setting unit 7c for the analysis result image data L. An AF evaluation value is calculated (step S7). Specifically, the evaluation value calculation unit 7d is a predetermined number (for example, 20 to 30) of a plurality of (for example, 0 to 100) focus lens addresses that define the position of the focus lens 1 in the optical axis direction. An AF evaluation value is calculated for each of the plurality of AF evaluation areas P at the distance measurement position corresponding to the address.
Next, the range specifying unit 7e arranges the AF evaluation values of the plurality of AF evaluation areas P according to the focus lens address (ranging position), and searches for and specifies a range that includes the most peak positions of the AF evaluation values. (Step S8). For example, in FIG. 4B, the range specifying unit 7e evaluates the range where the focus lens address where the peak positions of the AF evaluation values of the AF evaluation areas P1 to P4, P6, P7, and P9 exist is around 40. It is specified as the concentration range R. Thereafter, the central control unit 14 superimposes an AF frame W (see FIG. 5C, etc.) corresponding to the edge portion of the AF evaluation area P within the evaluation value concentration range R on the subject S of the live view image, thereby displaying the display unit. 9 is displayed.

続けて、距離算出部7fは、範囲特定部7eにより特定された評価値集中範囲R内で、複数のAF評価値のピーク位置に対応するフォーカスレンズ1の測距位置を取得して、これら測距位置から換算した焦点距離の平均(平均焦点距離)を算出する(ステップS9)。例えば、図4(b)にあっては、距離算出部7fは、AF評価領域P1〜P4、P6、P7、P9のAF評価値のピーク位置に対応する焦点距離の平均を算出する。
次に、中央制御部14は、距離算出部7fにより算出された平均焦点距離に基づいて、所定の制御信号をレンズ駆動部2に出力してフォーカスモータを駆動させることで、フォーカスレンズ1の焦点距離が平均焦点距離となるように調整させる合焦処理を行う(ステップS10)。
Subsequently, the distance calculation unit 7f acquires the ranging positions of the focus lens 1 corresponding to the peak positions of the plurality of AF evaluation values within the evaluation value concentration range R specified by the range specifying unit 7e, and performs these measurement. The average focal length (average focal length) converted from the distance position is calculated (step S9). For example, in FIG. 4B, the distance calculation unit 7f calculates the average focal length corresponding to the peak positions of the AF evaluation values in the AF evaluation areas P1 to P4, P6, P7, and P9.
Next, the central control unit 14 outputs a predetermined control signal to the lens driving unit 2 to drive the focus motor based on the average focal length calculated by the distance calculation unit 7f, thereby driving the focus of the focus lens 1. A focusing process is performed to adjust the distance to the average focal length (step S10).

図2に示すように、一方、ステップS5にて、被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法以下であると判定されると(ステップS5;NO)、領域設定部7cは、画像領域Aの中心座標に最小寸法のAF評価領域Pの中心座標が重なるように当該最小寸法のAF評価領域Pを一つ設定する(ステップS11)。その後、中央制御部14は、AF評価領域Pの縁部分に対応するAF枠Wをライブビュー画像の被写体Sに重畳させて表示部9に表示させる。   As shown in FIG. 2, when it is determined in step S5 that the size of the image area A of the subject S is equal to or smaller than the minimum dimension of the AF evaluation area P (step S5; NO), the area setting unit 7c Then, one AF evaluation area P with the minimum dimension is set so that the center coordinates of the AF evaluation area P with the minimum dimension overlap the center coordinates of the image area A (step S11). Thereafter, the central control unit 14 causes the display unit 9 to display the AF frame W corresponding to the edge portion of the AF evaluation area P on the subject S of the live view image.

図3に示すように、評価値算出部7dは、解析結果画像データL(例えば、横×縦:40×30画素)について領域設定部7cにより設定されたAF評価領域Pの画像データに基づいて、画像のコントラストの高低を示すAF評価値を算出する処理を行った後、中央制御部14は、評価値算出部7dにより算出されたAF評価値のピーク位置に対応するフォーカスレンズ1の測距位置に基づいて、所定の制御信号をレンズ駆動部2に出力してフォーカスモータを駆動させることで、フォーカスレンズ1の合焦位置を調整させる合焦処理を行う(ステップS12)。
図2に示すように、また、ステップS4にて、被写体Sが検出されていないと判定された場合には(ステップS4;NO)、領域設定部7cは、測距方式を「スポットAF」に切り替えて画角の略中央にAF評価領域Pを設定した後(ステップS13)、中央制御部14は、処理をステップS12に移行させて、それ以降の処理を行う。
As shown in FIG. 3, the evaluation value calculation unit 7d is based on the image data of the AF evaluation region P set by the region setting unit 7c for the analysis result image data L (for example, horizontal × vertical: 40 × 30 pixels). After performing the process of calculating the AF evaluation value indicating the level of contrast of the image, the central control unit 14 measures the distance of the focus lens 1 corresponding to the peak position of the AF evaluation value calculated by the evaluation value calculation unit 7d. Based on the position, a predetermined control signal is output to the lens driving unit 2 to drive the focus motor, thereby performing a focusing process for adjusting the focus position of the focus lens 1 (step S12).
As shown in FIG. 2, when it is determined in step S4 that the subject S is not detected (step S4; NO), the area setting unit 7c sets the distance measuring method to “spot AF”. After switching and setting the AF evaluation area P at approximately the center of the angle of view (step S13), the central control unit 14 shifts the processing to step S12 and performs the subsequent processing.

図3に示すように、ステップS10若しくはステップS12における合焦処理の後、中央制御部14は、ユーザにより操作入力部11のシャッタボタン11aが全押し操作されたか否かを判定する(ステップS14)。
ここで、シャッタボタン11aが全押し操作されたと判定されると(ステップS14;YES)、中央制御部14は、撮像制御部5に露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、被写体(図5(c)等参照)の光学像を所定の条件で電子撮像部3により撮像させる。その後、中央制御部14は、ユニット回路4及び画像生成部6を経て生成された静止画像(若しくは、動画像)のYUVデータを画像処理部8の符号化部(図示略)により所定の符号化方式(例えば、JPEG方式やMPEG方式等)により圧縮・符号化させた後、画像記録部10に記録させる(ステップS15)。
As shown in FIG. 3, after the focusing process in step S10 or step S12, the central control unit 14 determines whether or not the shutter button 11a of the operation input unit 11 has been fully pressed by the user (step S14). .
If it is determined that the shutter button 11a has been fully pressed (step S14; YES), the central control unit 14 instructs the imaging control unit 5 to set exposure conditions (shutter speed, aperture, amplification factor, etc.), white balance, and the like. Are adjusted so that an optical image of a subject (see FIG. 5C and the like) is picked up by the electronic image pickup unit 3 under predetermined conditions. Thereafter, the central control unit 14 performs predetermined encoding on the YUV data of the still image (or moving image) generated through the unit circuit 4 and the image generation unit 6 by the encoding unit (not shown) of the image processing unit 8. After being compressed and encoded by a method (for example, JPEG method, MPEG method, etc.), it is recorded in the image recording unit 10 (step S15).

一方、ステップS14にて、シャッタボタン11aが全押し操作されていないと判定されると(ステップS14;NO)、中央制御部14は、シャッタボタン11aの半押し操作が解除されたか否かを判定する(ステップS16)。
ここで、シャッタボタン11aの半押し操作が解除されていないと判定されると(ステップS16;NO)、中央制御部14は、処理をステップS14に移行させて、シャッタボタン11aが全押し操作されるまで、それ以降の処理を繰り返し行う。一方、シャッタボタン11aの半押し操作が解除されたと判定されると(ステップS16;YES)、中央制御部14は、処理をステップS1に移行させて、撮像処理の最初から処理を開始する。
On the other hand, if it is determined in step S14 that the shutter button 11a has not been fully pressed (step S14; NO), the central control unit 14 determines whether or not the half-press operation of the shutter button 11a has been released. (Step S16).
If it is determined that the half-pressing operation of the shutter button 11a has not been released (step S16; NO), the central control unit 14 shifts the process to step S14, and the shutter button 11a is fully pressed. Until the process is repeated, the subsequent processing is repeated. On the other hand, if it is determined that the half-press operation of the shutter button 11a has been released (step S16; YES), the central control unit 14 shifts the process to step S1 and starts the process from the beginning of the imaging process.

以上のように、本実施形態の撮像装置100によれば、被写体Sの画像領域Aに基づいて、複数のAF評価領域Pを設定し、設定された複数のAF評価領域Pの画像データに基づいて、各AF評価領域PのAF評価値をそれぞれ算出するため、どのような構図であっても被写体Sの画像領域Aに対してAF評価領域Pを設定することができる。また、これら複数のAF評価値をフォーカスレンズ1の焦点距離に従って整列した場合に、AF評価値が集中している評価値集中範囲Rを特定して、当該評価値集中範囲R内の焦点距離でフォーカスレンズ1を合焦させるので、例えば、夜景(図5参照)や大きな被写体(図6、図7参照)といったコントラストの低くなる被写体Sであっても当該被写体Sに応じて複数のAF評価領域Pを設定することができ、これらのAF評価領域Pのうち、評価値集中範囲R内にAF評価値のピーク位置があるAF評価領域Pを有効として、評価値集中範囲R内の焦点距離でフォーカスレンズ1を合焦させることができる。
従って、構図に関わらず被写体Sに合焦させることができ、これにより、予めコントラストの高い部分に焦点を合わせた後、カメラをふってコントラストの低い部分を画角内に入れ直すといった動作も必要なくなり、当該撮像装置100の焦点調整を適正に、且つ、簡便に行うことができる。
As described above, according to the imaging apparatus 100 of the present embodiment, a plurality of AF evaluation areas P are set based on the image area A of the subject S, and based on the set image data of the plurality of AF evaluation areas P. Since the AF evaluation value of each AF evaluation area P is calculated, the AF evaluation area P can be set for the image area A of the subject S regardless of the composition. When these AF evaluation values are aligned according to the focal length of the focus lens 1, an evaluation value concentration range R in which the AF evaluation values are concentrated is specified, and the focal length within the evaluation value concentration range R is specified. Since the focus lens 1 is focused, for example, even if the subject S has a low contrast, such as a night view (see FIG. 5) or a large subject (see FIGS. 6 and 7), a plurality of AF evaluation regions corresponding to the subject S are used. P can be set, and among these AF evaluation areas P, the AF evaluation area P having the peak position of the AF evaluation value within the evaluation value concentration range R is validated, and the focal length within the evaluation value concentration range R is set. The focus lens 1 can be focused.
Therefore, it is possible to focus on the subject S regardless of the composition, so that it is not necessary to focus on a high-contrast portion in advance and then refocus the low-contrast portion within the angle of view by touching the camera. The focus adjustment of the imaging apparatus 100 can be performed appropriately and simply.

また、評価値集中範囲R内の複数のAF評価値のピーク位置に対応する焦点距離の平均を算出して、当該平均の焦点距離でフォーカスレンズ1を合焦させるので、被写体Sに応じて設定された複数のAF評価領域Pの中で、現象的にはピントがほぼ合った状態となるAF評価領域Pの数を増加させることができる。
即ち、例えば、図4(b)に示すように、9つのAF評価領域Pのうち、評価値集中範囲R内にAF評価値のピーク位置がある7つのAF評価領域Pについては、平均の焦点距離でフォーカスレンズ1を合焦させると、厳密に言えばピントが完全には合わず画像がぼけてしまう箇所もあるが、より多くのAF評価領域Pの画像に対して現象的にはピントがほぼ合った状態とすることで、コントラストの低い被写体Sに対しても焦点調整を簡便に行うことができる。
In addition, the average of the focal lengths corresponding to the peak positions of the plurality of AF evaluation values within the evaluation value concentration range R is calculated, and the focus lens 1 is focused at the average focal length. Among the plurality of AF evaluation areas P, it is possible to increase the number of AF evaluation areas P that are in focus in terms of phenomenon.
That is, for example, as shown in FIG. 4B, of the nine AF evaluation areas P, the seven AF evaluation areas P in which the peak position of the AF evaluation value is within the evaluation value concentration range R are average focus. Strictly speaking, if the focus lens 1 is focused at a distance, there may be a portion where the image is out of focus and the image is blurred. However, the focus is phenomenologically with respect to more images in the AF evaluation area P. The focus adjustment can be easily performed even on the subject S having a low contrast by setting it to a substantially matched state.

さらに、ライブビュー画像の表示中に、操作入力部11のシャッタボタン11aが半押し操作されると、フォーカスレンズ1を合焦させる焦点距離にあるAF評価領域Pに対応付けてAF枠Wを表示するので、評価値集中範囲R内にAF評価値のピーク位置がある有効なAF評価領域Pに対応するAF枠Wを複数表示することができ、ユーザに対して現象的にはピントがほぼ合った状態となっている箇所を報知することができる。従って、コントラストの低い被写体Sを撮影する場合であっても、ユーザに被写体Sにおけるピントがほぼ合っている箇所を認識させることができる。   Further, when the shutter button 11a of the operation input unit 11 is pressed halfway during the live view image display, the AF frame W is displayed in association with the AF evaluation area P at the focal length for focusing the focus lens 1. Therefore, a plurality of AF frames W corresponding to an effective AF evaluation area P having a peak position of the AF evaluation value within the evaluation value concentration range R can be displayed, and the user is substantially focused on the phenomenon. It is possible to notify the location that is in the state. Therefore, even when the subject S having a low contrast is photographed, the user can recognize a place where the subject S is in focus.

また、被写体Sの画像領域Aの寸法に応じてAF評価領域Pの設定数を変更して当該AF評価領域Pを設定することができる。具体的には、被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法よりも大きい場合には、AF評価領域Pを複数設定する一方で、被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法以下である場合には、AF評価領域Pを一つ設定することができる。即ち、被写体Sの画像領域Aの寸法に応じて、設定されるAF評価領域Pの数を変更することで、如何なる寸法の被写体Sにも対応することができ、フォーカスレンズ1の焦点調整をより適正に行うことができる。   Further, the AF evaluation area P can be set by changing the number of AF evaluation areas P set according to the size of the image area A of the subject S. Specifically, when the size of the image area A of the subject S is larger than the minimum size of the AF evaluation area P, a plurality of AF evaluation areas P are set, while the size of the image area A of the subject S is AF evaluation. If the area P is equal to or smaller than the minimum dimension, one AF evaluation area P can be set. That is, by changing the number of AF evaluation areas P to be set according to the size of the image area A of the subject S, it is possible to deal with the subject S of any size, and the focus adjustment of the focus lens 1 is further improved. It can be done properly.

また、AF評価領域Pを複数設定する場合には、被写体Sの画像領域Aを包含するように、即ち、被写体Sの画像領域Aと重なる位置や被写体Sの画像領域Aの輪郭部分と交わる位置に複数のAF評価領域Pの各々を設定するので、被写体S自体にはコントラストが少ない場合であっても、少なくとも被写体Sとそれ以外の部分との境界にコントラスト差があることから評価値算出部7dによってより適正なAF評価値を算出することができ、フォーカスレンズ1の焦点調整をより適正に行うことができる。   Further, when a plurality of AF evaluation areas P are set, the position so as to include the image area A of the subject S, that is, the position that overlaps the image area A of the subject S or the outline portion of the image area A of the subject S. Since each of the plurality of AF evaluation areas P is set to the evaluation value calculation unit, even if the subject S itself has a low contrast, there is a contrast difference at least at the boundary between the subject S and the other portions. A more appropriate AF evaluation value can be calculated by 7d, and the focus adjustment of the focus lens 1 can be performed more appropriately.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、評価値算出部7dにより算出されたAF評価値が集中している範囲として、予め所定の範囲に設定されている評価値集中範囲Rを例示したが、これに限られるものではなく、例えば、複数のAF評価領域PのAF評価値のうち、所定割合(例えば、5〜7割合)のAF評価値が含まれている範囲をAF評価値が集中している範囲としても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, the evaluation value concentration range R set in advance as a predetermined range is exemplified as the range in which the AF evaluation values calculated by the evaluation value calculation unit 7d are concentrated. However, the present invention is not limited to this. Of the AF evaluation values of a plurality of AF evaluation areas P, a range in which AF evaluation values of a predetermined ratio (for example, 5 to 7 ratio) are included may be set as a range in which AF evaluation values are concentrated.

また、上記実施形態にあっては、撮像処理における被写体Sの検出を、操作入力部11のシャッタボタン11aが半押し操作されたことを契機として行うようにしたが、シャッタボタン11aの操作の有無に関わらずライブビュー画像の表示中に必ず実行するようにしても良い。   In the above embodiment, the detection of the subject S in the imaging process is performed when the shutter button 11a of the operation input unit 11 is half-pressed. Regardless, it may be executed while the live view image is being displayed.

さらに、被写体Sの画像領域Aの特定にあっては、画像生成部6から送られてきた画像データから解析結果画像データLを生成して当該画像データLを用いて行うようにしたが、必ずしも解析結果画像データLを生成する必要はなく、画像生成部6から送られてきた画像データ自体を用いて行っても良い。   Furthermore, in specifying the image area A of the subject S, the analysis result image data L is generated from the image data sent from the image generation unit 6 and is performed using the image data L. There is no need to generate the analysis result image data L, and the image data itself sent from the image generation unit 6 may be used.

また、合焦手段として、中央制御部14及びレンズ駆動部2を例示したが、これに限られるものではなく、電子撮像部3を光軸方向に移動させる駆動機構(図示略)を設け、当該駆動機構を中央制御部14の制御下にて駆動させるようにしても良い。   Moreover, although the central control unit 14 and the lens driving unit 2 are illustrated as focusing means, the present invention is not limited to this, and a driving mechanism (not shown) that moves the electronic imaging unit 3 in the optical axis direction is provided. The drive mechanism may be driven under the control of the central control unit 14.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではなく、少なくとも撮像手段、検出手段、領域設定手段、算出手段、合焦手段を備える構成であれば適宜任意に変更することができる。   Further, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. The imaging device 100 includes at least an imaging unit, a detection unit, a region setting unit, a calculation unit, and a focusing unit. Any change can be made as appropriate.

加えて、上記実施形態にあっては、検出手段、領域設定手段、算出手段、合焦手段としての機能を、中央制御部14の制御下にて、AF処理部7、レンズ駆動部2が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部14によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ13に、検出処理ルーチン、領域設定処理ルーチン、算出処理ルーチン、合焦制御処理ルーチンを含むプログラムを記憶しておく。そして、検出処理ルーチンにより中央制御部14のCPUを、撮像手段により撮像された撮像画像Gから被写体Sの画像領域Aを検出する検出手段として機能させるようにしても良い。また、領域設定処理ルーチンにより中央制御部14のCPUを、検出処理ルーチンにより検出された被写体Sの画像領域Aに、合焦評価値(AF評価値)を算出すべき評価領域(AF評価領域P)を複数設定する領域設定手段として機能させるようにしても良い。また、算出処理ルーチンにより中央制御部14のCPUを、領域設定処理ルーチンにより設定された複数の評価領域について合焦評価値(AF評価値)をそれぞれ算出する算出手段として機能させるようにしても良い。また、合焦制御処理ルーチンにより中央制御部14のCPUを、算出処理ルーチンによる算出結果に基づいて撮像手段を合焦させる合焦手段として機能させるようにしても良い。
In addition, in the above embodiment, the AF processing unit 7 and the lens driving unit 2 drive the functions as the detection unit, the region setting unit, the calculation unit, and the focusing unit under the control of the central control unit 14. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the central control unit 14.
That is, a program including a detection processing routine, an area setting processing routine, a calculation processing routine, and a focusing control processing routine is stored in the program memory 13 that stores the program. Then, the CPU of the central control unit 14 may function as a detection unit that detects the image area A of the subject S from the captured image G captured by the imaging unit by the detection processing routine. Further, the CPU of the central control unit 14 in the area setting process routine, the evaluation area (AF evaluation area P) in which the focus evaluation value (AF evaluation value) is calculated in the image area A of the subject S detected in the detection process routine. ) May be made to function as an area setting means for setting a plurality. In addition, the CPU of the central control unit 14 may function as a calculation unit that calculates a focus evaluation value (AF evaluation value) for each of the plurality of evaluation areas set by the area setting process routine by the calculation process routine. . Further, the CPU of the central control unit 14 may function as a focusing unit that focuses the imaging unit based on the calculation result of the calculation processing routine by the focusing control processing routine.

100 撮像装置
1 フォーカスレンズ
2 レンズ駆動部
3 電子撮像部
7 AF処理部
7a 画像認識部
7b 領域判定部
7c 領域設定部
7d 評価値算出部
7e 範囲特定部
7f 距離算出部
11 操作入力部
11a シャッタボタン
14 中央制御部
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Focus lens 2 Lens drive part 3 Electronic imaging part 7 AF process part 7a Image recognition part 7b Area determination part 7c Area setting part 7d Evaluation value calculation part 7e Range specification part 7f Distance calculation part 11 Operation input part 11a Shutter button 14 Central control unit

Claims (6)

撮像手段と、
前記撮像手段により撮像される画像から被写体の画像領域を検出する検出手段と、
前記検出手段により検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する第1の領域設定手段と、
前記検出手段にて被写体の画像領域が検出できなかった場合には、撮像画角上の予め決められている特定位置に前記評価領域を1つだけ設定する第2の領域設定手段と、
前記第1の領域設定手段又は前記第2の領域設定手段により設定された前記評価領域について合焦評価値をそれぞれ算出する算出手段と、
前記算出手段による算出結果に基づいて合焦する合焦手段と、
を備え
前記第1の領域設定手段は、前記検出手段にて検出された被写体の画像領域を包含するように、当該画像領域の輪郭部分と交わる位置に複数の前記評価領域を設定し、
前記算出手段にて算出された合焦評価値に基づいて、前記第1の領域設定手段にて設定された前記複数の評価領域を取捨選択して絞り込む絞込手段と、
前記撮像手段にて撮像される画像をライブビュー画像として表示手段に表示させるとともに、前記絞込手段にて絞り込まれた前記評価領域を前記ライブビュー画像上に重畳表示させる表示制御手段とを更に備え、
前記合焦手段は、前記絞込手段にて絞り込まれた前記評価領域の合焦評価値に基づいて合焦することを特徴とする撮像装置。
Imaging means;
Detecting means for detecting an image area of a subject from an image captured by the imaging means;
First area setting means for setting a plurality of evaluation areas in which a focus evaluation value is to be calculated in the image area of the subject detected by the detection means;
A second area setting means for setting only one evaluation area at a predetermined specific position on the imaging angle of view when an image area of a subject cannot be detected by the detection means;
Calculation means for calculating a focus evaluation value for each of the evaluation areas set by the first area setting means or the second area setting means;
Focusing means for focusing based on the calculation result by the calculating means;
Equipped with a,
The first area setting means sets a plurality of the evaluation areas at positions intersecting with a contour portion of the image area so as to include the image area of the subject detected by the detection means,
Based on the focus evaluation value calculated by the calculation means, a narrowing means for selecting and narrowing down the plurality of evaluation areas set by the first area setting means;
Displaying means for causing the image picked up by the image pick-up means to be displayed as a live view image on the display means, and for displaying the evaluation area narrowed down by the narrowing means superimposed on the live view image. ,
The imaging apparatus characterized in that the focusing means focuses based on a focus evaluation value of the evaluation region narrowed down by the narrowing means .
前記算出手段により算出された複数の合焦評価値とこの合焦評価値から得られる焦点距離とに基づいて、前記算出された各評価領域の合焦評価値のピーク位置を所定の範囲内に最も多く含む焦点距離範囲を特定する特定手段を更に備え、
前記合焦手段は、前記特定手段により特定された焦点距離範囲に基づいて合焦することを特徴とする請求項1記載の撮像装置。
Based on the plurality of focus evaluation values calculated by the calculation means and the focal length obtained from the focus evaluation values, the peak positions of the focus evaluation values of the calculated evaluation regions are within a predetermined range. Further comprising a specifying means for specifying the focal length range including the most,
The imaging apparatus according to claim 1, wherein the focusing unit performs focusing based on a focal length range specified by the specifying unit.
前記特定手段により特定された範囲内の複数の合焦評価値のピーク位置に対応する焦点距離の平均を算出する平均距離算出手段を更に備え、
前記合焦手段は、前記平均距離算出手段により算出された平均の焦点距離で合焦することを特徴とする請求項記載の撮像装置。
Average distance calculating means for calculating an average of focal lengths corresponding to peak positions of a plurality of focus evaluation values within the range specified by the specifying means;
The imaging apparatus according to claim 2 , wherein the focusing unit focuses at the average focal length calculated by the average distance calculating unit.
前記特定手段により特定された焦点距離範囲の中間点の距離を算出する中間距離算出手段を更に備え、
前記合焦手段は、前記中間距離算出手段により算出された中間点の距離で合焦することを特徴とする請求項記載の撮像装置。
An intermediate distance calculating means for calculating the distance of the intermediate point of the focal length range specified by the specifying means;
The imaging apparatus according to claim 2 , wherein the focusing unit focuses at a distance of the intermediate point calculated by the intermediate distance calculating unit.
撮像装置の撮像部にて撮像される画像から被写体の画像領域を検出する検出ステップと、
前記検出ステップにて検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する第1の領域設定ステップと、
前記検出ステップにて被写体の画像領域が検出できなかった場合には、撮像画角上の予め決められている特定位置に前記評価領域を1つだけ設定する第2の領域設定ステップと、
前記第1の領域設定ステップ又は前記第2の領域設定ステップにて設定された前記評価領域について合焦評価値をそれぞれ算出する算出ステップと、
前記算出ステップでの算出結果に基づいて合焦する合焦ステップと、
を含み、
前記第1の領域設定ステップは、前記検出ステップにて検出された被写体の画像領域を包含するように、当該画像領域の輪郭部分と交わる位置に複数の前記評価領域を設定し、
前記算出ステップにて算出された合焦評価値に基づいて、前記第1の領域設定ステップにて設定された前記複数の評価領域を取捨選択して絞り込む絞込ステップと、
前記撮像部にて撮像される画像をライブビュー画像として表示手段に表示させるとともに、前記絞込ステップにて絞り込まれた前記評価領域を前記ライブビュー画像上に重畳表示させる表示制御ステップとを更に含み、
前記合焦ステップは、前記絞込ステップにて絞り込まれた前記評価領域の合焦評価値に基づいて合焦することを特徴とする合焦方法。
A detection step of detecting an image region of a subject from an image captured by an imaging unit of the imaging device;
A first area setting step for setting a plurality of evaluation areas in which a focus evaluation value is to be calculated in the image area of the subject detected in the detection step;
A second area setting step for setting only one evaluation area at a predetermined position on the imaging angle of view when an image area of the subject cannot be detected in the detection step;
A calculation step for calculating a focus evaluation value for each of the evaluation regions set in the first region setting step or the second region setting step;
A focusing step for focusing based on the calculation result in the calculation step;
Only including,
In the first area setting step, a plurality of the evaluation areas are set at positions intersecting with a contour portion of the image area so as to include the image area of the subject detected in the detection step,
Based on the focus evaluation value calculated in the calculation step, a narrowing step for selecting and narrowing down the plurality of evaluation regions set in the first region setting step;
A display control step for causing the image picked up by the image pickup unit to be displayed as a live view image on a display unit, and for displaying the evaluation region narrowed down in the narrowing down step on the live view image. ,
The focusing method is characterized in that focusing is performed based on a focus evaluation value of the evaluation area narrowed down in the narrowing down step .
撮像装置が備えるコンピュータを、
撮像される画像から被写体の画像領域を検出する検出手段、
前記検出手段によって検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する第1の領域設定手段、
前記検出手段にて被写体の画像領域が検出できなかった場合には、撮像画角上の予め決められている特定位置に前記評価領域を1つだけ設定する第2の領域設定手段、
前記前記第1の領域設定手段又は前記第2の領域設定手段によって設定された前記評価領域について合焦評価値をそれぞれ算出する算出手段、
前記算出手段における算出結果に基づいて合焦する合焦手段、
として機能させ
前記第1の領域設定手段は、前記検出手段にて検出された被写体の画像領域を包含するように、当該画像領域の輪郭部分と交わる位置に複数の前記評価領域を設定し、
前記算出手段にて算出された合焦評価値に基づいて、前記第1の領域設定手段にて設定された前記複数の評価領域を取捨選択して絞り込む絞込手段、
前記撮像装置にて撮像される画像をライブビュー画像として表示手段に表示させるとともに、前記絞込手段にて絞り込まれた前記評価領域を前記ライブビュー画像上に重畳表示させる表示制御手段として更に機能させ、
前記合焦手段は、前記絞込手段にて絞り込まれた前記評価領域の合焦評価値に基づいて合焦することを特徴とするプログラム。
A computer provided in the imaging apparatus;
Detecting means for detecting an image area of a subject from an image to be captured;
First area setting means for setting a plurality of evaluation areas in which a focus evaluation value is to be calculated in the image area of the subject detected by the detection means;
A second region setting unit configured to set only one evaluation region at a predetermined specific position on the imaging angle of view when the detection unit cannot detect the image region of the subject;
Calculating means for calculating a focus evaluation value for each of the evaluation areas set by the first area setting means or the second area setting means;
Focusing means for focusing based on the calculation result in the calculating means;
To function as,
The first area setting means sets a plurality of the evaluation areas at positions intersecting with a contour portion of the image area so as to include the image area of the subject detected by the detection means,
Based on the focus evaluation value calculated by the calculation means, a narrowing-down means for selecting and narrowing down the plurality of evaluation areas set by the first area setting means,
The image picked up by the image pickup device is displayed as a live view image on the display means, and further functions as a display control means for displaying the evaluation area narrowed down by the narrowing means superimposed on the live view image. ,
It said focusing means, program characterized Rukoto to be focused on the basis of the focus evaluation value of the evaluation region narrowed by the narrowing section.
JP2011160708A 2011-07-22 2011-07-22 Imaging apparatus, focusing method, and program Expired - Fee Related JP5477345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011160708A JP5477345B2 (en) 2011-07-22 2011-07-22 Imaging apparatus, focusing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011160708A JP5477345B2 (en) 2011-07-22 2011-07-22 Imaging apparatus, focusing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009146272A Division JP5195663B2 (en) 2009-06-19 2009-06-19 Imaging apparatus, focusing method, and program

Publications (2)

Publication Number Publication Date
JP2011242796A JP2011242796A (en) 2011-12-01
JP5477345B2 true JP5477345B2 (en) 2014-04-23

Family

ID=45409424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011160708A Expired - Fee Related JP5477345B2 (en) 2011-07-22 2011-07-22 Imaging apparatus, focusing method, and program

Country Status (1)

Country Link
JP (1) JP5477345B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6204660B2 (en) * 2012-12-21 2017-09-27 キヤノン株式会社 Imaging apparatus and control method thereof
CN111198466B (en) * 2018-11-16 2022-06-21 北京图森智途科技有限公司 Manual focusing auxiliary method, imaging device and automobile

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0642012B2 (en) * 1986-09-12 1994-06-01 富士写真フイルム株式会社 Autofocus method
JP4639837B2 (en) * 2005-02-15 2011-02-23 株式会社ニコン Electronic camera
JP2007178542A (en) * 2005-12-27 2007-07-12 Samsung Techwin Co Ltd Imaging apparatus
JP4910462B2 (en) * 2006-04-14 2012-04-04 株式会社ニコン camera
JP2008072696A (en) * 2006-08-14 2008-03-27 Seiko Epson Corp Focusing information visualization device, and corresponding method, program and recording medium
JP4824586B2 (en) * 2007-01-18 2011-11-30 株式会社リコー Imaging device
JP5446076B2 (en) * 2007-07-17 2014-03-19 株式会社ニコン Digital camera

Also Published As

Publication number Publication date
JP2011242796A (en) 2011-12-01

Similar Documents

Publication Publication Date Title
TWI468770B (en) Imaging apparatus, focusing method, and computer-readable recording medium recording program
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
JP6202860B2 (en) Imaging apparatus and imaging method
JP2007019973A (en) Imaging device and imaging method
JP5195660B2 (en) Imaging apparatus, focusing method, and program
JP2007108412A (en) Autofocus device and its program
JP2014081420A (en) Tracking device and method thereof
JP5092673B2 (en) Imaging apparatus and program thereof
JP5195663B2 (en) Imaging apparatus, focusing method, and program
JP5477345B2 (en) Imaging apparatus, focusing method, and program
JP5397426B2 (en) Imaging apparatus, focusing method, and program
JP6435527B2 (en) Imaging device
JP5561392B2 (en) Imaging apparatus, focusing method, and program
JP4985716B2 (en) Imaging apparatus, method for setting focus evaluation area, and program
JP2010134309A (en) Autofocus device, autofocus method and imaging apparatus
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
KR101720775B1 (en) Photoghraphing apparatus and method
JP5747474B2 (en) Imaging apparatus, imaging processing method, and program
JP2004309653A (en) Imaging unit
JP6347056B2 (en) Imaging apparatus and still image generation method
JP5644180B2 (en) Imaging apparatus, imaging method, and program
JP2009194469A (en) Imaging apparatus
JP5862732B2 (en) Imaging control apparatus, imaging control method, and program
JP5446977B2 (en) Imaging apparatus, imaging processing method, and program
JP2007201774A (en) Moving direction detecting apparatus, and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140127

R150 Certificate of patent or registration of utility model

Ref document number: 5477345

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees