JP2011002690A - Imaging apparatus, focusing method and program - Google Patents

Imaging apparatus, focusing method and program Download PDF

Info

Publication number
JP2011002690A
JP2011002690A JP2009146272A JP2009146272A JP2011002690A JP 2011002690 A JP2011002690 A JP 2011002690A JP 2009146272 A JP2009146272 A JP 2009146272A JP 2009146272 A JP2009146272 A JP 2009146272A JP 2011002690 A JP2011002690 A JP 2011002690A
Authority
JP
Japan
Prior art keywords
evaluation
image
unit
area
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009146272A
Other languages
Japanese (ja)
Other versions
JP5195663B2 (en
Inventor
Keiichi Imamura
圭一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009146272A priority Critical patent/JP5195663B2/en
Priority to US12/784,855 priority patent/US8717490B2/en
Priority to CN2010102068299A priority patent/CN101931752B/en
Priority to TW99119787A priority patent/TWI468770B/en
Publication of JP2011002690A publication Critical patent/JP2011002690A/en
Application granted granted Critical
Publication of JP5195663B2 publication Critical patent/JP5195663B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To set an AF evaluation area suitable to a subject.SOLUTION: The imaging apparatus 100 includes: an image recognition part 7a specifying the subject being a focusing object from image data of a picked-up image, and extracting the image area of the subject; an area setting part 7c setting a plurality of AF evaluation areas to the extracted image area of the subject; an evaluation value calculation part 7d calculating the AF evaluation value of each AF evaluation area based on the image data of the plurality of set AF evaluation areas; and a lens driving part 2 driving and focusing a focus lens 1 based on the calculated AF evaluation value.

Description

本発明は、画像認識機能を利用したオートフォーカス(自動合焦)処理を行う撮像装置、合焦方法及びプログラムに関する。   The present invention relates to an imaging apparatus, an in-focus method, and a program that perform an autofocus (autofocus) process using an image recognition function.

近年、デジタルカメラのオートフォーカス(AF)処理においては、顔認識技術等の画像認識技術が採用されることにより、人の顔の画像に合焦して撮影することが可能になっている。
また、上記の技術を応用した特許文献1に記載された技術では、撮像画像における検出された顔領域の位置や大きさを覚えて設定し、次回撮像されるスルー画像から顔領域を検出する際には、上記設定された位置や大きさで顔領域を検出することが記載されている。
In recent years, in an autofocus (AF) process of a digital camera, an image recognition technique such as a face recognition technique has been adopted, so that an image of a human face can be focused and photographed.
Further, in the technique described in Patent Document 1 to which the above technique is applied, the position and size of the detected face area in the captured image are set while being remembered, and the face area is detected from the through image captured next time. Describes that a face area is detected at the set position and size.

特開2008−164839号公報JP 2008-164839 A

しかしながら、上記特許文献1に係る技術においては、撮像画像における検出すべき顔領域の位置や大きさが設定されると、その設定した位置や大きさを優先して合焦すべき顔領域を探索するので、静止画撮影する場合には構図が固定されてしまうという問題があった。   However, in the technique according to Patent Document 1, when the position and size of the face area to be detected in the captured image are set, the face area to be focused is searched with priority on the set position and size. Therefore, there is a problem that the composition is fixed when taking a still image.

本発明の課題は、被写体に適したAF評価領域を設定することができるようにすることである。   An object of the present invention is to be able to set an AF evaluation area suitable for a subject.

上記課題を解決するため、請求項1に記載の発明の撮像装置は、
撮像手段と、前記撮像手段により撮像される画像から被写体の画像領域を検出する検出手段と、前記検出手段により検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する領域設定手段と、前記領域設定手段により設定された前記複数の評価領域について合焦評価値をそれぞれ算出する算出手段と、前記算出手段による算出結果に基づいて合焦する合焦手段と、を備えたことを特徴としている。
In order to solve the above problem, an imaging apparatus according to claim 1 is provided.
A plurality of evaluation areas for calculating a focus evaluation value are set in the imaging means, a detection means for detecting an image area of a subject from an image captured by the imaging means, and an image area of the subject detected by the detection means Area setting means, calculation means for calculating a focus evaluation value for each of the plurality of evaluation areas set by the area setting means, and focusing means for focusing based on a calculation result by the calculation means, It is characterized by having prepared.

請求項2に記載の発明は、請求項1記載の撮像装置において、
前記領域設定手段は、前記検出手段により検出された被写体の画像領域の寸法に応じて前記評価領域の設定数を変更して当該評価領域を設定することを特徴としている。
The invention according to claim 2 is the imaging apparatus according to claim 1,
The area setting means sets the evaluation area by changing the set number of the evaluation areas in accordance with the size of the image area of the subject detected by the detection means.

請求項3に記載の発明は、請求項1又は2項に記載の撮像装置において、
前記被写体の画像領域の寸法が前記評価領域として設定可能な最小寸法よりも大きいか否かを判定する第1判定手段を更に備え、前記領域設定手段は、前記第1判定手段による判定の結果、前記被写体の画像領域の寸法が前記評価領域の最小寸法よりも大きい場合に前記評価領域を複数設定する一方、前記被写体の画像領域の寸法が前記評価領域の最小寸法以下である場合に前記評価領域を一つ設定することを特徴としている。
The invention according to claim 3 is the imaging apparatus according to claim 1 or 2,
First determination means for determining whether or not the size of the image area of the subject is larger than a minimum dimension that can be set as the evaluation area, the area setting means is a result of the determination by the first determination means, A plurality of the evaluation areas are set when the dimension of the image area of the subject is larger than the minimum dimension of the evaluation area, and the evaluation area when the dimension of the image area of the subject is equal to or smaller than the minimum dimension of the evaluation area It is characterized by setting one.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の撮像装置において、
前記撮像画像に対する前記検出手段により検出された被写体の画像領域の寸法の割合が所定の割合以上であるか否かを判定する第2判定手段を更に備え、前記領域設定手段は、前記第2判定手段により前記撮像画像に対する前記被写体の画像領域の寸法の割合が所定の割合以上であると判定されると、前記評価領域を複数設定することを特徴としている。
Invention of Claim 4 is an imaging device as described in any one of Claims 1-3,
The apparatus further comprises second determination means for determining whether or not the ratio of the size of the image area of the subject detected by the detection means to the captured image is equal to or greater than a predetermined ratio, and the area setting means includes the second determination If it is determined by the means that the ratio of the size of the image area of the subject to the captured image is greater than or equal to a predetermined ratio, a plurality of the evaluation areas are set.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の撮像装置において、
前記領域設定手段は、前記検出手段により検出された被写体の画像領域を包含するように前記評価領域を複数設定することを特徴としている。
Invention of Claim 5 is an imaging device as described in any one of Claims 1-4,
The area setting means sets a plurality of the evaluation areas so as to include the image area of the subject detected by the detection means.

請求項6に記載の発明は、請求項1〜5の何れか一項に記載の撮像装置において、
前記算出手段により算出された複数の合焦評価値とこの合焦評価値から得られる焦点距離とに基づいて、前記算出された各評価領域の合焦評価値のピーク位置を所定の範囲内に最も多く含む焦点距離範囲を特定する特定手段を更に備え、前記合焦手段は、前記特定手段により特定された焦点距離範囲に基づいて合焦することを特徴としている。
Invention of Claim 6 is an imaging device as described in any one of Claims 1-5,
Based on the plurality of focus evaluation values calculated by the calculation means and the focal length obtained from the focus evaluation values, the peak positions of the focus evaluation values of the calculated evaluation regions are within a predetermined range. It further comprises specifying means for specifying the focal length range including the most, and the focusing means focuses on the basis of the focal length range specified by the specifying means.

請求項7に記載の発明は、請求項6に記載の撮像装置において、
前記特定手段により特定された範囲内の複数の合焦評価値のピーク位置に対応する焦点距離の平均を算出する平均距離算出手段を更に備え、前記合焦手段は、前記平均距離算出手段により算出された平均の焦点距離で合焦することを特徴としている。
The invention according to claim 7 is the imaging apparatus according to claim 6,
Average distance calculating means for calculating an average of focal lengths corresponding to peak positions of a plurality of focus evaluation values within the range specified by the specifying means is further provided, and the focusing means is calculated by the average distance calculating means. It is characterized by focusing at an average focal length.

請求項8に記載の発明は、請求項6に記載の撮像装置において、
前記特定手段により特定された焦点距離範囲の中間点の距離を算出する中間距離算出手段を備え、前記合焦手段は、前記中間距離算出手段により算出された中間点の距離で合焦することを特徴としている。
The invention according to claim 8 is the imaging apparatus according to claim 6,
An intermediate distance calculating unit that calculates the distance of the intermediate point of the focal distance range specified by the specifying unit is provided, and the focusing unit focuses on the intermediate point distance calculated by the intermediate distance calculating unit. It is a feature.

請求項9に記載の発明は、請求項1〜8の何れか一項に記載の撮像装置において、
前記撮像手段による撮像を指示する半押し操作可能な操作手段と、前記撮像手段により撮像された撮像画像を逐次表示するとともに、前記操作手段が半押し操作された際に、前記合焦手段により合焦する焦点距離にある評価領域に対応付けて合焦領域枠を表示する表示手段と、を更に備えることを特徴としている。
The invention according to claim 9 is the imaging apparatus according to any one of claims 1 to 8,
An operation means capable of half-pressing operation for instructing imaging by the imaging means and a captured image taken by the imaging means are sequentially displayed, and when the operating means is half-pressed, the focusing means performs focusing. Display means for displaying a focusing area frame in association with an evaluation area at a focal distance to be in focus.

請求項10に記載の発明の合焦方法は、
撮像装置の撮像部にて撮像される画像から被写体の画像領域を検出する検出ステップと、前記検出ステップにて検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する領域設定ステップと、前記領域設定ステップにて設定された前記複数の評価領域について合焦評価値をそれぞれ算出する算出ステップと、前記算出ステップでの算出結果に基づいて合焦する合焦ステップと、を含むことを特徴としている。
The focusing method of the invention according to claim 10 is:
A detection step for detecting an image area of a subject from an image captured by an imaging unit of the imaging device, and a plurality of evaluation areas for calculating a focus evaluation value are set in the image area of the subject detected in the detection step A region setting step, a calculation step for calculating a focus evaluation value for each of the plurality of evaluation regions set in the region setting step, and a focusing step for focusing based on a calculation result in the calculation step It is characterized by including.

請求項11に記載の発明のプログラムは、
撮像装置が備えるコンピュータを、撮像される画像から被写体の画像領域を検出する検出手段、前記検出手段によって検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する領域設定手段、前記領域設定手段によって設定された前記複数の評価領域について合焦評価値をそれぞれ算出する算出手段、前記算出手段における算出結果に基づいて合焦させる合焦手段、として機能させることを特徴としている。
The program of the invention described in claim 11 is
A detection unit for detecting a subject image region from a captured image, and a plurality of evaluation regions for calculating a focus evaluation value in the subject image region detected by the detection unit. A setting unit; a calculation unit that calculates a focus evaluation value for each of the plurality of evaluation regions set by the region setting unit; and a focusing unit that performs focusing based on a calculation result of the calculation unit. It is said.

本発明によれば、被写体に適したAF評価領域を設定することができる。   According to the present invention, an AF evaluation area suitable for a subject can be set.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 撮像装置による撮像処理に係る動作の一例を示すフローチャートである。12 is a flowchart illustrating an example of an operation related to an imaging process performed by the imaging apparatus. 図2の撮像処理の続きを示すフローチャートである。3 is a flowchart showing a continuation of the imaging process of FIG. 2. 図2の撮像処理に係るAF評価値とフォーカスレンズアドレスとの対応関係の一例を模式的に示す図である。FIG. 3 is a diagram schematically illustrating an example of a correspondence relationship between an AF evaluation value and a focus lens address according to the imaging process of FIG. 2. 図2の撮像処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the imaging process of FIG. 図2の撮像処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the imaging process of FIG. 図2の撮像処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the imaging process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.

本実施形態の撮像装置100は、図1に示すように、撮像装置100は、フォーカスレンズ1、レンズ駆動部2、電子撮像部3、ユニット回路4、撮像制御部5、画像生成部6、AF処理部7、画像処理部8、表示部9、画像記録部10、操作入力部11、バッファメモリ12、プログラムメモリ13、中央制御部14等を備えている。
また、レンズ駆動部2、撮像制御部5、画像生成部6、AF処理部7、画像処理部8、表示部9、画像記録部10、バッファメモリ12、プログラムメモリ13、中央制御部14は、バスライン15を介して接続されている。
As shown in FIG. 1, the imaging apparatus 100 according to the present embodiment includes a focus lens 1, a lens driving unit 2, an electronic imaging unit 3, a unit circuit 4, an imaging control unit 5, an image generation unit 6, and an AF. A processing unit 7, an image processing unit 8, a display unit 9, an image recording unit 10, an operation input unit 11, a buffer memory 12, a program memory 13, a central control unit 14 and the like are provided.
The lens driving unit 2, the imaging control unit 5, the image generation unit 6, the AF processing unit 7, the image processing unit 8, the display unit 9, the image recording unit 10, the buffer memory 12, the program memory 13, and the central control unit 14 are They are connected via a bus line 15.

レンズ駆動部2は、フォーカスレンズ1をそれぞれ光軸方向に駆動させる。具体的には、レンズ駆動部2は、フォーカスモータ等の駆動源と、中央制御部14からの制御信号に従って駆動源を駆動させるドライバ等を備えている(何れも図示略)。   The lens driving unit 2 drives the focus lens 1 in the optical axis direction. Specifically, the lens driving unit 2 includes a driving source such as a focus motor and a driver that drives the driving source in accordance with a control signal from the central control unit 14 (none of which is shown).

電子撮像部3は、フォーカスレンズ1の光軸上に配置されている。また、電子撮像部3は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、フォーカスレンズ1等の各種レンズを通過した光学像を二次元の画像信号に変換する。   The electronic imaging unit 3 is disposed on the optical axis of the focus lens 1. The electronic imaging unit 3 is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and a two-dimensional image obtained by passing through various lenses such as the focus lens 1. Convert to signal.

ユニット回路4は、電子撮像部3から出力される被写体の光学像に応じたアナログの撮像信号が入力され、入力された撮像信号を保持するCDSと、その撮像信号を増幅するゲイン調整アンプ(AGC)、増幅された撮像信号をデジタルの撮像信号に変換するA/D変換器(ADC)等から構成されている。
そして、ユニット回路4は、デジタルの撮像信号を画像生成部6に送信する。
The unit circuit 4 receives an analog imaging signal corresponding to the optical image of the subject output from the electronic imaging unit 3, receives a CDS that holds the input imaging signal, and a gain adjustment amplifier (AGC) that amplifies the imaging signal. ), An A / D converter (ADC) for converting the amplified imaging signal into a digital imaging signal, and the like.
Then, the unit circuit 4 transmits a digital imaging signal to the image generation unit 6.

撮像制御部5は、中央制御部14が設定するフレームレートに従ったタイミングで、電子撮像部3やユニット回路4を駆動させる制御を行う。具体的には、撮像制御部5は、TG(Timing Generator)、電子撮像部3を駆動するドライバ等(何れも図示略)を備え、TGを介してドライバやユニット回路4の動作タイミングを制御する。即ち、中央制御部14が、プログラムメモリ13から読み出したプログラム線図に従ってシャッタースピードを設定すると、撮像制御部5のTGは、当該シャッタースピードに対応する電荷蓄積時間をシャッターパルスとしてドライバに出力し、ドライバからの駆動パルス信号に従って電子撮像部3を動作させて電荷蓄積時間(露光時間)を制御する。   The imaging control unit 5 performs control to drive the electronic imaging unit 3 and the unit circuit 4 at a timing according to the frame rate set by the central control unit 14. Specifically, the imaging control unit 5 includes a TG (Timing Generator), a driver for driving the electronic imaging unit 3, and the like (both not shown), and controls the operation timing of the driver and the unit circuit 4 via the TG. . That is, when the central control unit 14 sets the shutter speed according to the program diagram read from the program memory 13, the TG of the imaging control unit 5 outputs the charge accumulation time corresponding to the shutter speed to the driver as a shutter pulse, The electronic image pickup unit 3 is operated in accordance with the drive pulse signal from the driver to control the charge accumulation time (exposure time).

このように構成されたフォーカスレンズ1、電子撮像部3、ユニット回路4及び撮像制御部5は、被写体を撮像する撮像手段を構成している。   The focus lens 1, the electronic imaging unit 3, the unit circuit 4, and the imaging control unit 5 configured in this way constitute imaging means for imaging a subject.

画像生成部6は、ユニット回路4から送られてきた画像データに対してγ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)を生成する。そして、画像生成部6は、生成された輝度色差信号の画像データをAF処理部7及び画像処理部8に出力する。   The image generation unit 6 performs processing such as γ correction processing and white balance processing on the image data sent from the unit circuit 4 and generates a luminance color difference signal (YUV data). Then, the image generation unit 6 outputs the generated image data of the luminance / color difference signal to the AF processing unit 7 and the image processing unit 8.

AF処理部7は、撮像画像G(図5(a)等参照)の画像データに基づいて、当該撮像画像Gの画像認識を行う画像認識部7aを具備している。
画像認識部7aは、例えば、画像生成部6から画像データが送られてくる毎に当該画像データに対して、水平方向(横)及び垂直方向(縦)ともに所定倍率の縮小処理を行って低解像度の画像データを得、更に、この低解像度の画像データについて所定の画像認識技術を利用して解析した結果を示す解析結果画像データ(例えば、横×縦:40×30画素;図5(b)参照)Lを逐次生成する。そして、画像認識部7aは、解析結果画像データLに対して所定の画像認識技術を利用して合焦対象となる被写体Sを特定して画像領域Aを抽出する。
画像認識処理は、例えば、色、明るさ、コントラスト、高周波成分情報などの画像の各種情報を利用して被写体Sの画素集合の輪郭を抽出することで行っても良いし、予め被写体Sの種類を特定しておき当該被写体Sの特徴情報と比較判定して輪郭を抽出することで行っても良い。
ここで、画像認識部7aは、撮像画像Gから被写体Sの画像領域Aを検出する検出手段を構成している。
The AF processing unit 7 includes an image recognition unit 7a that performs image recognition of the captured image G based on image data of the captured image G (see FIG. 5A and the like).
For example, each time image data is sent from the image generation unit 6, the image recognition unit 7 a performs a reduction process with a predetermined magnification on the image data in both the horizontal direction (horizontal) and the vertical direction (vertical). Further, analysis result image data (for example, horizontal × vertical: 40 × 30 pixels; FIG. 5B) showing the result of analyzing the low-resolution image data using a predetermined image recognition technique is obtained. ) See) Sequentially generate L. Then, the image recognition unit 7a uses the predetermined image recognition technique for the analysis result image data L to identify the subject S to be focused and extracts the image area A.
The image recognition process may be performed by extracting the outline of the pixel set of the subject S using various information of the image such as color, brightness, contrast, and high-frequency component information, for example. This may be performed by extracting the outline by specifying and comparing with the feature information of the subject S.
Here, the image recognition unit 7 a constitutes a detection unit that detects the image area A of the subject S from the captured image G.

なお、図5(b)、図6(b)、図7(b)にあっては、解析結果画像データを二値化して表しており、ドットなし白抜きで表されている画像領域Aが被写体Sに相当し、ドット有りの黒で表されている画像領域Aが被写体S以外の部分に相当する。
また、被写体Sは、必ずしも一つの被写体として独立している必要はなく、複数の被写体が前後方向に重なった状態であっても良いし、複数の被写体が左右若しくは上下方向に離れて分離した状態であっても良い。
In FIGS. 5B, 6B, and 7B, the analysis result image data is binarized and an image area A represented by white without dots is represented. An image area A that corresponds to the subject S and is represented by black with dots corresponds to a portion other than the subject S.
In addition, the subject S does not necessarily have to be independent as one subject, and a plurality of subjects may overlap in the front-rear direction, or a plurality of subjects may be separated in the left-right or up-down direction. It may be.

また、AF処理部7は、被写体Sの画像領域Aの寸法を基準として判定処理を行う領域判定部7bを具備している。
領域判定部7bは、第1判定手段として、画像認識部7aにより検出された被写体Sの画像領域Aの寸法が、予め設定されている各AF評価領域Pの最小寸法よりも大きいか否かを判定する。AF評価領域Pの最小寸法は、例えば、低解像度(例えば、横×縦:40×30画素)の画像データである解析結果画像データLに対して、最小の水平幅が6画素、最小の垂直幅が4画素に設定されている。
ここで、領域判定部7bは、被写体Sの画像領域Aの寸法がAF評価領域Pとして設定可能な最小寸法よりも大きいか否かを判定する第1判定手段を構成している。
The AF processing unit 7 includes an area determination unit 7b that performs a determination process based on the size of the image area A of the subject S.
As a first determination unit, the region determination unit 7b determines whether the size of the image region A of the subject S detected by the image recognition unit 7a is larger than the preset minimum size of each AF evaluation region P. judge. The minimum dimension of the AF evaluation area P is, for example, a minimum horizontal width of 6 pixels and a minimum vertical with respect to the analysis result image data L which is low resolution (for example, horizontal x vertical: 40 x 30 pixels) image data. The width is set to 4 pixels.
Here, the area determination unit 7b constitutes first determination means for determining whether or not the size of the image area A of the subject S is larger than the minimum dimension that can be set as the AF evaluation area P.

また、AF処理部7は、フォーカスレンズ1の合焦状態の評価領域であるAF評価領域Pを設定する領域設定部7cを具備している。
領域設定部7cは、撮像画像Gにおけるフォーカスレンズ1の合焦状態の評価に係り、評価値算出部7dによってAF評価値が算出されるAF評価領域P(図5(a)等参照)を設定する。即ち、領域検出部は、被写体Sの画像領域Aの寸法(例えば、被写体Sの画像領域Aを囲む最小の矩形枠等)に応じてAF評価領域Pの設定数を変更して当該AF評価領域Pを設定する。具体的には、領域設定部7cは、領域判定部7bにより被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法よりも大きいと判定された場合、AF評価領域Pを複数(例えば、9個;図4(a)参照)設定する。このとき、領域設定部7cは、被写体Sの画像領域Aを包含するように、被写体Sの画像領域Aと重なる位置や被写体Sの画像領域Aの輪郭部分と交わる位置に複数のAF評価領域Pの各々を設定する。一方、領域判定部7bにより被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法以下であると判定された場合、領域設定部7cは、AF評価領域Pを一つ設定する。
また、領域設定部7cは、画像認識部7aにより被写体Sが検出されなかった場合には、測距方式を「スポットAF」に切り替えて画角の略中央にAF評価領域を設定する。
ここで、領域設定部7cは、画像認識部7aにより検出された被写体Sの画像領域Aに、撮像手段の合焦状態の評価領域としてAF評価値を算出すべきAF評価領域Pを複数設定する領域設定手段を構成している。
In addition, the AF processing unit 7 includes an area setting unit 7 c that sets an AF evaluation area P that is an evaluation area of the focus state of the focus lens 1.
The area setting unit 7c sets an AF evaluation area P (see FIG. 5A and the like) in which the AF evaluation value is calculated by the evaluation value calculation unit 7d in connection with the evaluation of the focus state of the focus lens 1 in the captured image G. To do. That is, the area detection unit changes the set number of AF evaluation areas P according to the size of the image area A of the subject S (for example, the smallest rectangular frame surrounding the image area A of the subject S), and the AF evaluation area Set P. Specifically, the area setting unit 7c determines that the area determination unit 7b determines that the size of the image area A of the subject S is larger than the minimum dimension of the AF evaluation area P. 9; see FIG. 4A). At this time, the area setting unit 7c includes a plurality of AF evaluation areas P at positions that overlap with the image area A of the subject S or positions that intersect the contour portion of the image area A of the subject S so as to include the image area A of the subject S. Set each of. On the other hand, when the area determination unit 7b determines that the size of the image area A of the subject S is equal to or smaller than the minimum dimension of the AF evaluation area P, the area setting unit 7c sets one AF evaluation area P.
In addition, when the subject S is not detected by the image recognition unit 7a, the region setting unit 7c switches the distance measurement method to “spot AF” and sets the AF evaluation region at the approximate center of the angle of view.
Here, the area setting unit 7c sets a plurality of AF evaluation areas P in which AF evaluation values should be calculated as evaluation areas for the focusing state of the imaging unit in the image area A of the subject S detected by the image recognition unit 7a. It constitutes an area setting means.

なお、領域設定部7cは、撮像画像Gに対する被写体Sの画像領域Aの寸法の割合が所定の割合(例えば、5割)以上である場合に、AF評価領域Pを複数設定しても良い。即ち、第2判定手段としての領域判定部7bが、撮像画像Gに対する被写体Sの画像領域Aの寸法の割合が所定の割合(例えば、5割)以上であるか否かを判定し、当該判定の結果、撮像画像Gに対する被写体Sの画像領域Aの寸法の割合が所定の割合(例えば、5割)以上であると判定された場合に、領域設定部7cは、AF評価領域Pを複数設定する。   The area setting unit 7c may set a plurality of AF evaluation areas P when the ratio of the size of the image area A of the subject S to the captured image G is a predetermined ratio (for example, 50%) or more. That is, the area determination unit 7b as the second determination unit determines whether or not the ratio of the size of the image area A of the subject S to the captured image G is equal to or greater than a predetermined ratio (for example, 50%). As a result, when it is determined that the ratio of the size of the image area A of the subject S to the captured image G is a predetermined ratio (for example, 50%) or more, the area setting unit 7c sets a plurality of AF evaluation areas P. To do.

また、AF処理部7は、フォーカスレンズ1の合焦状態の評価に係るAF評価値を算出する評価値算出部7dを具備している。
評価値算出部7dは、画像認識部7aにより生成された解析結果画像データLについて、領域設定部7cにより設定された各AF評価領域Pの画像データに基づいて、各AF評価領域Pの画像のコントラストの高低を示すAF評価値(図4(b)参照)を算出する。具体的には、自動合焦処理にてフォーカスレンズ1をレンズ駆動部2により光軸方向に移動させる際に、評価値算出部7dは、フォーカスレンズ1の光軸方向の位置を規定する複数(例えば、0〜100)のフォーカスレンズアドレスのうち、所定数(例えば、20〜30個)のアドレスに対応する測距位置で、複数のAF評価領域Pの各々についてAF評価値を算出する。
なお、図4(b)にあっては、例えば、AF評価領域Pを9つ設定した場合において、評価値算出部7dにより算出された各AF評価領域P1〜P9のAF評価値についてフォーカスレンズアドレスと対応付けて表している。
ここで、評価値算出部7dは、領域設定部7cにより設定された複数のAF評価領域Pについて、AF評価値(合焦評価値)をそれぞれ算出する算出手段を構成している。
In addition, the AF processing unit 7 includes an evaluation value calculation unit 7 d that calculates an AF evaluation value related to the evaluation of the focus state of the focus lens 1.
The evaluation value calculation unit 7d uses the analysis result image data L generated by the image recognition unit 7a based on the image data of each AF evaluation region P set by the region setting unit 7c. An AF evaluation value (see FIG. 4B) indicating the level of contrast is calculated. Specifically, when the focus lens 1 is moved in the optical axis direction by the lens driving unit 2 in the automatic focusing process, the evaluation value calculation unit 7d defines a plurality of ( For example, an AF evaluation value is calculated for each of a plurality of AF evaluation areas P at ranging positions corresponding to a predetermined number (for example, 20 to 30) of addresses among 0 to 100 focus lens addresses.
In FIG. 4B, for example, when nine AF evaluation areas P are set, the focus lens address for the AF evaluation values of the AF evaluation areas P1 to P9 calculated by the evaluation value calculation unit 7d. Are shown in association with each other.
Here, the evaluation value calculation unit 7d constitutes a calculation unit that calculates an AF evaluation value (focus evaluation value) for each of the plurality of AF evaluation regions P set by the region setting unit 7c.

また、AF処理部7は、複数のAF評価値をフォーカスレンズ1の測距位置に従って整列した場合に、AF評価値が集中している範囲を特定する範囲特定部7eを具備している。
範囲特定部7eは、具体的には、先ず、複数のAF評価領域PのAF評価値をフォーカスレンズアドレス(測距位置)に従って整列して、所定の範囲に設定されている評価値探索範囲内にAF評価値のピーク位置が最も多く含まれる位置を探索する。例えば、図4(b)にあっては、AF評価領域P5、P8以外のAF評価領域P1〜P4、P6、P7、P9のAF評価値のピーク位置は、フォーカスレンズアドレスが40近辺となっており、当該アドレスが集中している範囲を評価値集中範囲Rとして特定する。
なお、図4(b)にあっては、各AF評価領域PのAF評価値をフォーカスレンズ1の測距位置と対応付けて整列したが、フォーカスレンズ1の焦点距離に従って整列しても良い。
ここで、範囲特定部7eは、評価値算出部7dにより算出された複数のAF評価値とこのAF評価値から得られる焦点距離とに基づいて、各AF評価領域のAF評価値のピーク位置を所定の範囲内に最も多く含む焦点距離範囲(評価値集中範囲R)を特定する特定手段を構成している。
In addition, the AF processing unit 7 includes a range specifying unit 7e that specifies a range in which AF evaluation values are concentrated when a plurality of AF evaluation values are aligned according to the distance measurement position of the focus lens 1.
Specifically, the range specifying unit 7e first arranges the AF evaluation values of the plurality of AF evaluation areas P according to the focus lens address (ranging position), and within the evaluation value search range set to a predetermined range. Are searched for the positions where the peak positions of the AF evaluation values are most frequently included. For example, in FIG. 4B, the peak position of the AF evaluation values in the AF evaluation areas P1 to P4, P6, P7, and P9 other than the AF evaluation areas P5 and P8 is around 40 in the focus lens address. The range in which the addresses are concentrated is specified as the evaluation value concentration range R.
In FIG. 4B, the AF evaluation values of each AF evaluation area P are aligned in association with the distance measurement position of the focus lens 1, but may be aligned according to the focal distance of the focus lens 1.
Here, the range specifying unit 7e determines the peak position of the AF evaluation value in each AF evaluation region based on the plurality of AF evaluation values calculated by the evaluation value calculating unit 7d and the focal length obtained from the AF evaluation value. A specifying means for specifying a focal length range (evaluation value concentration range R) that is included most in a predetermined range is configured.

また、AF処理部7は、撮像手段を合焦可能な焦点距離を算出する距離算出部7fを具備している。
距離算出部7fは、範囲特定部7eにより特定された評価値集中範囲R内で、複数のAF評価値のピーク位置に対応するフォーカスレンズ1の測距位置を取得して、これら測距位置から換算した焦点距離の平均(平均焦点距離)を算出する。例えば、図4(b)にあっては、距離算出部7fは、範囲特定部7eにより特定された評価値集中範囲R内に存するAF評価領域P1〜P4、P6、P7、P9のAF評価値のピーク位置に対応する焦点距離の平均を算出することで平均焦点距離を特定する。
ここで、距離算出部7fは、範囲特定部7eにより特定された評価値集中範囲R内の複数のAF評価値のピーク位置に対応する焦点距離の平均を算出する平均距離算出手段を構成している。
Further, the AF processing unit 7 includes a distance calculation unit 7f that calculates a focal length at which the imaging unit can be focused.
The distance calculation unit 7f acquires the distance measurement positions of the focus lens 1 corresponding to the peak positions of the plurality of AF evaluation values within the evaluation value concentration range R specified by the range specification part 7e, and uses these distance measurement positions. The average of the converted focal lengths (average focal length) is calculated. For example, in FIG. 4B, the distance calculation unit 7f includes the AF evaluation values of the AF evaluation areas P1 to P4, P6, P7, and P9 existing in the evaluation value concentration range R specified by the range specifying unit 7e. The average focal length is specified by calculating the average of the focal lengths corresponding to the peak positions.
Here, the distance calculation unit 7f constitutes an average distance calculation unit that calculates the average of the focal lengths corresponding to the peak positions of the plurality of AF evaluation values within the evaluation value concentration range R specified by the range specifying unit 7e. Yes.

なお、距離算出部(算出手段)7fは、複数のAF評価領域Pの焦点距離の平均に代えて、評価値集中範囲R内で、複数のAF評価領域Pのうちの最多のAF評価領域Pに対して合焦可能なフォーカスレンズアドレスを焦点距離として算出しても良い。即ち、距離算出部7fは、評価値集中範囲R内で、最も多くのAF評価領域Pの画像を被写界深度内に含むことができるフォーカスレンズアドレスを焦点距離として算出しても良い。
また、距離算出部7fが、中間距離算出手段として、評価値集中範囲Rの中間位置を算出して焦点距離としても良い。
The distance calculating unit (calculating unit) 7f replaces the average of the focal lengths of the plurality of AF evaluation areas P with the largest number of AF evaluation areas P among the plurality of AF evaluation areas P within the evaluation value concentration range R. The focus lens address that can be focused on may be calculated as the focal length. That is, the distance calculation unit 7f may calculate, as the focal length, a focus lens address that can include the most AF evaluation region P images within the depth of field within the evaluation value concentration range R.
In addition, the distance calculation unit 7f may calculate the intermediate position of the evaluation value concentration range R as the intermediate distance calculation means to obtain the focal distance.

画像処理部8は、画像生成部6により生成された画像データ(YUVデータ)を所定の符号化方式(例えば、JPEG方式等)により圧縮・符号化する符号化部(図示略)や、画像記録部10から読み出された符号化された画像データを当該符号化方式に対応する復号化方式で復号化する復号化部等(何れも図示略)を具備している。   The image processing unit 8 includes an encoding unit (not shown) that compresses and encodes image data (YUV data) generated by the image generation unit 6 using a predetermined encoding method (for example, JPEG method), and image recording. The image processing apparatus includes a decoding unit (not shown) that decodes the encoded image data read from the unit 10 using a decoding method corresponding to the encoding method.

表示部9は、バッファメモリ12に格納された1フレーム分のYUVデータをビデオ信号に変換した後、ライブビュー画像として表示画面に表示する。具体的には、表示部9は、被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を逐次表示したり、本撮像画像として撮像されたレックビュー画像を表示する。
また、画像再生時においては、表示部9は、画像記録部10から読み出されて画像処理部8にて復号化された画像データに基づく画像を表示する。
The display unit 9 converts the YUV data for one frame stored in the buffer memory 12 into a video signal, and then displays it as a live view image on the display screen. Specifically, the display unit 9 sequentially displays a live view image based on a plurality of image frames generated by imaging a subject, or displays a REC view image captured as a main captured image.
At the time of image reproduction, the display unit 9 displays an image based on the image data read from the image recording unit 10 and decoded by the image processing unit 8.

また、表示部9は、表示手段として、ライブビュー画像の表示中に、操作入力部11のシャッタボタン11aが半押し操作されると、合焦する焦点距離にあるAF評価領域Pに対応付けてAF枠(合焦領域枠)Wを表示する(図5(c)、図6(c)、図7(c)参照)。   Further, as a display unit, the display unit 9 is associated with the AF evaluation region P at the focal length that is in focus when the shutter button 11a of the operation input unit 11 is half-pressed during display of the live view image. An AF frame (in-focus area frame) W is displayed (see FIGS. 5C, 6C, and 7C).

画像記録部10は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部10は、画像処理部8の符号化部(図示略)により所定の符号化方式(例えば、JPEG方式やMPEG方式等)により圧縮・符号化された静止画像データや動画像データを記録する。   The image recording unit 10 is configured by, for example, a nonvolatile memory (flash memory). The image recording unit 10 also includes still image data and moving image data that have been compressed and encoded by a coding unit (not shown) of the image processing unit 8 using a predetermined coding method (for example, JPEG method, MPEG method, etc.). Record.

操作入力部11は、当該撮像装置100の所定操作を行うためのものである。具体的には、操作入力部11は、被写体の撮影指示に係り、半押し及び全押し操作可能なシャッタボタン11a、撮像モードや機能等の選択指示に係る選択決定ボタン(図示略)、ズーム量の調整指示に係るズームボタン(図示略)等を備え、これらのボタンの操作に応じて所定の操作信号を中央制御部14に出力する。   The operation input unit 11 is for performing a predetermined operation of the imaging apparatus 100. Specifically, the operation input unit 11 is related to a subject shooting instruction, a shutter button 11a that can be half-pressed and fully pressed, a selection determination button (not shown) related to a selection instruction such as an imaging mode or a function, and a zoom amount. A zoom button (not shown) associated with the adjustment instruction is provided, and a predetermined operation signal is output to the central control unit 14 in accordance with the operation of these buttons.

バッファメモリ12は、画像データ等を一時保存するバッファであるとともに、中央制御部14のワーキングメモリ等としても使用される。   The buffer memory 12 is a buffer for temporarily storing image data and the like, and is also used as a working memory for the central control unit 14.

プログラムメモリ13には、当該撮像装置100の機能に係る各種プログラムやデータが格納されている。また、プログラムメモリ13には、静止画撮影時、連写時、ライブビュー画像撮影時等の各撮影時における適正な露出値(EV)に対応する絞り値(F)とシャッタースピードとの組み合わせを示すプログラム線図を構成するプログラムAEデータや、EV値表も格納されている。   The program memory 13 stores various programs and data related to the functions of the imaging apparatus 100. The program memory 13 also has a combination of an aperture value (F) and a shutter speed corresponding to an appropriate exposure value (EV) at each shooting such as still image shooting, continuous shooting, and live view image shooting. Program AE data constituting the program diagram shown and an EV value table are also stored.

中央制御部14は、撮像装置100の各部を制御するワンチップマイコンである。
また、中央制御部14は、操作入力部11から出力され入力された操作信号に基づいて、撮像装置100の各部を制御する。具体的には、中央制御部14は、操作入力部11のシャッタボタン11aの所定操作に従って出力された撮像信号が入力されると、プログラムメモリ13に記憶されている所定のプログラムに従って、TGにより電子撮像部3及びユニット回路4の駆動タイミングを制御して静止画像を撮影する処理を実行する。この静止画像の撮影によりバッファメモリ12に格納された1フレーム分のYUVデータは、画像処理部8にてJPEG方式等により圧縮され符号化されて、画像記録部10に静止画像データとして記録される。
The central control unit 14 is a one-chip microcomputer that controls each unit of the imaging apparatus 100.
The central control unit 14 controls each unit of the imaging apparatus 100 based on the operation signal output from the operation input unit 11 and input. Specifically, when an imaging signal output according to a predetermined operation of the shutter button 11a of the operation input unit 11 is input, the central control unit 14 performs electronic control using a TG according to a predetermined program stored in the program memory 13. A process of taking a still image by controlling the drive timing of the imaging unit 3 and the unit circuit 4 is executed. One frame of YUV data stored in the buffer memory 12 by shooting this still image is compressed and encoded by the image processing unit 8 by the JPEG method or the like, and recorded as still image data in the image recording unit 10. .

また、中央制御部14は、自動合焦処理にて、フォーカスレンズ1の焦点距離が範囲特定部7eにより特定された評価値集中範囲R内の焦点距離となるように、所定の制御信号をレンズ駆動部2に出力してフォーカスモータを駆動させて当該フォーカスレンズ1の合焦位置を調整する。具体的には、中央制御部14は、評価値集中範囲Rの複数の焦点距離から距離算出部7fにより算出された平均焦点距離に基づいて、所定の制御信号をレンズ駆動部2に出力してフォーカスモータを駆動させることで、フォーカスレンズ1の焦点距離が平均焦点距離となるように調整する。
ここで、中央制御部14、フォーカスレンズ1及びレンズ駆動部2は、評価値算出部7dによる算出結果に基づいて合焦する合焦手段を構成している。
Further, the central control unit 14 sends a predetermined control signal to the lens so that the focal length of the focus lens 1 becomes the focal length within the evaluation value concentration range R specified by the range specifying unit 7e in the automatic focusing process. It outputs to the drive part 2 and drives a focus motor to adjust the focus position of the focus lens 1. Specifically, the central control unit 14 outputs a predetermined control signal to the lens driving unit 2 based on the average focal length calculated by the distance calculation unit 7f from a plurality of focal lengths in the evaluation value concentration range R. By driving the focus motor, the focal length of the focus lens 1 is adjusted to be the average focal length.
Here, the central control unit 14, the focus lens 1, and the lens driving unit 2 constitute focusing means for focusing based on the calculation result by the evaluation value calculation unit 7d.

次に、撮像装置100による合焦方法に係る撮像処理について、図2〜図7を参照して説明する。
図2及び図3は、撮像処理に係る動作の一例を示すフローチャートである。
撮像処理は、中央制御部14の制御下にて静止画像や動画像を撮像する処理であり、ユーザによる操作入力部11の選択決定ボタンの所定操作に基づいて、メニュー画面に表示された複数の撮像モードの中から撮像モードが選択指示された場合に実行される。
Next, imaging processing according to the focusing method performed by the imaging apparatus 100 will be described with reference to FIGS.
2 and 3 are flowcharts illustrating an example of an operation related to the imaging process.
The imaging process is a process of capturing a still image or a moving image under the control of the central control unit 14, and a plurality of images displayed on the menu screen based on a predetermined operation of the selection determination button of the operation input unit 11 by the user. This is executed when an imaging mode is selected from the imaging modes.

図2に示すように、先ず、中央制御部14は、被写体の撮像により生成された複数の画像フレームに基づいてライブビュー画像を表示部9の表示画面に表示させる(ステップS1)。
続けて、中央制御部14は、ユーザにより操作入力部11のシャッタボタン11aが半押し操作されたか否かを判定する(ステップS2)。
ここで、シャッタボタン11aが半押し操作されたと判定されると(ステップS2;YES)、AF処理部7の画像認識部7aは、被写体の撮像により生成された撮像画像Gの複数の画像フレーム(図5(a)等参照)に係る画像データが画像生成部6からAF処理部7に送られてくる毎に、当該画像データから被写体Sの画像領域Aを検出する処理を行う(ステップS3)。具体的には、AF処理部7の画像認識部7aは、画像生成部6から送られてきた各画像データに対して所定倍率の縮小処理を行って解析結果画像データL(例えば、横×縦:40×30画素)を生成した後、解析結果画像データLに対して所定の画像認識技術を利用して合焦対象となる被写体S(図5(b)参照)を特定して抽出する。
As shown in FIG. 2, first, the central control unit 14 displays a live view image on the display screen of the display unit 9 based on a plurality of image frames generated by imaging a subject (step S1).
Subsequently, the central control unit 14 determines whether or not the user has pressed the shutter button 11a of the operation input unit 11 halfway (step S2).
Here, if it is determined that the shutter button 11a is half-pressed (step S2; YES), the image recognition unit 7a of the AF processing unit 7 includes a plurality of image frames ( Every time the image data according to FIG. 5A and the like is sent from the image generation unit 6 to the AF processing unit 7, a process of detecting the image area A of the subject S from the image data is performed (step S3). . Specifically, the image recognition unit 7a of the AF processing unit 7 performs a reduction process at a predetermined magnification on each image data sent from the image generation unit 6 and performs analysis result image data L (for example, horizontal × vertical). : 40 × 30 pixels), the subject S (see FIG. 5B) to be focused is specified and extracted from the analysis result image data L using a predetermined image recognition technique.

次に、AF処理部7は、画像認識部7aによる被写体Sの検出結果に基づいて、被写体Sが検出されたか否かを判定する(ステップS4)。そして、被写体Sが検出されたと判定されると(ステップS4;YES)、AF処理部7の領域判定部7bは、画像認識部7aにより検出された被写体Sの画像領域Aの寸法が、予め設定されている各AF評価領域Pの最小寸法よりも大きいか否かを判定する(ステップS5)。
ここで、被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法よりも大きいと判定されると(ステップS5;YES)、AF処理部7の領域設定部7cは、被写体Sの画像領域Aを包含するように、被写体Sの画像領域Aと重なる位置や被写体Sの画像領域Aの輪郭部分と交わる位置に複数のAF評価領域P(例えば、9個;図4(a)参照)の各々を設定する(ステップS6)。
Next, the AF processing unit 7 determines whether or not the subject S is detected based on the detection result of the subject S by the image recognition unit 7a (step S4). When it is determined that the subject S has been detected (step S4; YES), the area determination unit 7b of the AF processing unit 7 sets the size of the image region A of the subject S detected by the image recognition unit 7a in advance. It is determined whether or not it is larger than the minimum dimension of each AF evaluation area P that has been set (step S5).
If it is determined that the size of the image area A of the subject S is larger than the minimum size of the AF evaluation area P (step S5; YES), the area setting unit 7c of the AF processing unit 7 A plurality of AF evaluation areas P (for example, nine; see FIG. 4A) at positions that overlap with the image area A of the subject S or positions that intersect the contour portion of the image area A of the subject S so as to include A. Each is set (step S6).

図3に示すように、AF処理部7の評価値算出部7dは、解析結果画像データLについて領域設定部7cにより設定されたAF評価領域Pの画像データに基づいて、画像のコントラストの高低を示すAF評価値を算出する(ステップS7)。具体的には、評価値算出部7dは、フォーカスレンズ1の光軸方向の位置を規定する複数(例えば、0〜100)のフォーカスレンズアドレスのうち、所定数(例えば、20〜30個)のアドレスに対応する測距位置で、複数のAF評価領域Pの各々についてAF評価値を算出する。
次に、範囲特定部7eは、複数のAF評価領域PのAF評価値をフォーカスレンズアドレス(測距位置)に従って整列して、AF評価値のピーク位置が最も多く含まれる範囲を探索して特定する(ステップS8)。例えば、図4(b)にあっては、範囲特定部7eは、AF評価領域P1〜P4、P6、P7、P9のAF評価値のピーク位置が存するフォーカスレンズアドレスが40近辺の範囲を評価値集中範囲Rとして特定する。その後、中央制御部14は、評価値集中範囲R内のAF評価領域Pの縁部分に対応するAF枠W(図5(c)等参照)をライブビュー画像の被写体Sに重畳させて表示部9に表示させる。
As shown in FIG. 3, the evaluation value calculation unit 7d of the AF processing unit 7 determines the level of contrast of the image based on the image data of the AF evaluation region P set by the region setting unit 7c for the analysis result image data L. An AF evaluation value is calculated (step S7). Specifically, the evaluation value calculation unit 7d is a predetermined number (for example, 20 to 30) of a plurality of (for example, 0 to 100) focus lens addresses that define the position of the focus lens 1 in the optical axis direction. An AF evaluation value is calculated for each of the plurality of AF evaluation areas P at the distance measurement position corresponding to the address.
Next, the range specifying unit 7e arranges the AF evaluation values of the plurality of AF evaluation areas P according to the focus lens address (ranging position), and searches for and specifies a range that includes the most peak positions of the AF evaluation values. (Step S8). For example, in FIG. 4B, the range specifying unit 7e evaluates the range where the focus lens address where the peak positions of the AF evaluation values of the AF evaluation areas P1 to P4, P6, P7, and P9 exist is around 40. It is specified as the concentration range R. Thereafter, the central control unit 14 superimposes an AF frame W (see FIG. 5C, etc.) corresponding to the edge portion of the AF evaluation area P within the evaluation value concentration range R on the subject S of the live view image, thereby displaying the display unit. 9 is displayed.

続けて、距離算出部7fは、範囲特定部7eにより特定された評価値集中範囲R内で、複数のAF評価値のピーク位置に対応するフォーカスレンズ1の測距位置を取得して、これら測距位置から換算した焦点距離の平均(平均焦点距離)を算出する(ステップS9)。例えば、図4(b)にあっては、距離算出部7fは、AF評価領域P1〜P4、P6、P7、P9のAF評価値のピーク位置に対応する焦点距離の平均を算出する。
次に、中央制御部14は、距離算出部7fにより算出された平均焦点距離に基づいて、所定の制御信号をレンズ駆動部2に出力してフォーカスモータを駆動させることで、フォーカスレンズ1の焦点距離が平均焦点距離となるように調整させる合焦処理を行う(ステップS10)。
Subsequently, the distance calculation unit 7f acquires the ranging positions of the focus lens 1 corresponding to the peak positions of the plurality of AF evaluation values within the evaluation value concentration range R specified by the range specifying unit 7e, and performs these measurement. The average focal length (average focal length) converted from the distance position is calculated (step S9). For example, in FIG. 4B, the distance calculation unit 7f calculates the average focal length corresponding to the peak positions of the AF evaluation values in the AF evaluation areas P1 to P4, P6, P7, and P9.
Next, the central control unit 14 outputs a predetermined control signal to the lens driving unit 2 to drive the focus motor based on the average focal length calculated by the distance calculation unit 7f, thereby driving the focus of the focus lens 1. A focusing process is performed to adjust the distance to the average focal length (step S10).

図2に示すように、一方、ステップS5にて、被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法以下であると判定されると(ステップS5;NO)、領域設定部7cは、画像領域Aの中心座標に最小寸法のAF評価領域Pの中心座標が重なるように当該最小寸法のAF評価領域Pを一つ設定する(ステップS11)。その後、中央制御部14は、AF評価領域Pの縁部分に対応するAF枠Wをライブビュー画像の被写体Sに重畳させて表示部9に表示させる。   As shown in FIG. 2, when it is determined in step S5 that the size of the image area A of the subject S is equal to or smaller than the minimum dimension of the AF evaluation area P (step S5; NO), the area setting unit 7c Then, one AF evaluation area P with the minimum dimension is set so that the center coordinates of the AF evaluation area P with the minimum dimension overlap the center coordinates of the image area A (step S11). Thereafter, the central control unit 14 causes the display unit 9 to display the AF frame W corresponding to the edge portion of the AF evaluation area P on the subject S of the live view image.

図3に示すように、評価値算出部7dは、解析結果画像データL(例えば、横×縦:40×30画素)について領域設定部7cにより設定されたAF評価領域Pの画像データに基づいて、画像のコントラストの高低を示すAF評価値を算出する処理を行った後、中央制御部14は、評価値算出部7dにより算出されたAF評価値のピーク位置に対応するフォーカスレンズ1の測距位置に基づいて、所定の制御信号をレンズ駆動部2に出力してフォーカスモータを駆動させることで、フォーカスレンズ1の合焦位置を調整させる合焦処理を行う(ステップS12)。
図2に示すように、また、ステップS4にて、被写体Sが検出されていないと判定された場合には(ステップS4;NO)、領域設定部7cは、測距方式を「スポットAF」に切り替えて画角の略中央にAF評価領域Pを設定した後(ステップS13)、中央制御部14は、処理をステップS12に移行させて、それ以降の処理を行う。
As shown in FIG. 3, the evaluation value calculation unit 7d is based on the image data of the AF evaluation region P set by the region setting unit 7c for the analysis result image data L (for example, horizontal × vertical: 40 × 30 pixels). After performing the process of calculating the AF evaluation value indicating the level of contrast of the image, the central control unit 14 measures the distance of the focus lens 1 corresponding to the peak position of the AF evaluation value calculated by the evaluation value calculation unit 7d. Based on the position, a predetermined control signal is output to the lens driving unit 2 to drive the focus motor, thereby performing a focusing process for adjusting the focus position of the focus lens 1 (step S12).
As shown in FIG. 2, when it is determined in step S4 that the subject S is not detected (step S4; NO), the area setting unit 7c sets the distance measuring method to “spot AF”. After switching and setting the AF evaluation area P at approximately the center of the angle of view (step S13), the central control unit 14 shifts the processing to step S12 and performs the subsequent processing.

図3に示すように、ステップS10若しくはステップS12における合焦処理の後、中央制御部14は、ユーザにより操作入力部11のシャッタボタン11aが全押し操作されたか否かを判定する(ステップS14)。
ここで、シャッタボタン11aが全押し操作されたと判定されると(ステップS14;YES)、中央制御部14は、撮像制御部5に露出条件(シャッター速度、絞り、増幅率等)やホワイトバランス等の条件を調整させて、被写体(図5(c)等参照)の光学像を所定の条件で電子撮像部3により撮像させる。その後、中央制御部14は、ユニット回路4及び画像生成部6を経て生成された静止画像(若しくは、動画像)のYUVデータを画像処理部8の符号化部(図示略)により所定の符号化方式(例えば、JPEG方式やMPEG方式等)により圧縮・符号化させた後、画像記録部10に記録させる(ステップS15)。
As shown in FIG. 3, after the focusing process in step S10 or step S12, the central control unit 14 determines whether or not the shutter button 11a of the operation input unit 11 has been fully pressed by the user (step S14). .
If it is determined that the shutter button 11a has been fully pressed (step S14; YES), the central control unit 14 instructs the imaging control unit 5 to set exposure conditions (shutter speed, aperture, amplification factor, etc.), white balance, and the like. Are adjusted so that an optical image of a subject (see FIG. 5C and the like) is picked up by the electronic image pickup unit 3 under predetermined conditions. Thereafter, the central control unit 14 performs predetermined encoding on the YUV data of the still image (or moving image) generated through the unit circuit 4 and the image generation unit 6 by the encoding unit (not shown) of the image processing unit 8. After being compressed and encoded by a method (for example, JPEG method, MPEG method, etc.), it is recorded in the image recording unit 10 (step S15).

一方、ステップS14にて、シャッタボタン11aが全押し操作されていないと判定されると(ステップS14;NO)、中央制御部14は、シャッタボタン11aの半押し操作が解除されたか否かを判定する(ステップS16)。
ここで、シャッタボタン11aの半押し操作が解除されていないと判定されると(ステップS16;NO)、中央制御部14は、処理をステップS14に移行させて、シャッタボタン11aが全押し操作されるまで、それ以降の処理を繰り返し行う。一方、シャッタボタン11aの半押し操作が解除されたと判定されると(ステップS16;YES)、中央制御部14は、処理をステップS1に移行させて、撮像処理の最初から処理を開始する。
On the other hand, if it is determined in step S14 that the shutter button 11a has not been fully pressed (step S14; NO), the central control unit 14 determines whether or not the half-press operation of the shutter button 11a has been released. (Step S16).
If it is determined that the half-pressing operation of the shutter button 11a has not been released (step S16; NO), the central control unit 14 shifts the process to step S14, and the shutter button 11a is fully pressed. Until the process is repeated, the subsequent processing is repeated. On the other hand, if it is determined that the half-press operation of the shutter button 11a has been released (step S16; YES), the central control unit 14 shifts the process to step S1 and starts the process from the beginning of the imaging process.

以上のように、本実施形態の撮像装置100によれば、被写体Sの画像領域Aに基づいて、複数のAF評価領域Pを設定し、設定された複数のAF評価領域Pの画像データに基づいて、各AF評価領域PのAF評価値をそれぞれ算出するため、どのような構図であっても被写体Sの画像領域Aに対してAF評価領域Pを設定することができる。また、これら複数のAF評価値をフォーカスレンズ1の焦点距離に従って整列した場合に、AF評価値が集中している評価値集中範囲Rを特定して、当該評価値集中範囲R内の焦点距離でフォーカスレンズ1を合焦させるので、例えば、夜景(図5参照)や大きな被写体(図6、図7参照)といったコントラストの低くなる被写体Sであっても当該被写体Sに応じて複数のAF評価領域Pを設定することができ、これらのAF評価領域Pのうち、評価値集中範囲R内にAF評価値のピーク位置があるAF評価領域Pを有効として、評価値集中範囲R内の焦点距離でフォーカスレンズ1を合焦させることができる。
従って、構図に関わらず被写体Sに合焦させることができ、これにより、予めコントラストの高い部分に焦点を合わせた後、カメラをふってコントラストの低い部分を画角内に入れ直すといった動作も必要なくなり、当該撮像装置100の焦点調整を適正に、且つ、簡便に行うことができる。
As described above, according to the imaging apparatus 100 of the present embodiment, a plurality of AF evaluation areas P are set based on the image area A of the subject S, and based on the set image data of the plurality of AF evaluation areas P. Since the AF evaluation value of each AF evaluation area P is calculated, the AF evaluation area P can be set for the image area A of the subject S regardless of the composition. When these AF evaluation values are aligned according to the focal length of the focus lens 1, an evaluation value concentration range R in which the AF evaluation values are concentrated is specified, and the focal length within the evaluation value concentration range R is specified. Since the focus lens 1 is focused, for example, even if the subject S has a low contrast, such as a night view (see FIG. 5) or a large subject (see FIGS. 6 and 7), a plurality of AF evaluation regions corresponding to the subject S are used. P can be set, and among these AF evaluation areas P, the AF evaluation area P having the peak position of the AF evaluation value within the evaluation value concentration range R is validated, and the focal length within the evaluation value concentration range R is set. The focus lens 1 can be focused.
Therefore, it is possible to focus on the subject S regardless of the composition, so that it is not necessary to focus on a high-contrast portion in advance and then refocus the low-contrast portion within the angle of view by touching the camera. The focus adjustment of the imaging apparatus 100 can be performed appropriately and simply.

また、評価値集中範囲R内の複数のAF評価値のピーク位置に対応する焦点距離の平均を算出して、当該平均の焦点距離でフォーカスレンズ1を合焦させるので、被写体Sに応じて設定された複数のAF評価領域Pの中で、現象的にはピントがほぼ合った状態となるAF評価領域Pの数を増加させることができる。
即ち、例えば、図4(b)に示すように、9つのAF評価領域Pのうち、評価値集中範囲R内にAF評価値のピーク位置がある7つのAF評価領域Pについては、平均の焦点距離でフォーカスレンズ1を合焦させると、厳密に言えばピントが完全には合わず画像がぼけてしまう箇所もあるが、より多くのAF評価領域Pの画像に対して現象的にはピントがほぼ合った状態とすることで、コントラストの低い被写体Sに対しても焦点調整を簡便に行うことができる。
In addition, the average of the focal lengths corresponding to the peak positions of the plurality of AF evaluation values within the evaluation value concentration range R is calculated, and the focus lens 1 is focused at the average focal length. Among the plurality of AF evaluation areas P, it is possible to increase the number of AF evaluation areas P that are in focus in terms of phenomenon.
That is, for example, as shown in FIG. 4B, of the nine AF evaluation areas P, the seven AF evaluation areas P in which the peak position of the AF evaluation value is within the evaluation value concentration range R are average focus. Strictly speaking, if the focus lens 1 is focused at a distance, there may be a portion where the image is out of focus and the image is blurred. However, the focus is phenomenologically with respect to more images in the AF evaluation area P. The focus adjustment can be easily performed even on the subject S having a low contrast by setting it to a substantially matched state.

さらに、ライブビュー画像の表示中に、操作入力部11のシャッタボタン11aが半押し操作されると、フォーカスレンズ1を合焦させる焦点距離にあるAF評価領域Pに対応付けてAF枠Wを表示するので、評価値集中範囲R内にAF評価値のピーク位置がある有効なAF評価領域Pに対応するAF枠Wを複数表示することができ、ユーザに対して現象的にはピントがほぼ合った状態となっている箇所を報知することができる。従って、コントラストの低い被写体Sを撮影する場合であっても、ユーザに被写体Sにおけるピントがほぼ合っている箇所を認識させることができる。   Further, when the shutter button 11a of the operation input unit 11 is pressed halfway during the live view image display, the AF frame W is displayed in association with the AF evaluation area P at the focal length for focusing the focus lens 1. Therefore, a plurality of AF frames W corresponding to an effective AF evaluation area P having a peak position of the AF evaluation value within the evaluation value concentration range R can be displayed, and the user is substantially focused on the phenomenon. It is possible to notify the location that is in the state. Therefore, even when the subject S having a low contrast is photographed, the user can recognize a place where the subject S is in focus.

また、被写体Sの画像領域Aの寸法に応じてAF評価領域Pの設定数を変更して当該AF評価領域Pを設定することができる。具体的には、被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法よりも大きい場合には、AF評価領域Pを複数設定する一方で、被写体Sの画像領域Aの寸法がAF評価領域Pの最小寸法以下である場合には、AF評価領域Pを一つ設定することができる。即ち、被写体Sの画像領域Aの寸法に応じて、設定されるAF評価領域Pの数を変更することで、如何なる寸法の被写体Sにも対応することができ、フォーカスレンズ1の焦点調整をより適正に行うことができる。   Further, the AF evaluation area P can be set by changing the number of AF evaluation areas P set according to the size of the image area A of the subject S. Specifically, when the size of the image area A of the subject S is larger than the minimum size of the AF evaluation area P, a plurality of AF evaluation areas P are set, while the size of the image area A of the subject S is AF evaluation. If the area P is equal to or smaller than the minimum dimension, one AF evaluation area P can be set. That is, by changing the number of AF evaluation areas P to be set according to the size of the image area A of the subject S, it is possible to deal with the subject S of any size, and the focus adjustment of the focus lens 1 is further improved. It can be done properly.

また、AF評価領域Pを複数設定する場合には、被写体Sの画像領域Aを包含するように、即ち、被写体Sの画像領域Aと重なる位置や被写体Sの画像領域Aの輪郭部分と交わる位置に複数のAF評価領域Pの各々を設定するので、被写体S自体にはコントラストが少ない場合であっても、少なくとも被写体Sとそれ以外の部分との境界にコントラスト差があることから評価値算出部7dによってより適正なAF評価値を算出することができ、フォーカスレンズ1の焦点調整をより適正に行うことができる。   Further, when a plurality of AF evaluation areas P are set, the position so as to include the image area A of the subject S, that is, the position that overlaps the image area A of the subject S or the outline portion of the image area A of the subject S. Since each of the plurality of AF evaluation areas P is set to the evaluation value calculation unit, even if the subject S itself has a low contrast, there is a contrast difference at least at the boundary between the subject S and the other portions. A more appropriate AF evaluation value can be calculated by 7d, and the focus adjustment of the focus lens 1 can be performed more appropriately.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、評価値算出部7dにより算出されたAF評価値が集中している範囲として、予め所定の範囲に設定されている評価値集中範囲Rを例示したが、これに限られるものではなく、例えば、複数のAF評価領域PのAF評価値のうち、所定割合(例えば、5〜7割合)のAF評価値が含まれている範囲をAF評価値が集中している範囲としても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, the evaluation value concentration range R set in advance as a predetermined range is exemplified as the range in which the AF evaluation values calculated by the evaluation value calculation unit 7d are concentrated. However, the present invention is not limited to this. Of the AF evaluation values of a plurality of AF evaluation areas P, a range in which AF evaluation values of a predetermined ratio (for example, 5 to 7 ratio) are included may be set as a range in which AF evaluation values are concentrated.

また、上記実施形態にあっては、撮像処理における被写体Sの検出を、操作入力部11のシャッタボタン11aが半押し操作されたことを契機として行うようにしたが、シャッタボタン11aの操作の有無に関わらずライブビュー画像の表示中に必ず実行するようにしても良い。   In the above embodiment, the detection of the subject S in the imaging process is performed when the shutter button 11a of the operation input unit 11 is half-pressed. Regardless, it may be executed while the live view image is being displayed.

さらに、被写体Sの画像領域Aの特定にあっては、画像生成部6から送られてきた画像データから解析結果画像データLを生成して当該画像データLを用いて行うようにしたが、必ずしも解析結果画像データLを生成する必要はなく、画像生成部6から送られてきた画像データ自体を用いて行っても良い。   Furthermore, in specifying the image area A of the subject S, the analysis result image data L is generated from the image data sent from the image generation unit 6 and is performed using the image data L. There is no need to generate the analysis result image data L, and the image data itself sent from the image generation unit 6 may be used.

また、合焦手段として、中央制御部14及びレンズ駆動部2を例示したが、これに限られるものではなく、電子撮像部3を光軸方向に移動させる駆動機構(図示略)を設け、当該駆動機構を中央制御部14の制御下にて駆動させるようにしても良い。   Moreover, although the central control unit 14 and the lens driving unit 2 are illustrated as focusing means, the present invention is not limited to this, and a driving mechanism (not shown) that moves the electronic imaging unit 3 in the optical axis direction is provided. The drive mechanism may be driven under the control of the central control unit 14.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではなく、少なくとも撮像手段、検出手段、領域設定手段、算出手段、合焦手段を備える構成であれば適宜任意に変更することができる。   Further, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. The imaging device 100 includes at least an imaging unit, a detection unit, a region setting unit, a calculation unit, and a focusing unit. Any change can be made as appropriate.

加えて、上記実施形態にあっては、検出手段、領域設定手段、算出手段、合焦手段としての機能を、中央制御部14の制御下にて、AF処理部7、レンズ駆動部2が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部14によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ13に、検出処理ルーチン、領域設定処理ルーチン、算出処理ルーチン、合焦制御処理ルーチンを含むプログラムを記憶しておく。そして、検出処理ルーチンにより中央制御部14のCPUを、撮像手段により撮像された撮像画像Gから被写体Sの画像領域Aを検出する検出手段として機能させるようにしても良い。また、領域設定処理ルーチンにより中央制御部14のCPUを、検出処理ルーチンにより検出された被写体Sの画像領域Aに、合焦評価値(AF評価値)を算出すべき評価領域(AF評価領域P)を複数設定する領域設定手段として機能させるようにしても良い。また、算出処理ルーチンにより中央制御部14のCPUを、領域設定処理ルーチンにより設定された複数の評価領域について合焦評価値(AF評価値)をそれぞれ算出する算出手段として機能させるようにしても良い。また、合焦制御処理ルーチンにより中央制御部14のCPUを、算出処理ルーチンによる算出結果に基づいて撮像手段を合焦させる合焦手段として機能させるようにしても良い。
In addition, in the above embodiment, the AF processing unit 7 and the lens driving unit 2 drive the functions as the detection unit, the region setting unit, the calculation unit, and the focusing unit under the control of the central control unit 14. However, the present invention is not limited to this, and may be realized by executing a predetermined program or the like by the central control unit 14.
That is, a program including a detection processing routine, an area setting processing routine, a calculation processing routine, and a focusing control processing routine is stored in the program memory 13 that stores the program. Then, the CPU of the central control unit 14 may function as a detection unit that detects the image area A of the subject S from the captured image G captured by the imaging unit by the detection processing routine. Further, the CPU of the central control unit 14 in the area setting process routine, the evaluation area (AF evaluation area P) in which the focus evaluation value (AF evaluation value) is calculated in the image area A of the subject S detected in the detection process routine. ) May be made to function as an area setting means for setting a plurality. In addition, the CPU of the central control unit 14 may function as a calculation unit that calculates a focus evaluation value (AF evaluation value) for each of the plurality of evaluation areas set by the area setting process routine by the calculation process routine. . Further, the CPU of the central control unit 14 may function as a focusing unit that focuses the imaging unit based on the calculation result of the calculation processing routine by the focusing control processing routine.

100 撮像装置
1 フォーカスレンズ
2 レンズ駆動部
3 電子撮像部
7 AF処理部
7a 画像認識部
7b 領域判定部
7c 領域設定部
7d 評価値算出部
7e 範囲特定部
7f 距離算出部
11 操作入力部
11a シャッタボタン
14 中央制御部
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Focus lens 2 Lens drive part 3 Electronic imaging part 7 AF process part 7a Image recognition part 7b Area determination part 7c Area setting part 7d Evaluation value calculation part 7e Range specification part 7f Distance calculation part 11 Operation input part 11a Shutter button 14 Central control unit

Claims (11)

撮像手段と、
前記撮像手段により撮像される画像から被写体の画像領域を検出する検出手段と、
前記検出手段により検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する領域設定手段と、
前記領域設定手段により設定された前記複数の評価領域について合焦評価値をそれぞれ算出する算出手段と、
前記算出手段による算出結果に基づいて合焦する合焦手段と、
を備えたことを特徴とする撮像装置。
Imaging means;
Detecting means for detecting an image area of a subject from an image captured by the imaging means;
An area setting means for setting a plurality of evaluation areas in which a focus evaluation value is to be calculated in the image area of the subject detected by the detection means;
Calculation means for calculating a focus evaluation value for each of the plurality of evaluation areas set by the area setting means;
Focusing means for focusing based on the calculation result by the calculating means;
An imaging apparatus comprising:
前記領域設定手段は、
前記検出手段により検出された被写体の画像領域の寸法に応じて前記評価領域の設定数を変更して当該評価領域を設定することを特徴とする請求項1記載の撮像装置。
The area setting means includes
The imaging apparatus according to claim 1, wherein the evaluation area is set by changing the set number of the evaluation areas according to the size of the image area of the subject detected by the detection unit.
前記被写体の画像領域の寸法が前記評価領域として設定可能な最小寸法よりも大きいか否かを判定する第1判定手段を更に備え、
前記領域設定手段は、
前記第1判定手段による判定の結果、前記被写体の画像領域の寸法が前記評価領域の最小寸法よりも大きい場合に前記評価領域を複数設定する一方、前記被写体の画像領域の寸法が前記評価領域の最小寸法以下である場合に前記評価領域を一つ設定することを特徴とする請求項1又は2項に記載の撮像装置。
First determination means for determining whether or not the size of the image area of the subject is larger than a minimum dimension that can be set as the evaluation area;
The area setting means includes
As a result of the determination by the first determination means, when the size of the image area of the subject is larger than the minimum size of the evaluation region, a plurality of the evaluation regions are set, while the size of the image region of the subject is the size of the evaluation region. The imaging apparatus according to claim 1, wherein one evaluation region is set when the size is equal to or smaller than a minimum dimension.
前記撮像画像に対する前記検出手段により検出された被写体の画像領域の寸法の割合が所定の割合以上であるか否かを判定する第2判定手段を更に備え、
前記領域設定手段は、
前記第2判定手段により前記撮像画像に対する前記被写体の画像領域の寸法の割合が所定の割合以上であると判定されると、前記評価領域を複数設定することを特徴とする請求項1〜3の何れか一項に記載の撮像装置。
A second determination means for determining whether or not the ratio of the size of the image area of the subject detected by the detection means to the captured image is equal to or greater than a predetermined ratio;
The area setting means includes
The plurality of evaluation areas are set when the second determination means determines that the ratio of the size of the image area of the subject to the captured image is equal to or greater than a predetermined ratio. The imaging device according to any one of the above.
前記領域設定手段は、
前記検出手段により検出された被写体の画像領域を包含するように前記評価領域を複数設定することを特徴とする請求項1〜4の何れか一項に記載の撮像装置。
The area setting means includes
5. The imaging apparatus according to claim 1, wherein a plurality of the evaluation areas are set so as to include an image area of a subject detected by the detection unit.
前記算出手段により算出された複数の合焦評価値とこの合焦評価値から得られる焦点距離とに基づいて、前記算出された各評価領域の合焦評価値のピーク位置を所定の範囲内に最も多く含む焦点距離範囲を特定する特定手段を更に備え、
前記合焦手段は、
前記特定手段により特定された焦点距離範囲に基づいて合焦することを特徴とする請求項1〜5の何れか一項に記載の撮像装置。
Based on the plurality of focus evaluation values calculated by the calculation means and the focal length obtained from the focus evaluation values, the peak positions of the focus evaluation values of the calculated evaluation regions are within a predetermined range. Further comprising a specifying means for specifying the focal length range including the most,
The focusing means is
The imaging apparatus according to claim 1, wherein focusing is performed based on a focal length range specified by the specifying unit.
前記特定手段により特定された範囲内の複数の合焦評価値のピーク位置に対応する焦点距離の平均を算出する平均距離算出手段を更に備え、
前記合焦手段は、
前記平均距離算出手段により算出された平均の焦点距離で合焦することを特徴とする請求項6に記載の撮像装置。
Average distance calculating means for calculating an average of focal lengths corresponding to peak positions of a plurality of focus evaluation values within the range specified by the specifying means;
The focusing means is
The imaging apparatus according to claim 6, wherein focusing is performed at an average focal length calculated by the average distance calculating unit.
前記特定手段により特定された焦点距離範囲の中間点の距離を算出する中間距離算出手段を備え、
前記合焦手段は、
前記中間距離算出手段により算出された中間点の距離で合焦することを特徴とする請求項6記載の撮像装置。
An intermediate distance calculating means for calculating the distance of the intermediate point of the focal length range specified by the specifying means;
The focusing means is
The imaging apparatus according to claim 6, wherein focusing is performed at the distance of the intermediate point calculated by the intermediate distance calculating unit.
前記撮像手段による撮像を指示する半押し操作可能な操作手段と、
前記撮像手段により撮像された撮像画像を逐次表示するとともに、前記操作手段が半押し操作された際に、前記合焦手段により合焦する焦点距離にある評価領域に対応付けて合焦領域枠を表示する表示手段と、を更に備えることを特徴とする請求項1〜8の何れか一項に記載の撮像装置。
Operation means capable of half-pressing operation for instructing imaging by the imaging means;
The captured image captured by the imaging unit is sequentially displayed, and when the operation unit is half-pressed, a focusing area frame is associated with an evaluation area at a focal length focused by the focusing unit. The imaging apparatus according to claim 1, further comprising display means for displaying.
撮像装置の撮像部にて撮像される画像から被写体の画像領域を検出する検出ステップと、
前記検出ステップにて検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する領域設定ステップと、
前記領域設定ステップにて設定された前記複数の評価領域について合焦評価値をそれぞれ算出する算出ステップと、
前記算出ステップでの算出結果に基づいて合焦する合焦ステップと、
を含むことを特徴とする合焦方法。
A detection step of detecting an image region of a subject from an image captured by an imaging unit of the imaging device;
An area setting step for setting a plurality of evaluation areas for calculating the focus evaluation value in the image area of the subject detected in the detection step;
A calculation step for calculating a focus evaluation value for each of the plurality of evaluation regions set in the region setting step;
A focusing step for focusing based on the calculation result in the calculation step;
A focusing method comprising:
撮像装置が備えるコンピュータを、
撮像される画像から被写体の画像領域を検出する検出手段、
前記検出手段によって検出された被写体の画像領域に、合焦評価値を算出すべき評価領域を複数設定する領域設定手段、
前記領域設定手段によって設定された前記複数の評価領域について合焦評価値をそれぞれ算出する算出手段、
前記算出手段における算出結果に基づいて合焦させる合焦手段、
として機能させることを特徴とするプログラム。
A computer provided in the imaging apparatus;
Detecting means for detecting an image area of a subject from an image to be captured;
A region setting unit that sets a plurality of evaluation regions in which a focus evaluation value is to be calculated in the image region of the subject detected by the detection unit;
Calculation means for calculating a focus evaluation value for each of the plurality of evaluation areas set by the area setting means;
Focusing means for focusing based on the calculation result in the calculating means;
A program characterized by functioning as
JP2009146272A 2009-06-19 2009-06-19 Imaging apparatus, focusing method, and program Expired - Fee Related JP5195663B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009146272A JP5195663B2 (en) 2009-06-19 2009-06-19 Imaging apparatus, focusing method, and program
US12/784,855 US8717490B2 (en) 2009-06-19 2010-05-21 Imaging apparatus, focusing method, and computer-readable recording medium recording program
CN2010102068299A CN101931752B (en) 2009-06-19 2010-06-13 Imaging apparatus and focusing method
TW99119787A TWI468770B (en) 2009-06-19 2010-06-18 Imaging apparatus, focusing method, and computer-readable recording medium recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009146272A JP5195663B2 (en) 2009-06-19 2009-06-19 Imaging apparatus, focusing method, and program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2011160708A Division JP5477345B2 (en) 2011-07-22 2011-07-22 Imaging apparatus, focusing method, and program
JP2013018778A Division JP5561392B2 (en) 2013-02-01 2013-02-01 Imaging apparatus, focusing method, and program

Publications (2)

Publication Number Publication Date
JP2011002690A true JP2011002690A (en) 2011-01-06
JP5195663B2 JP5195663B2 (en) 2013-05-08

Family

ID=43560683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009146272A Expired - Fee Related JP5195663B2 (en) 2009-06-19 2009-06-19 Imaging apparatus, focusing method, and program

Country Status (1)

Country Link
JP (1) JP5195663B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039099A (en) * 2012-08-13 2014-02-27 Nikon Corp Image processing apparatus, imaging device, and image processing program
JP2014123070A (en) * 2012-12-21 2014-07-03 Canon Inc Image capturing device and control method therefor
US11917293B2 (en) 2021-07-08 2024-02-27 Panasonic Intellectual Property Management Co., Ltd. Imaging device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029105A (en) * 2002-06-21 2004-01-29 Casio Comput Co Ltd Autofocus device and af evaluated value acquiring method
JP2006227080A (en) * 2005-02-15 2006-08-31 Nikon Corp Electronic camera
JP2007208717A (en) * 2006-02-02 2007-08-16 Canon Inc Imaging apparatus and control method therefor
JP2009025381A (en) * 2007-07-17 2009-02-05 Nikon Corp Digital camera
JP2009027298A (en) * 2007-07-18 2009-02-05 Ricoh Co Ltd Imaging apparatus and control method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004029105A (en) * 2002-06-21 2004-01-29 Casio Comput Co Ltd Autofocus device and af evaluated value acquiring method
JP2006227080A (en) * 2005-02-15 2006-08-31 Nikon Corp Electronic camera
JP2007208717A (en) * 2006-02-02 2007-08-16 Canon Inc Imaging apparatus and control method therefor
JP2009025381A (en) * 2007-07-17 2009-02-05 Nikon Corp Digital camera
JP2009027298A (en) * 2007-07-18 2009-02-05 Ricoh Co Ltd Imaging apparatus and control method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014039099A (en) * 2012-08-13 2014-02-27 Nikon Corp Image processing apparatus, imaging device, and image processing program
JP2014123070A (en) * 2012-12-21 2014-07-03 Canon Inc Image capturing device and control method therefor
US11917293B2 (en) 2021-07-08 2024-02-27 Panasonic Intellectual Property Management Co., Ltd. Imaging device

Also Published As

Publication number Publication date
JP5195663B2 (en) 2013-05-08

Similar Documents

Publication Publication Date Title
TWI468770B (en) Imaging apparatus, focusing method, and computer-readable recording medium recording program
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
JP6202860B2 (en) Imaging apparatus and imaging method
JP2007019973A (en) Imaging device and imaging method
US8451366B2 (en) Image capturing device with automatic focus function
JP2007108412A (en) Autofocus device and its program
JP2008054177A (en) Imaging apparatus
JP2009130577A (en) Imaging device and its program
JP2009065573A (en) Imaging apparatus, focus control method, and focus control program
JP5092673B2 (en) Imaging apparatus and program thereof
JP5195663B2 (en) Imaging apparatus, focusing method, and program
JP5477345B2 (en) Imaging apparatus, focusing method, and program
JP6435527B2 (en) Imaging device
JP5397426B2 (en) Imaging apparatus, focusing method, and program
JP4985716B2 (en) Imaging apparatus, method for setting focus evaluation area, and program
JP5561392B2 (en) Imaging apparatus, focusing method, and program
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
KR101720775B1 (en) Photoghraphing apparatus and method
JP2004309653A (en) Imaging unit
JP5747474B2 (en) Imaging apparatus, imaging processing method, and program
JP6347056B2 (en) Imaging apparatus and still image generation method
JP4853447B2 (en) Digital camera, focus control system thereof, focus control method, focus control program
JP5644180B2 (en) Imaging apparatus, imaging method, and program
JP2009194469A (en) Imaging apparatus
JP5862732B2 (en) Imaging control apparatus, imaging control method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5195663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees