JP2008281701A - Focus adjusting device, imaging apparatus and focus adjusting method - Google Patents

Focus adjusting device, imaging apparatus and focus adjusting method Download PDF

Info

Publication number
JP2008281701A
JP2008281701A JP2007124693A JP2007124693A JP2008281701A JP 2008281701 A JP2008281701 A JP 2008281701A JP 2007124693 A JP2007124693 A JP 2007124693A JP 2007124693 A JP2007124693 A JP 2007124693A JP 2008281701 A JP2008281701 A JP 2008281701A
Authority
JP
Japan
Prior art keywords
focus
subject
range
focus lens
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007124693A
Other languages
Japanese (ja)
Other versions
JP2008281701A5 (en
JP5004649B2 (en
Inventor
Kazuki Konishi
一樹 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007124693A priority Critical patent/JP5004649B2/en
Priority to US11/781,545 priority patent/US7725018B2/en
Priority to CN2009101771439A priority patent/CN101685239B/en
Priority to CN201110393944.6A priority patent/CN102523383B/en
Publication of JP2008281701A publication Critical patent/JP2008281701A/en
Publication of JP2008281701A5 publication Critical patent/JP2008281701A5/ja
Application granted granted Critical
Publication of JP5004649B2 publication Critical patent/JP5004649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a focus adjustment technology by which a desired subject can be refocused if subjects other than the desired subject are erroneously focused. <P>SOLUTION: If the result of a comparison between the intervals of the focusing positions of a plurality of images photographed latest and the displacement of the distance of a subject detected from face information obtained by the result of the face detection is equal to or greater than a preset threshold, the range of the movement of a focus lens is made wider than that set when the comparison result falls within the threshold. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、焦点調節技術に関する。   The present invention relates to a focus adjustment technique.

電子カメラでは、撮像素子に結像した被写体像の輝度信号の高周波成分が最大となるフォーカスレンズ位置を、所望する被写体像が合焦状態となる合焦位置として焦点調節を行う所謂コントラスト検出方式の焦点調節技術がある。被写体像の輝度信号の高周波成分が多いということは被写体像のコントラストが高いということで、低い場合に比べて焦点が合っていることを示す。このようなコントラスト検出方式では、フォーカスレンズを移動させて、複数の異なるフォーカスレンズ位置で被写体像の輝度信号の高周波成分を取得し(スキャン動作)、高周波成分が最も多くなる位置にフォーカスレンズを移動させる。   An electronic camera uses a so-called contrast detection method in which focus adjustment is performed with a focus lens position at which a high-frequency component of a luminance signal of a subject image formed on an image sensor is maximized as a focus position at which a desired subject image is in focus. There is focus adjustment technology. A large number of high-frequency components in the luminance signal of the subject image means that the contrast of the subject image is high, indicating that the subject image is in focus as compared with a low case. In such a contrast detection method, the focus lens is moved to acquire the high-frequency component of the luminance signal of the subject image at a plurality of different focus lens positions (scanning operation), and the focus lens is moved to the position where the high-frequency component is the largest. Let

しかしながら、撮影毎にこのAF制御を行うと、操作者が撮影開始要求操作をしてから、実際に撮影が行なわれるまでのレリーズタイムラグが発生してしまうという問題がある。そこで、レリーズタイムのスピードを優先して撮影したい場合には、スキャン動作を行うことのできる時間が限られるため、前回撮影において合焦した位置でフォーカスロックすることが提案されている。また、スキャン動作におけるフォーカスレンズの移動範囲を制限することも提案されている。   However, if this AF control is performed for each shooting, there is a problem that a release time lag from when the operator performs a shooting start requesting operation until the actual shooting is performed occurs. In view of this, when it is desired to shoot with priority on the speed of the release time, the time during which the scanning operation can be performed is limited. Therefore, it has been proposed to lock the focus at the position where the previous shooting was in focus. It has also been proposed to limit the movement range of the focus lens in the scanning operation.

また、動く被写体に焦点を合わせるために、次の撮影の為の焦点調節制御を行う場合に、フォーカスレンズの移動範囲を現在の合焦位置を中心としてその両側に等しく振り分けるように設定し、焦点調節に掛かる時間を短縮する方法が提案されている。   Also, when performing focus adjustment control for the next shooting in order to focus on a moving subject, the focus lens movement range is set to be equally distributed to both sides with the current focus position as the center. A method for reducing the time required for adjustment has been proposed.

また、連続撮影では短い時間間隔で連続的に撮影が行われるため、連続する撮影間では被写体が同一方向に移動している場合が多い。従って、前回の撮影までの被写体の移動方向、すなわち前回の撮影までのフォーカスレンズの駆動方向(合焦位置の移動方向)に基づいて、その次の撮影時における合焦位置をある程度予測することが可能である。これを利用して、現在の合焦位置を基準として、フォーカスレンズの駆動範囲の振り分け幅を異ならせることが提案されている(例えば、特許文献1参照)。   Also, since continuous shooting is performed continuously at short time intervals, the subject often moves in the same direction between consecutive shootings. Therefore, based on the moving direction of the subject until the previous shooting, that is, the driving direction of the focus lens (the moving direction of the focusing position) until the previous shooting, the focusing position at the next shooting can be predicted to some extent. Is possible. By utilizing this, it has been proposed to change the allocation range of the driving range of the focus lens based on the current in-focus position (see, for example, Patent Document 1).

図12(a)〜(c)に示す例は、連続する3回の各撮影における合焦位置について示したものである。図12(c)では、前々回(図12(a))および前回(図12(b))の撮影における合焦位置の移動方向に基づき、前回(図12(b))の合焦位置を基準として、その両側の走査範囲の振り分け幅(SC1、SC2)を互いに異ならせるようにしている。すなわち、前回までの移動方向と同一方向側の振り分け幅を相対的に大きくしている。   The examples shown in FIGS. 12A to 12C show the in-focus position in each of three consecutive photographing operations. In FIG. 12C, based on the moving direction of the focus position in the previous (FIG. 12A) and previous (FIG. 12B) shooting, the previous (FIG. 12B) focus position is used as a reference. As described above, the distribution widths (SC1, SC2) of the scanning ranges on both sides thereof are made different from each other. That is, the distribution width on the same direction side as the previous movement direction is relatively increased.

このように、前回の撮影までの合焦位置の移動方向に基づいて、走査範囲の振り分け幅を異ならせることにより、効率的にフォーカスレンズを駆動することができ、合焦処理を高速化することが可能となる。
特開2002−122773号公報
In this way, the focus lens can be driven efficiently by changing the allocation width of the scanning range based on the moving direction of the in-focus position until the previous shooting, and the in-focus processing can be speeded up. Is possible.
JP 2002-122773 A

しかしながら上述した従来例のように、一律にレリーズタイムラグの低減を優先して焦点調節をしてしまうと、背景などの主被写体でない被写体へ合焦してしまったり、誤合焦を招いてしまったりしていた。特に上述の連続撮影の先行例では、走査範囲の振り分け幅を相対的に大きくするだけで、その基準を変えていないため、像面移動速度が徐々に増していくような被写体には対応できない。具体的には、等速で近づいてくるような一般的な被写体では像面移動速度は加速度的に増加するため、従来例ではこのような一般的な動きをしている被写体に合焦することが難しい場合がある。   However, as in the case of the conventional example described above, if the focus is adjusted with priority given to reducing the release time lag, the subject may not be the main subject, such as the background, or it may be misfocused. Was. In particular, the preceding example of continuous shooting described above cannot deal with a subject in which the image plane moving speed gradually increases because the reference range is not changed merely by relatively increasing the distribution width of the scanning range. Specifically, the image plane moving speed increases at an accelerated speed for a general subject approaching at a constant speed, so in the conventional example, focusing on a subject with such a general movement is required. May be difficult.

また従来の方法では、主被写体とは異なる背景等に非常に高いコントラストの被写体が存在し焦点検出領域に含まれる場合などには、主被写体以外の輝度信号の高周波成分に依存した合焦位置の検出結果が出てしまう。そして、間違えて背景等、所望の被写体以外の被写体に合焦した場合には、前回までの移動方向と同一方向側の振り分け幅を相対的に大きくしても所望の被写体の合焦位置が走査範囲内に入らず、背景等の被写体に合焦し続けてしまう。   Further, in the conventional method, when a very high contrast subject exists in a background different from the main subject and is included in the focus detection area, the focus position depending on the high frequency component of the luminance signal other than the main subject is changed. The detection result will come out. If the subject other than the desired subject, such as the background, is focused on by mistake, the in-focus position of the desired subject is scanned even if the allocation width on the same direction side as the previous movement direction is relatively large. The subject does not fall within the range and continues to focus on the subject such as the background.

本発明は上記問題点を鑑みてなされたものであり、誤って所望の被写体以外の被写体に合焦したか否かを判別できる焦点調節技術を提供することを目的とする。また、誤って所望の被写体以外の被写体に合焦したか否かが分かれば所望の被写体に合焦し直すことも可能となる。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a focus adjustment technique capable of determining whether or not a subject other than a desired subject has been mistakenly focused. In addition, if it is determined whether or not a subject other than the desired subject has been mistakenly focused, it is possible to refocus on the desired subject.

上記目的を達成するために、本発明の技術的特徴としては、フォーカスレンズの移動に伴って撮像手段から得られた画像を基に前記フォーカスレンズの合焦状態を検出し、当該検出された合焦状態に基づいて前記フォーカスレンズ位置を調節するよう制御する工程と、前記撮像手段にて得られた画像における被写体の大きさの変化に基づいて前記合焦状態の検出の際の前記フォーカスレンズを移動させる範囲を変更することを特徴とする。また、他の技術的特徴としては、フォーカスレンズにより結像された被写体像を光電変換して得られた画像から被写体の特徴情報を検出する検出工程と、前記フォーカスレンズを移動させる範囲を設定する範囲設定工程と、前記範囲設定工程にて設定された範囲における前記フォーカスレンズの移動にともなって得られた画像を基に前記フォーカスレンズの合焦状態を検出し、当該検出された合焦状態を基に被写体像が合焦となるように前記フォーカスレンズ位置を調節するよう制御する制御工程とを有し、前記範囲設定工程では、撮影した複数の画像において被写体が合焦となったフォーカスレンズの位置から合焦予測位置を検出し、当該合焦予測位置および前記検出工程での検出結果に基づいて、前記フォーカスレンズを移動させる範囲を変化させることを特徴とする。   In order to achieve the above object, the technical feature of the present invention is that the focus state of the focus lens is detected on the basis of an image obtained from the imaging means as the focus lens moves, and the detected focus is detected. A step of controlling the focus lens position to be adjusted based on a focus state; and the focus lens at the time of detecting the focus state based on a change in the size of a subject in an image obtained by the imaging unit. The moving range is changed. As other technical features, a detection process for detecting feature information of a subject from an image obtained by photoelectrically converting a subject image formed by a focus lens, and a range in which the focus lens is moved are set. A focus setting state of the focus lens is detected on the basis of an image obtained as a result of the movement of the focus lens in the range setting step and the range set in the range setting step, and the detected focus state is determined. And a control step for controlling the position of the focus lens so that the subject image is in focus, and in the range setting step, the focus lens in which the subject is in focus in a plurality of captured images is included. A range in which the predicted focus position is detected from the position and the focus lens is moved based on the predicted focus position and the detection result in the detection step And wherein the changing.

本発明によれば、誤って所望の被写体以外の被写体に合焦した場合に、所望の被写体に合焦し直すことのできる焦点調節技術を提供することができる。   According to the present invention, it is possible to provide a focus adjustment technique capable of refocusing a desired subject when the subject other than the desired subject is mistakenly focused.

以下、添付図面を参照して本発明を実施するための最良の形態を詳細に説明する。   The best mode for carrying out the present invention will be described below in detail with reference to the accompanying drawings.

<第1の実施形態>
(装置の構成)
図1は、撮像装置の構成を示すブロック図である。図1において、1は撮像装置、2はズームレンズ群、3はフォーカスレンズ群、4はズームレンズ群2およびフォーカスレンズ群3等からなる撮像光学系を透過した光束の量を制御する光量調節および後述する個体撮像素子5への露出を制御する絞りである。31は、ズームレンズ群2、フォーカスレンズ群3、絞り4等からなる撮影レンズ鏡筒である。5はCCDやCMOSセンサ等に代表される固体撮像素子(以下、「CMOS」と呼ぶ。)で、撮影レンズ鏡筒31を透過し、絞り4によって光量調節された光学被写体像がその受光面に結像され、この結像した被写体像を光電変換して電気的な画像信号を出力する。
<First Embodiment>
(Device configuration)
FIG. 1 is a block diagram illustrating a configuration of the imaging apparatus. In FIG. 1, 1 is an imaging device, 2 is a zoom lens group, 3 is a focus lens group, 4 is a light amount adjustment for controlling the amount of light transmitted through an imaging optical system including the zoom lens group 2 and the focus lens group 3, and the like. It is a stop for controlling exposure to the individual image sensor 5 described later. A photographing lens barrel 31 includes a zoom lens group 2, a focus lens group 3, a diaphragm 4, and the like. Reference numeral 5 denotes a solid-state imaging device (hereinafter referred to as “CMOS”) typified by a CCD or CMOS sensor, and an optical subject image that is transmitted through the taking lens barrel 31 and whose light amount is adjusted by the diaphragm 4 is formed on the light receiving surface. The formed subject image is photoelectrically converted and an electrical image signal is output.

6はCMOS5から出力された画像信号を受けて各種の画像処理を施すことにより所定のフォーマットの画像信号を生成する撮像回路、7は撮像回路6により生成されたアナログ画像信号をデジタルの画像信号(画像データ)に変換するA/D変換回路である。8はこのA/D変換回路7から出力される画像データを一時的に記憶するバッファメモリ等のメモリ(VRAM)である。9はVRAM8に記憶された画像信号を読み出してアナログ画像信号に変換すると共に、再生表示に適する形態の画像信号に変換するD/A変換回路、10はこのアナログ画像信号を表示する液晶表示装置(LCD)等の画像表示装置(以下、「LCD」と呼ぶ。)である。CMOS5により得られた画像を、後述する記憶用メモリ12に記憶せずにVRAM8およびD/A変換回路9を介してLCD10に逐次表示することで、電子ファインダ機能を実現することができる。   An image pickup circuit 6 receives an image signal output from the CMOS 5 and performs various image processing to generate an image signal in a predetermined format. 7 denotes an analog image signal generated by the image pickup circuit 6 as a digital image signal ( This is an A / D conversion circuit for conversion into (image data). Reference numeral 8 denotes a memory (VRAM) such as a buffer memory for temporarily storing image data output from the A / D conversion circuit 7. A D / A conversion circuit 9 reads out an image signal stored in the VRAM 8 and converts it into an analog image signal. The D / A conversion circuit 10 converts the image signal into a format suitable for reproduction display. A liquid crystal display device (10) displays the analog image signal. An image display device (hereinafter referred to as “LCD”) such as an LCD. An image obtained by the CMOS 5 is sequentially displayed on the LCD 10 via the VRAM 8 and the D / A conversion circuit 9 without being stored in the storage memory 12 to be described later, thereby realizing an electronic finder function.

また、12は半導体メモリ等からなる画像データを記憶する記憶用メモリである。記憶用メモリ12としては、フラッシュメモリ等の半導体メモリや、カード形状やスティック形状をし、撮像装置1に対して着脱自在に形成されるカード型フラッシュメモリ等の半導体メモリが用いられる。他にも、ハードディスクやフロッピー(登録商標)ディスク等の磁気記憶媒体等、様々な形態のものが適用される。   Reference numeral 12 denotes a storage memory for storing image data including a semiconductor memory. As the storage memory 12, a semiconductor memory such as a flash memory, or a semiconductor memory such as a card type flash memory that has a card shape or a stick shape and is detachably attached to the imaging device 1 is used. In addition, various forms such as a magnetic storage medium such as a hard disk or a floppy (registered trademark) disk are applied.

11は圧縮伸長回路であって、圧縮回路と伸長回路とからなる。圧縮回路は、VRAM8に一時記憶された画像データを読み出し、記憶用メモリ12への記憶に適した形態に変換するために圧縮処理や符号化処理等を施す。伸長回路は、記憶用メモリ12に記憶された画像データを再生表示等をする為に適した形態に変換するための復号化処理や伸長処理等を施す。例えば、後述する操作スイッチ24のうち、不図示のモード切替スイッチが操作されて撮影モードになり、更にレリーズスイッチが操作されて露光記録動作が指示されると、以下の処理が行われる。まず、上述したようにしてVRAM8に一時記憶された画像データは圧縮伸長回路11の圧縮回路により圧縮および符号化された後、記憶用メモリ12に記憶される。また、再生モードになると再生動作が開始され、以下の処理が行われる。まず、記憶用メモリ12に記憶された画像データは圧縮伸長回路11の伸長回路において復号および伸長された後、VRAM8に一時的に記憶される。VRAM8に一時的に記憶された画像データはD/A変換回路9を介して上述した処理により表示に適したフォーマットのアナログ信号に変換され、LCD10に画像として再生表示される。   Reference numeral 11 denotes a compression / decompression circuit, which includes a compression circuit and an expansion circuit. The compression circuit reads the image data temporarily stored in the VRAM 8 and performs a compression process, an encoding process, and the like in order to convert the image data into a form suitable for storage in the storage memory 12. The decompression circuit performs a decoding process, a decompression process, and the like for converting the image data stored in the storage memory 12 into a form suitable for reproduction and display. For example, among the operation switches 24 to be described later, a mode change switch (not shown) is operated to enter the photographing mode, and when the release switch is operated to instruct an exposure recording operation, the following processing is performed. First, the image data temporarily stored in the VRAM 8 as described above is compressed and encoded by the compression circuit of the compression / decompression circuit 11 and then stored in the storage memory 12. When the playback mode is entered, the playback operation is started and the following processing is performed. First, the image data stored in the storage memory 12 is decoded and expanded in the expansion circuit of the compression / expansion circuit 11 and then temporarily stored in the VRAM 8. The image data temporarily stored in the VRAM 8 is converted into an analog signal in a format suitable for display through the D / A conversion circuit 9 and is reproduced and displayed as an image on the LCD 10.

15は撮像装置1全体の制御を行う演算用のメモリを内蔵したCPU、13はA/D変換回路7から出力されるデジタル画像信号に基づいて自動露出(AE)処理を行うAE処理回路である。AE処理回路13は、A/D変換回路7によってデジタル化された一画面分のデジタル画像信号の輝度値に対して累積加算等の演算処理を行って、被写体の明るさに応じたAE評価値を算出する。このAE評価値はCPU15に出力される。   Reference numeral 15 denotes a CPU incorporating a calculation memory for controlling the entire image pickup apparatus 1, and 13 denotes an AE processing circuit that performs automatic exposure (AE) processing based on a digital image signal output from the A / D conversion circuit 7. . The AE processing circuit 13 performs arithmetic processing such as cumulative addition on the luminance value of the digital image signal for one screen digitized by the A / D conversion circuit 7, and an AE evaluation value corresponding to the brightness of the subject. Is calculated. This AE evaluation value is output to the CPU 15.

14はA/D変換回路7から出力されるデジタルの画像信号に基づいて自動焦点調節(AF)処理を行うAF処理回路である。AF処理回路14では、A/D変換回路7によってデジタル化された一画面分のデジタルの画像信号の内、AF領域として指定された画面の一部分の領域に相当する画像データの高周波成分をハイパスフィルター(HPF)等を介して抽出する。更に、累積加算等の演算処理を行って、高域側の輪郭成分量等に対応するAF評価値を算出する。このように、AF処理回路14は、AF処理を行う過程において、CMOS5によって生成された画像信号から所定の高周波成分を検出する高周波成分検出手段の役割を担っている。なお、AF領域は中央部分の一箇所である場合や中央部分とそれに隣接する複数箇所である場合、離散的に分布する複数箇所である場合などがある。   An AF processing circuit 14 performs automatic focus adjustment (AF) processing based on a digital image signal output from the A / D conversion circuit 7. In the AF processing circuit 14, high-frequency components of image data corresponding to a partial area of the screen designated as the AF area are included in the digital image signal for one screen digitized by the A / D conversion circuit 7. Extract via (HPF) or the like. Further, arithmetic processing such as cumulative addition is performed to calculate an AF evaluation value corresponding to the contour component amount on the high frequency side. As described above, the AF processing circuit 14 serves as a high-frequency component detection unit that detects a predetermined high-frequency component from the image signal generated by the CMOS 5 in the process of performing the AF processing. Note that there are cases where the AF area is a single location in the central portion, the central portion and a plurality of locations adjacent thereto, and a plurality of locations distributed discretely.

16は所定のタイミング信号を発生するタイミングジェネレータ(TG)、17はCMOS5を駆動するCMOSドライバーである。TG16は、所定のタイミング信号をCPU15、撮像回路6、CMOSドライバー17へ出力し、CPU15はこのタイミング信号に同期させて各種の制御を行う。また撮像回路6は、TG16からのタイミング信号を受け、これに同期させて色信号の分離等の各種画像処理を行う。さらにCMOSドライバー17は、TG16のタイミング信号を受け、これに同期してCMOS5を駆動する。   A timing generator (TG) 16 generates a predetermined timing signal, and a CMOS driver 17 drives the CMOS 5. The TG 16 outputs a predetermined timing signal to the CPU 15, the imaging circuit 6, and the CMOS driver 17, and the CPU 15 performs various controls in synchronization with the timing signal. The imaging circuit 6 receives the timing signal from the TG 16 and performs various image processing such as separation of color signals in synchronization with the timing signal. Further, the CMOS driver 17 receives the timing signal of the TG 16 and drives the CMOS 5 in synchronization therewith.

また、21は絞り4を駆動する絞り駆動モータ、18は絞り駆動モータ21を駆動制御する第1モータ駆動回路、22はフォーカスレンズ群3を駆動するフォーカス駆動モータ、19はフォーカス駆動モータ22を駆動制御する第2モータ駆動回路である。23はズームスレンズ群2を駆動するズーム駆動モータ、20はズーム駆動モータ23を駆動制御する第3モータ駆動回路、24は各種のスイッチ群からなる操作スイッチである。   Reference numeral 21 denotes a diaphragm drive motor that drives the diaphragm 4, 18 denotes a first motor drive circuit that drives and controls the diaphragm drive motor 21, 22 denotes a focus drive motor that drives the focus lens group 3, and 19 drives the focus drive motor 22. It is the 2nd motor drive circuit to control. Reference numeral 23 denotes a zoom drive motor that drives the zoom lens group 2, 20 denotes a third motor drive circuit that drives and controls the zoom drive motor 23, and 24 denotes operation switches including various switch groups.

CPU15は、第1モータ駆動回路18、第2モータ駆動回路19、第3モータ駆動回路20をそれぞれ制御する。これにより、絞り駆動モータ21、フォーカス駆動モータ22、ズーム駆動モータ23を介して、絞り4、フォーカスレンズ群3、ズームスレンズ群2をそれぞれ駆動制御する。具体的には、CPU15はAE処理回路13において算出されたAE評価値等に基づき第1モータ駆動回路18を制御して絞り駆動モータ21を駆動し、絞り4の絞り量を適正になるように調整するAE制御を行う。   The CPU 15 controls the first motor drive circuit 18, the second motor drive circuit 19, and the third motor drive circuit 20, respectively. As a result, the diaphragm 4, the focus lens group 3, and the zoom lens group 2 are driven and controlled via the diaphragm drive motor 21, the focus drive motor 22, and the zoom drive motor 23, respectively. Specifically, the CPU 15 controls the first motor drive circuit 18 based on the AE evaluation value calculated in the AE processing circuit 13 to drive the aperture drive motor 21 so that the aperture amount of the aperture 4 becomes appropriate. AE control to be adjusted is performed.

またCPU15はスキャンAF処理回路14において算出されるAF評価値信号に基づき第2モータ駆動回路19を制御してフォーカス駆動モータ22を駆動し、フォーカスレンズ群3を合焦位置に移動させるAF制御を行う。また操作スイッチ24のうち不図示のズームスイッチが操作された場合は、これを受けてCPU15は、第3モータ駆動回路20を制御してズームモータ23を駆動制御することによりズームレンズ群2を移動させ、撮像光学系の変倍動作(ズーム動作)を行う。   Further, the CPU 15 controls the second motor drive circuit 19 based on the AF evaluation value signal calculated by the scan AF processing circuit 14 to drive the focus drive motor 22 and perform AF control for moving the focus lens group 3 to the in-focus position. Do. When a zoom switch (not shown) among the operation switches 24 is operated, the CPU 15 moves the zoom lens group 2 by controlling the third motor drive circuit 20 and driving the zoom motor 23 in response to the operation. The zooming operation of the imaging optical system is performed.

また、操作スイッチ24としては、例えば、以下のものがある。撮像装置1を起動させて電源供給を行うための主電源スイッチや撮影動作(記憶動作)等を開始させるレリーズスイッチ、再生動作を開始させる再生スイッチ、ズーム倍率の変更、すなわち、ズームレンズ群2の移動を指示するズームスイッチ等である。本実施形態では、レリーズスイッチは、第1ストローク(以下、「SW1」と呼ぶ。)と、第2ストローク(以下、「SW2」と呼ぶ。)との二段スイッチにより構成される。SW1は撮像動作に先立ってAE処理およびAF処理を開始させる指示信号を発生する。SW2は実際に画像を撮影して記録する露光記録動作を開始させる指示信号を発生する。   The operation switch 24 includes the following, for example. A main power switch for activating the imaging device 1 to supply power, a release switch for starting a shooting operation (storage operation), a playback switch for starting a playback operation, a change in zoom magnification, that is, the zoom lens group 2 For example, a zoom switch for instructing movement. In the present embodiment, the release switch is configured by a two-stage switch of a first stroke (hereinafter referred to as “SW1”) and a second stroke (hereinafter referred to as “SW2”). SW1 generates an instruction signal for starting AE processing and AF processing prior to the imaging operation. SW2 generates an instruction signal for starting an exposure recording operation for actually capturing and recording an image.

25は各種制御等を行うプログラムや各種動作を行わせるために使用するデータ等が予め記憶されている電気的に書き換え可能な読み出し専用メモリであるEEPROMである。26は電池、28はストロボ発光部、27はストロボ発光部28の閃光発光を制御するスイッチング回路、29は警告表示などを行うLEDなどの表示素子、30は音声によるガイダンスや警告などを行うためのスピーカーである。   An EEPROM 25 is an electrically rewritable read-only memory in which programs for performing various controls, data used for performing various operations, and the like are stored in advance. 26 is a battery, 28 is a strobe light emitting unit, 27 is a switching circuit for controlling flash light emission of the strobe light emitting unit 28, 29 is a display element such as an LED for displaying a warning, etc. 30 is for voice guidance or warning It is a speaker.

33はLEDなどの光源で構成されるAF補助光発光部、32はAF補助光発光部33を駆動するためのAF補助光駆動回路である。   Reference numeral 33 denotes an AF auxiliary light emitting unit composed of a light source such as an LED, and 32 denotes an AF auxiliary light driving circuit for driving the AF auxiliary light emitting unit 33.

次に、本第1の実施形態における撮像装置1の撮影動作について図2に示すフローチャートを用いて説明する。   Next, the shooting operation of the imaging apparatus 1 in the first embodiment will be described using the flowchart shown in FIG.

なお、本発明の説明においては、フォーカスレンズ群3を所定位置に駆動しながらCMOS5の出力に基づいてAF評価値を取得する動作をスキャンと呼ぶ。また、AF評価値を取得するフォーカスレンズの位置をスキャンポイント、スキャンポイントの間隔をスキャン間隔、AF評価値を取得する数をスキャンポイント数、AF評価値を取得するフォーカスレンズ群3の駆動範囲をスキャン範囲と呼ぶものとする。   In the description of the present invention, the operation of acquiring the AF evaluation value based on the output of the CMOS 5 while driving the focus lens group 3 to a predetermined position is referred to as scanning. In addition, the position of the focus lens that acquires the AF evaluation value is the scan point, the interval between the scan points is the scan interval, the number of AF evaluation values is acquired as the number of scan points, and the drive range of the focus lens group 3 that acquires the AF evaluation values is It shall be called a scan range.

(撮像処理のフロー)
図2に示す撮影処理シーケンスは、撮像装置1の主電源スイッチがオン状態であり、かつ撮像装置1の動作モードが撮影(録画)モードにあるときに実行される。
(Imaging process flow)
The imaging processing sequence shown in FIG. 2 is executed when the main power switch of the imaging apparatus 1 is in the on state and the operation mode of the imaging apparatus 1 is in the imaging (recording) mode.

まずステップS1において、CPU15は、上述したように、撮影レンズ鏡筒31を透過しCMOS5上に結像した被写体光学像を、撮像回路6、A/D変換回路7、VRAM8、D/A変換回路9を介して、LCD10に画像として表示する。この処理を所定時間おきに行うことで、LCD10は電子ビューファインダーとして機能する。ユーザーはLCD10に表示された画像を観察することで、撮影するシーンを確認することができる。   First, in step S1, as described above, the CPU 15 converts the subject optical image formed on the CMOS 5 through the photographing lens barrel 31 into the imaging circuit 6, the A / D conversion circuit 7, the VRAM 8, and the D / A conversion circuit. 9, the image is displayed on the LCD 10 as an image. By performing this process every predetermined time, the LCD 10 functions as an electronic viewfinder. The user can confirm the scene to be photographed by observing the image displayed on the LCD 10.

次いでステップS2において、操作スイッチ24のレリーズスイッチの状態を確認する。撮影者によってレリーズスイッチが操作され、SW1がオン状態になったことをCPU15が確認すると次のステップS3に進み、AE処理を行う。ここでは、CPU15がAE処理回路13により求められたAE評価値に基づいて第1モータ駆動回路18を制御することにより、絞り駆動モータ21を介して絞り4の開口状態を制御する。具体的には、AE評価値が低ければ(得られた画像が暗い)絞り4を開き、AE評価値が高ければ(得られた画像が明るい)絞り4を絞るように制御して、適切な明るさ(AE評価値)の画像が得られるようにする。   Next, in step S2, the state of the release switch of the operation switch 24 is confirmed. When the release switch is operated by the photographer and the CPU 15 confirms that the SW1 is turned on, the process proceeds to the next step S3, where AE processing is performed. Here, the CPU 15 controls the first motor drive circuit 18 based on the AE evaluation value obtained by the AE processing circuit 13, thereby controlling the opening state of the diaphragm 4 via the diaphragm drive motor 21. Specifically, if the AE evaluation value is low (the obtained image is dark), the aperture 4 is opened, and if the AE evaluation value is high (the obtained image is bright), the aperture 4 is controlled to be appropriately controlled. An image having brightness (AE evaluation value) is obtained.

続いてステップS4においてAF処理が行われる。AF処理では、CMOS5により得られた画像信号の高周波成分が最も多くなるフォーカスレンズ群3の位置を求め、CPU15は第2モータ駆動回路19を介してフォーカス駆動モータ22を制御し、フォーカスレンズ群3をその求めた位置に移動する。ここで、AF処理の概略を、図3を用いて説明する。   Subsequently, AF processing is performed in step S4. In the AF processing, the position of the focus lens group 3 where the high-frequency component of the image signal obtained by the CMOS 5 is the largest is obtained, and the CPU 15 controls the focus drive motor 22 via the second motor drive circuit 19, and the focus lens group 3 Is moved to the determined position. Here, an outline of the AF processing will be described with reference to FIG.

AF処理はCMOS5によって生成された画像信号から出力される高周波成分が最も多くなるフォーカスレンズ群3の位置を求めることにより行われる。先ず、CPU15は第2モータ駆動回路19を介してフォーカス駆動モータ22を制御し、フォーカスレンズ群3を無限遠に相当する位置(図3における「A」)に移動させる。そして、無限遠位置から各々の撮影モードにおいて設定される至近距離に相当する位置(図3における「B」)までのスキャン範囲を、予め設定されたスキャン間隔でスキャンする。そして、各スキャンポイントでAF処理回路14によりAF評価値を取得する。フォーカスレンズ群3の駆動が終了した時点で、取得したAF評価値から、高周波成分が最大になる位置、即ち合焦位置(図3における「C」)を求め、その位置にフォーカスレンズ群3を移動する。   The AF process is performed by obtaining the position of the focus lens group 3 where the high-frequency component output from the image signal generated by the CMOS 5 is the largest. First, the CPU 15 controls the focus drive motor 22 via the second motor drive circuit 19 to move the focus lens group 3 to a position corresponding to infinity (“A” in FIG. 3). Then, a scan range from the infinity position to a position (“B” in FIG. 3) corresponding to the closest distance set in each photographing mode is scanned at a preset scan interval. Then, an AF evaluation value is acquired by the AF processing circuit 14 at each scan point. When the driving of the focus lens group 3 is completed, a position where the high frequency component is maximized, that is, a focus position ("C" in FIG. 3) is obtained from the acquired AF evaluation value, and the focus lens group 3 is placed at that position. Moving.

なお、スキャンAF処理の高速化のために、ステップS4のスキャン間隔は、フォーカスレンズ群3を停止させることが可能な全ての停止位置ではなく、所定の停止可能位置おきにする。この場合、図3に示すように、実際にAF評価値が最大値となる点でAF評価値の取得が行われず、その前後の点a1、a2、a3においてAF評価値を取得することがあり得る。このような場合は得られたAF評価値の内、最大値となった点とその前後の点から合焦位置Cを計算にて求める。   In order to increase the speed of the scan AF process, the scan interval in step S4 is set at predetermined stoppable positions instead of all stop positions at which the focus lens group 3 can be stopped. In this case, as shown in FIG. 3, the AF evaluation value is not acquired at the point where the AF evaluation value actually becomes the maximum value, and the AF evaluation values may be acquired at the points a1, a2, and a3 before and after that. obtain. In such a case, the in-focus position C is obtained by calculation from the point where the maximum value is obtained and the points before and after the AF evaluation value obtained.

なお、合焦位置を求める前にAF評価値の信頼性を評価する。その信頼性が十分であれば、AF評価値が最大値となる点を求め、「AF OK」表示を行う。これは表示素子29を点灯することなどにより行うと同時に、LCD10上に緑の枠を表示するなどの処理を行う。またAF評価値の信頼性を評価した結果、その信頼性が低い場合には、AF評価値が最大値となる点を求める処理は行わず、「AF NG」表示を行う。これは表示素子であるLEC29を点滅することなどにより行うと同時に、LCD10上に黄色の枠を表示するなどの処理を行う(ステップS5)。なお、上述した表示方法や表示の仕方は一例であり、これらの方法に限るものではないことは言うまでもない。   Note that the reliability of the AF evaluation value is evaluated before obtaining the in-focus position. If the reliability is sufficient, the point at which the AF evaluation value becomes the maximum value is obtained and “AF OK” is displayed. This is performed by turning on the display element 29, and at the same time, processing such as displaying a green frame on the LCD 10 is performed. Further, when the reliability of the AF evaluation value is low as a result of the evaluation, the process for obtaining the point at which the AF evaluation value becomes the maximum value is not performed, and “AF NG” is displayed. This is performed by blinking the LEC 29 which is a display element, and at the same time, a process such as displaying a yellow frame on the LCD 10 is performed (step S5). Needless to say, the display method and display method described above are examples, and the present invention is not limited to these methods.

このようにしてAF処理を終了後、CPU15はステップS6において、SW1のオン状態が継続しているかをチェックする。オフであればステップS1に戻り、オンであればステップS7に進んでSW2の確認を行う。SW2がオフであればステップS6に戻り、SW2がオンになっていたならばステップS8に進む。   After completing the AF process in this way, the CPU 15 checks in step S6 whether the ON state of SW1 continues. If it is off, the process returns to step S1, and if it is on, the process proceeds to step S7 to confirm SW2. If SW2 is off, the process returns to step S6, and if SW2 is on, the process proceeds to step S8.

ステップS8では、連続撮影の枚数をカウントする連写カウンターNの値を1に初期化し、ステップS9において被写体の画像を記録するための露光処理を実行する。露光してCMOS5から得た画像信号は、上述したように、撮像回路6、A/D変換回路7、VRAM8、圧縮伸長回路11を介して記憶用メモリ12に記憶する。   In step S8, the value of the continuous shooting counter N that counts the number of continuous shots is initialized to 1, and in step S9, an exposure process for recording an image of the subject is executed. The image signal obtained by exposure and obtained from the CMOS 5 is stored in the storage memory 12 via the imaging circuit 6, A / D conversion circuit 7, VRAM 8, and compression / decompression circuit 11 as described above.

露光処理が終わると、同時に顔検出も行う(ステップS9)。この顔検出は被写体の移動の予測が正しいかどうかを判定するために用いるので、撮影者によって顔検出機能がオフにされていても行う。また顔検出に用いるのはEVFに表示された露光直前の画像である。顔検出を行い、検出の可否(顔検出ができたか否か)を記録する。また検出ができた場合は検出された顔の大きさおよび画面上の位置も記録する。   When the exposure process is completed, face detection is performed at the same time (step S9). Since this face detection is used to determine whether or not the prediction of the movement of the subject is correct, it is performed even if the face detection function is turned off by the photographer. The image used for face detection is an image immediately before exposure displayed on the EVF. Face detection is performed, and detection availability (whether or not face detection has been completed) is recorded. If the detection is successful, the size of the detected face and the position on the screen are also recorded.

露光処理・顔検出が終了したならば、ステップS10で連写カウンターの値を+1し、ステップS11で再びSW2の確認を行う。SW2がオフになっていたならばステップS6に進んでSW1がオフされるのを待つ。一方、SW2オン状態が維持されたままならばステップS12に進み、連続撮影(連写)が指示されているかどうかを判断する。連写撮影が指示されていなければステップS11に戻ってSW2がオフされるのを待ち、SW2がオフされるとステップS6でSW1がオフされるのを待つ。連写撮影が指示されていれば、ステップS13で撮影と撮影の間に行われるAFに関する処理(連写間AF処理)を行う。そして、連写間AF処理の終了後、ステップS9に戻って露光処理を行う。   When the exposure processing and face detection are completed, the value of the continuous shooting counter is incremented by 1 in step S10, and the SW2 is confirmed again in step S11. If SW2 is off, the process proceeds to step S6 and waits for SW1 to be turned off. On the other hand, if the SW2 ON state is maintained, the process proceeds to step S12, and it is determined whether or not continuous shooting (continuous shooting) is instructed. If continuous shooting is not instructed, the process returns to step S11 to wait for SW2 to be turned off, and when SW2 is turned off, it waits for SW1 to be turned off in step S6. If continuous shooting is instructed, an AF process (inter-shooting AF process) performed between the shootings is performed in step S13. After the continuous shooting AF process is completed, the process returns to step S9 to perform the exposure process.

なお、この連写間AF処理を行うのは、撮影者によって連続撮影が指示されている場合である。連続撮影が指示されていない場合(一枚撮影モードが撮影者により指定されている場合など)は、ステップS9の露光処理が終了した後ステップS11でSW2の状態を調べSW2オン状態が維持されたままならば、SW2オフ状態になるまで待機する。すなわちステップS9〜S13において、ステップS9の露光処理およびステップS10の連写カウンターのカウントアップや、ステップS13の連写間AF処理は行わない。またステップS7においてSW2がオフになっていなければ、SW2がオンになるまで待機するが、この間にSW1がオフの状態になったならばステップS1に戻る。   The continuous shooting AF process is performed when a continuous shooting is instructed by the photographer. When continuous shooting is not instructed (for example, when the single-shooting mode is designated by the photographer), the SW2 state is checked in step S11 after the exposure process in step S9 is completed, and the SW2 on state is maintained. If it remains, it waits until it becomes SW2 OFF state. That is, in steps S9 to S13, the exposure process in step S9, the continuous shooting counter count up in step S10, and the continuous shooting AF process in step S13 are not performed. If SW2 is not turned off in step S7, the process waits until SW2 is turned on. If SW1 is turned off during this time, the process returns to step S1.

(連写間AF処理のフロー)
ここで、ステップS13で行われる連写間AF処理の詳細について、図4を参照して説明する。
(Flow of continuous shooting AF processing)
Details of the continuous shooting AF process performed in step S13 will be described with reference to FIG.

この処理は連続撮影の2枚目以降に実行されるので、初めにこの処理が実行されるときは連続撮影の2枚目用の処理となる。このときの連写カウンターNの値は2である。   Since this process is executed after the second frame of continuous shooting, when this process is executed for the first time, it is a process for the second frame of continuous shooting. The value of the continuous shooting counter N at this time is 2.

ステップS401では、連続撮影の2枚目の撮影であるかどうか調べる。2枚目(連写カウンターNの値が2)であればステップS402へ進み、2枚目でなければステップS403へ進む。   In step S401, it is checked whether or not it is the second continuous shooting. If it is the second sheet (the value of the continuous shooting counter N is 2), the process proceeds to step S402, and if it is not the second sheet, the process proceeds to step S403.

ステップS402では、連続撮影の1枚目の撮影の際のフォーカスレンズ群3の位置(合焦位置FP1)をスキャン範囲の中心ObjP2として設定する。更にスキャン範囲を設定するが、連続撮影の際の撮影間隔を延ばさないことを優先して設定される。具体的には、連続撮影間内に行われる処理、例えばCMOS5からの画像信号の読み出し時間や、次の撮影動作のためのチェック時間等を考慮して、撮影間にAF動作が終了するようにスキャンポイント数を定める。更に、AF動作(合焦位置探索)が可能なスキャン間隔を設定する。つまり、スキャン範囲は(スキャンポイント数−1)とスキャン間隔の積となる。但し、設定されたスキャン範囲が全域(合焦すべき至近端から無限遠端までの範囲)を越える場合は全域をスキャン範囲とする。また設定されたスキャン範囲の端が、合焦可能な至近端または無限遠端を越える場合はスキャン範囲をシフトして、合焦可能な至近端または無限遠端をスキャン範囲が越えないようにする。スキャン範囲の設定が終了したならば、ステップS413へ進む。   In step S402, the position (focus position FP1) of the focus lens group 3 at the time of the first continuous shooting is set as the center ObjP2 of the scan range. Further, although the scan range is set, priority is given to not extending the shooting interval during continuous shooting. Specifically, in consideration of processing performed during continuous shooting, for example, the readout time of the image signal from the CMOS 5 and the check time for the next shooting operation, the AF operation is finished between shootings. Determine the number of scan points. Further, a scan interval capable of AF operation (focus position search) is set. That is, the scan range is the product of (the number of scan points−1) and the scan interval. However, when the set scan range exceeds the entire region (range from the closest end to be focused to the infinity end), the entire region is set as the scan range. In addition, if the end of the set scan range exceeds the near end or infinity end where focusing is possible, the scan range is shifted so that the scan range does not exceed the near end or infinity end where focusing is possible. To. If the setting of the scan range is completed, the process proceeds to step S413.

一方、2枚目の撮影でない場合、ステップS403において連続撮影の3枚目(連写カウンターNの値が3)であるかどうか調べる。3枚目であればステップS404へ進み、3枚目でなければステップS405へ進む。3枚目の場合は、合焦位置履歴情報として連続撮影の1回目、2回目の2つの合焦位置(合焦位置FP1、FP2)に関する情報がある。従って、ステップS404では、連続撮影間の時間は一定であるとして、2つの合焦位置に関する情報から1次近似により被写***置の予測(3回目の撮影の際の合焦位置の予測)を行って、合焦が予測されるスキャン範囲の中心位置ObjP3を式(1)より求める。
ObjP3=FP2+(FP2−FP1)×FpAdj3 …(1)
ここで、上述の合焦が予測される位置(合焦予測位置)とは、スキャン範囲の中心位置、もしくはスキャン範囲そものなど、次の撮影で合焦されることが予測されるフォーカスレンズ群3の位置および/または位置群を示している。
On the other hand, if it is not the second shooting, it is checked in step S403 if it is the third continuous shooting (the value of the continuous shooting counter N is 3). If it is the third sheet, the process proceeds to step S404. If it is not the third sheet, the process proceeds to step S405. In the case of the third image, there is information on the two in-focus positions (in-focus positions FP1, FP2) of the first and second continuous shooting as in-focus position history information. Therefore, in step S404, assuming that the time between continuous shootings is constant, subject position prediction (prediction of in-focus position at the time of the third shooting) is performed by primary approximation from information on the two in-focus positions. The center position ObjP3 of the scan range in which in-focus is predicted is obtained from equation (1).
ObjP3 = FP2 + (FP2-FP1) × FpAdj3 (1)
Here, the position at which the above-described focus is predicted (focus predicted position) is a focus lens group that is predicted to be focused in the next shooting, such as the center position of the scan range or the scan range itself. 3 positions and / or position groups are shown.

なお、パラメータFpAdj3は、被写***置の予測の結果と直前の合焦位置の重み付け設定のパラメータであり、0〜1の値をとる。図6のフォーカスレンズ位置を示す図はFpAdj3を1としている。このようにして演算された中心位置ObjP3に基づいてスキャン範囲が設定され、前回のスキャン範囲から被写体像が移動する方向にずらされる。ここでも、ステップS402と同様にスキャン範囲は連続撮影の際の撮影間隔を延ばさないことを優先して設定される。その後ステップS413へ進む。   The parameter FpAdj3 is a parameter for setting the weight of the prediction result of the subject position and the previous in-focus position, and takes a value of 0 to 1. In the drawing showing the focus lens position in FIG. 6, FpAdj3 is 1. A scan range is set based on the center position ObjP3 calculated in this way, and the subject image is shifted from the previous scan range in the moving direction. In this case as well, as in step S402, the scan range is set with priority given not to extend the shooting interval during continuous shooting. Thereafter, the process proceeds to step S413.

ステップS405では1枚目の撮影直前の顔検出ができたか否かを調べる。1枚目の撮影直前に行われた顔検出において検出ができている場合にはステップS406に進む。また1枚目の撮影直前に行われた顔検出において検出ができていない場合はステップS410に進み、スキャン範囲の設定を行い、その後ステップS413へ進む。つまり、1枚目の撮影直前に顔検出ができていないということは、人物を被写体としていない可能性が高いため、顔検出結果に基づく被写体の移動の予測が正しいか否かの判定は行わない。これは顔が検出されたとしても、偶然検出された顔は違う人物の顔である可能性があるため、顔検出情報を用いることで判断を誤る懸念があるからである。   In step S405, it is checked whether or not the face detection immediately before the first image has been detected. If the face detection performed immediately before the first image is detected, the process proceeds to step S406. If the face detection performed immediately before the first image is not detected, the process proceeds to step S410, the scan range is set, and then the process proceeds to step S413. In other words, the fact that face detection has not been performed immediately before the first image capture is highly likely that a person is not a subject, and therefore it is not determined whether or not the prediction of subject movement based on the face detection result is correct. . This is because even if a face is detected, there is a possibility that the face detected by chance may be a face of a different person, so that there is a concern that the determination is wrong by using the face detection information.

ステップS410では、4枚目以降の撮影であるので合焦位置履歴情報として少なくとも3回の合焦位置に関する情報がある。したがって、連続撮影間の時間は一定であるとすれば、2次近似により被写***置の予測(今回の撮影の際のピーク位置の予測)を行う。例えば4枚目の撮影の際のスキャン範囲の中心位置ObjP4は式(2)より求められる。このようにして演算された中心位置ObjP4に基づいてスキャン範囲が設定され、前回のスキャン範囲から被写体像が移動する方向にずらされる。
ObjP4=(FP1−3FP2+3FP3)×FpAdj4+FP3(1−FpAdj4)
=(FP1−3FP2+2FP3)×FpAdj4+FP3 …(2)
スキャン範囲の設定はステップS402、ステップS404で行われた設定と同様で、連続撮影の際の撮影間隔を延ばさないことを優先して設定される。その後ステップS413へ進む。
In step S410, since the fourth and subsequent shots are taken, the focus position history information includes information on at least three focus positions. Therefore, assuming that the time between continuous shootings is constant, the subject position is predicted by quadratic approximation (peak position prediction at the time of the current shooting). For example, the center position ObjP4 of the scan range at the time of photographing the fourth image is obtained from Expression (2). A scan range is set based on the center position ObjP4 calculated in this manner, and the subject image is shifted from the previous scan range in the moving direction.
ObjP4 = (FP1-3FP2 + 3FP3) × FpAdj4 + FP3 (1-FpAdj4)
= (FP1-3FP2 + 2FP3) × FpAdj4 + FP3 (2)
The setting of the scan range is the same as the setting performed in step S402 and step S404, and is set with priority given not to extend the shooting interval during continuous shooting. Thereafter, the process proceeds to step S413.

ステップS406〜S408では、顔検出の結果(顔情報)から被写体の距離変化を求め、合焦位置の変化から被写体の距離変化を求める。まずステップS406では3枚目の撮影直前にLCD10に画像として表示された露光直前の画像を用いて顔検出を行う。そして、ステップS407にて顔検出ができたか否かを調べる。顔検出ができた場合にはステップS408に進み、顔検出ができなかった場合にはステップS410へ進む。ステップS408では、検出された顔の大きさおよび画面上の位置を求める。そして顔の大きさから被写体の距離変化を求める。1枚目・3枚目の直前の画像から求めた顔の大きさがSize(1)、Size(3)、1枚目の撮影の際の被写体距離をL(1)とした場合、距離変化△LKは、
△LK=Size(1)/Size(3)×L(1)−L(1)
となる。
In steps S406 to S408, a change in the distance of the subject is obtained from the face detection result (face information), and a change in the distance of the subject is obtained from the change in the focus position. First, in step S406, face detection is performed using an image immediately before exposure displayed as an image on the LCD 10 immediately before shooting the third image. In step S407, it is checked whether face detection has been performed. If face detection is possible, the process proceeds to step S408. If face detection is not possible, the process proceeds to step S410. In step S408, the size of the detected face and the position on the screen are obtained. Then, the subject distance change is obtained from the size of the face. When the face size obtained from the images immediately before the first and third images is Size (1), Size (3), and the subject distance at the time of shooting the first image is L (1), the distance changes. △ LK is
ΔLK = Size (1) / Size (3) × L (1) −L (1)
It becomes.

なお、撮影の際の被写体距離は、合焦位置から求められる。合焦位置から被写体距離への変換はカメラの製造時に行われる調整の結果から作られるフォーカスレンズ位置と被写体距離の関係を示すテーブルを参照することで行う。製造時に複数の距離において、AFを行い、その結果得られる合焦時のフォーカスレンズ位置から、フォーカスレンズ位置と被写体距離の関係を示すテーブルを作成する。1枚目3枚目の顔検出で検出された顔の数がともに一つであれば、その顔情報を用いれば良いが、複数個ある場合は画面上での顔の位置が最も近いものを用いる。また位置の近さが同程度のものが複数存在する場合は画面中心に最も近いものを用いる。   Note that the subject distance at the time of shooting is obtained from the in-focus position. The conversion from the in-focus position to the subject distance is performed by referring to a table showing the relationship between the focus lens position and the subject distance, which is created from the result of adjustment performed at the time of manufacturing the camera. AF is performed at a plurality of distances at the time of manufacturing, and a table indicating the relationship between the focus lens position and the subject distance is created from the focus lens position obtained as a result of focusing. If the number of faces detected by the first and third face detection is one, the face information may be used. If there are multiple faces, the face with the closest position on the screen is used. Use. If there are a plurality of objects whose positions are similar, use the one closest to the center of the screen.

さらにステップS408では、連続撮影における1枚目の撮影と3枚目の撮影における合焦位置から1枚目から3枚目にかけての被写体の距離変化を求める。
1枚目・3枚目の被写体距離をL(1)、LAF(3)とすると距離変化△LAFは
△LAF=LAF(3)−L(1)
となる。
In step S408, a change in the distance of the subject from the in-focus position to the first to third images from the in-focus position in the first and third images is obtained.
If the subject distance of the first and third sheets is L (1) and LAF (3), the distance change ΔLAF is ΔLAF = LAF (3) −L (1)
It becomes.

そしてステップS409においてステップS408で求められた距離変化△Lkと距離変化△LAFを比較する。その結果両者の距離変化の差が所定よりも小さい場合は被写体移動の予測が正しい(信頼性が高い)と判断し、S410へ進み、スキャン中心とスキャン範囲の設定を行う。つまり、両者の距離変化の差が所定よりも小さい場合には、スキャン中心も妥当である(信頼性が高い)と判断する。   In step S409, the distance change ΔLk obtained in step S408 is compared with the distance change ΔLAF. As a result, if the difference in distance between the two is smaller than a predetermined value, it is determined that the prediction of subject movement is correct (high reliability), and the process proceeds to S410 to set the scan center and scan range. That is, if the difference in distance between the two is smaller than a predetermined value, it is determined that the scan center is also appropriate (high reliability).

両者が略等しくない場合はステップS411へ進み、スキャン範囲の再設定を行う。つまり、両者の距離変化の差が所定よりも大きい場合は被写体移動の予測が正しくない(信頼性が低い)と判断する。このときスキャン中心も正しくない(信頼性が低い)と判断する。ここで設定されるスキャン範囲は、移動した主被写体がそのスキャン範囲外になってしまい、合焦しないという弊害を解決するため、移動した主被写体をスキャン範囲に含むように設定される必要がある。この現象は以下のようにして生じる。   If the two are not substantially equal, the process proceeds to step S411, and the scan range is reset. That is, when the difference between the distance changes between the two is larger than a predetermined value, it is determined that the subject movement prediction is not correct (reliability is low). At this time, it is determined that the scan center is not correct (low reliability). The scan range set here needs to be set to include the moved main subject in the scan range in order to solve the problem that the moved main subject is out of the scan range and is not focused. . This phenomenon occurs as follows.

1枚目の撮影において、背景の被写体のAF領域に占める割合が大きい場合などは背景に合焦してしまい、その後も背景に合焦し続けることがある。これは背景の被写体のAF領域に占める割合が大きいために、1枚目の撮影で背景に合焦し、その後も背景のAF領域に占める割合が大きいため主被写体ではなく背景に合焦する。そして主被写体が移動しAF領域に占める割合が背景より大きくなった時には移動した主被写体は、ステップS404等で設定されるスキャン範囲ではその外になってしまい合焦しない。   In the first shooting, when the ratio of the background subject to the AF area is large, the background is focused, and the background may continue to be focused thereafter. Since the background occupies a large proportion of the subject in the AF area, the background is focused on the first image, and thereafter the background occupies a large proportion in the AF area, so that the background is not the main subject but the background. When the main subject moves and the proportion of the AF area becomes larger than the background, the moved main subject is outside the scanning range set in step S404 and the like and is not focused.

よってステップS411では、スキャン範囲の設定は被写体へ確実に合焦できるように、焦点距離と撮影距離、想定する被写体の移動速度などを考慮して、ステップS404などで設定されるスキャン範囲の1倍〜3倍程度のスキャン範囲を設定する。この範囲設定の詳細については図5を参照して後述する。   Therefore, in step S411, the scan range is set to one time the scan range set in step S404 and the like in consideration of the focal length, the shooting distance, the assumed moving speed of the subject, and the like so that the subject can be surely focused. A scan range of about 3 times is set. Details of the range setting will be described later with reference to FIG.

ステップS411の処理が終了したならば、ステップS412において連写カウンターを1に初期化する。これにより、背景に合焦し続けるなどして被写体が移動していないと判断された場合は、その時の撮影は連続撮影の1枚目ではないが、1枚目の撮影として扱われる。よって次の撮影も2枚目の撮影として扱われる。以下の撮影も同様である。   When the processing in step S411 is completed, the continuous shooting counter is initialized to 1 in step S412. As a result, if it is determined that the subject has not moved due to continuing to focus on the background or the like, the shooting at that time is not the first continuous shooting but is handled as the first shooting. Therefore, the next shooting is also handled as the second shooting. The same applies to the following photographing.

上記のような処理が終了したならばステップS413へ進む。そして、ステップS413において、後述する図7のフローチャートに従ってスキャンを行いAF評価値信号のピーク値を求め、ステップS414でピーク位置へフォーカスレンズ群3を移動させる。   If the above processing is completed, the process proceeds to step S413. In step S413, scanning is performed according to the flowchart of FIG. 7 to be described later to obtain the peak value of the AF evaluation value signal, and in step S414, the focus lens group 3 is moved to the peak position.

なお、連続撮影の2枚目以降においては、非合焦と判断された場合においても定点ではなく前回の合焦位置へフォーカスレンズ群3の駆動を行う。これは、連続撮影中は同じような像面位置に被写体が存在すると考えられるので、フォーカスレンズを定点に駆動するよりも、前回の合焦位置(フォーカスレンズ駆動位置)へ駆動した方が、ピントが合った画像が得られる可能性が高いと考えられるからである。   In the second and subsequent frames of continuous shooting, the focus lens group 3 is driven not to a fixed point but to the previous in-focus position even when it is determined that it is out of focus. This is because the subject is considered to exist at the same image plane position during continuous shooting, so it is better to drive to the previous focus position (focus lens drive position) than to drive the focus lens to a fixed point. This is because it is considered that there is a high possibility of obtaining an image that matches.

上述の説明では、4枚目までの撮影の際の焦点調節動作について説明したが、5枚目以降についても以下に簡単に述べる。   In the above description, the focus adjustment operation at the time of photographing up to the fourth frame has been described, but the fifth and subsequent frames will be briefly described below.

5枚目以降(連写カウンターの値が5以上)の連続撮影の際には、2次近似により被写***置の予測(今回の撮影の際のピーク位置の予測)を行ってスキャン範囲の中心位置ObjP(n)を式(3)より求める。このようにして演算された中心位置ObjP(n)に基づいてスキャン範囲が設定され、前回のスキャン範囲から被写体像が移動する方向にずらされる。
ObjP(n)=(FP(n−1)−3FP(n−2)+2FP(n))×FpAdj(n)+FP(n−1) …(3)
但し、4枚目の撮影と同様に合焦位置から求めた距離変化と顔検出結果から求めた距離変化が略等しいとみなせない場合は、ステップS411、S412の処理を行い、被写体へ確実に合焦できるようにスキャン範囲の再設定を行う。
For continuous shooting after the fifth shot (continuous shooting counter value is 5 or more), subject position prediction (prediction of peak position for current shooting) is performed by secondary approximation, and the center position of the scan range ObjP (n) is obtained from equation (3). A scan range is set based on the center position ObjP (n) calculated in this way, and the subject image is shifted from the previous scan range in the moving direction.
ObjP (n) = (FP (n−1) −3FP (n−2) + 2FP (n)) × FpAdj (n) + FP (n−1) (3)
However, if the distance change obtained from the in-focus position and the distance change obtained from the face detection result cannot be regarded as substantially equal as in the case of the fourth shot, the processing in steps S411 and S412 is performed to ensure that the subject is properly focused. Reset the scan range so that you can focus.

このような処理を行うことは連写速度単位時間あたりの撮影枚数)の低下を招くが、確実に主被写体に合焦することができる。よって上述した理由で生じる移動した主被写体に合焦せず背景に合焦する弊害を防止できる。   Although such processing causes a reduction in the number of images taken per unit time of continuous shooting speed), the main subject can be surely focused. Therefore, it is possible to prevent the adverse effect of focusing on the background without focusing on the moved main subject for the reason described above.

図6を用いて上記の動作を説明する。図6(A)に主被写体にフォーカスが追従している例、図6(B)に背景に一旦合焦したために連続撮影の初期は主被写体にフォーカスが追従していない例を示す。   The above operation will be described with reference to FIG. FIG. 6A shows an example in which the focus follows the main subject, and FIG. 6B shows an example in which the focus does not follow the main subject at the beginning of continuous shooting because the background is once focused.

まず図6(A)のシーンを例に説明する。式(1)等に示すパラメータFpAdj(n)は、被写***置の予測の結果と直前の合焦位置の重み付け設定のパラメータであり、0〜1の値をとるが、図6のフォーカスレンズ位置を示す図においてはFpAdj(n)を1としている。   First, the scene in FIG. 6A will be described as an example. The parameter FpAdj (n) shown in the equation (1) and the like is a parameter for setting the weight of the prediction result of the subject position and the previous in-focus position, and takes a value of 0 to 1, but the focus lens position in FIG. In the figure shown, FpAdj (n) is 1.

SW1がオンになり一連の撮影動作が開始されると、図2のステップS4のAF処理にて、1枚目の撮影の合焦位置FP1が求められる。更に露光直前の表示画像を用いて顔検出を行う。   When SW1 is turned on and a series of shooting operations are started, the focus position FP1 of the first shooting is obtained in the AF process of step S4 in FIG. Further, face detection is performed using a display image immediately before exposure.

図2のステップS13の連写間AFの2枚目においては、1枚目の合焦位置FP1を2枚目の撮影における被写体の予想移動位置Objp2とする。そして撮影間にAF動作が終了するようにスキャンポイント数を定め、更にAF動作(合焦位置探索)が可能なスキャン間隔を設定することでスキャン範囲を設定する。スキャン範囲は(スキャンポイント数−1)とスキャン間隔の積となる。このようにして設定されたスキャン範囲が全域(合焦すべき至近端から無限遠端までの範囲)を越える場合、またはスキャン範囲をシフトすることで全域をカバーできる場合は全域をスキャン範囲とする。このように設定されたスキャン範囲(図6の示す矢印の範囲)において焦点調節(AF処理)を行う。その結果、合焦位置FP2が求まる。   In the second continuous shooting AF in step S13 in FIG. 2, the first in-focus position FP1 is set as the predicted movement position Objp2 of the subject in the second image capturing. The scan range is set by determining the number of scan points so that the AF operation is completed between photographing and setting a scan interval in which the AF operation (focus position search) is possible. The scan range is the product of (the number of scan points minus 1) and the scan interval. If the scan range set in this way exceeds the entire range (the range from the closest end to be focused to the infinity end), or if the entire range can be covered by shifting the scan range, the entire range is set as the scan range. To do. Focus adjustment (AF processing) is performed in the scan range set in this way (the range of the arrow shown in FIG. 6). As a result, an in-focus position FP2 is obtained.

連写間AFの3枚目においては、1枚目の合焦位置FP1と2枚目の合焦位置FP2から式(1)を用いて、4枚目の撮影における被写体の予想移動位置ObjP3を求める。そして2枚目の撮影と同様にしてスキャン範囲を設定し、設定されたスキャン範囲(図6の示す矢印の範囲)においてAFを行う。その結果、合焦位置FP3が求まる。   In the third continuous shooting AF, the predicted moving position ObjP3 of the subject in the fourth shooting is calculated from the first focusing position FP1 and the second focusing position FP2 using the equation (1). Ask. Then, the scan range is set in the same manner as the second image capturing, and AF is performed in the set scan range (the range indicated by the arrow in FIG. 6). As a result, an in-focus position FP3 is obtained.

連写間AFの4枚目においては、まず1枚目の撮影の際に顔検出が成功したか否かをチェックする。成功している場合は(ここでは成功したと仮定しその場合についてのみ述べる)、3枚目の露光直前の表示画像を用いて顔検出を行う。そして1枚目・3枚目の顔検出の結果(顔の大きさ)Size(1)、Size(3)、および、1枚目の撮影の際の被写体距離であるL(1)から距離変化△LKを、
△LK=Size(1)/Size(3)×L(1)−L(1)
と求める。
In the fourth continuous shooting AF, it is first checked whether or not face detection has succeeded during the first shooting. If it has succeeded (here, it is assumed that it has succeeded and only that case will be described), face detection is performed using the display image immediately before the third exposure. Then, the first and third face detection results (face size) Size (1), Size (3), and the distance change from L (1) which is the subject distance at the time of shooting the first picture △ LK
ΔLK = Size (1) / Size (3) × L (1) −L (1)
I ask.

次いで3枚目の合焦位置から3枚目の被写体距離LAF(3)も求め、距離変化△LAFを
△LAF=LAF(3)−L(1)
と求める。
Next, the third subject distance LAF (3) is also obtained from the third focusing position, and the distance change ΔLAF is set to ΔLAF = LAF (3) −L (1).
I ask.

図6(A)の場合は、正しく被写体を追従しているので△LKと△LAFが略等しいと見なせる。よってこの場合は、被写体の予想移動位置ObjP4を中心にスキャン範囲を設定し(図6の示す矢印の範囲)、その範囲においてAFを行う。その結果、合焦位置FP4が求まる。予想移動位置ObjP4は、1枚目・2枚目・3枚目の合焦位置から式(2)を用いて求める。これ以降の撮影においては同様にして、合焦位置を求める。すなわちn枚目の撮影においては、n−1枚目の露光直前の表示画像を用いて顔検出を行う。顔検出の結果からの距離変化△LKと、1枚目・n−1枚目の合焦位置からの距離変化△LAFを求める。そして両者が略等しいと見なせる場合は、被写体の予想移動位置ObjP4を中心にスキャン範囲を設定し(図6の示す矢印の範囲)、その範囲においてAFを行う。その結果、合焦位置FPnが求まる。   In the case of FIG. 6A, since the subject is correctly followed, ΔLK and ΔLAF can be regarded as substantially equal. Therefore, in this case, a scan range is set around the predicted movement position ObjP4 of the subject (the range of the arrow shown in FIG. 6), and AF is performed in that range. As a result, an in-focus position FP4 is obtained. The expected movement position ObjP4 is obtained from the in-focus positions of the first, second, and third sheets using Expression (2). In the subsequent shooting, the in-focus position is obtained in the same manner. That is, in the n-th shooting, face detection is performed using the display image immediately before the (n-1) th exposure. A distance change ΔLK from the face detection result and a distance change ΔLAF from the in-focus positions of the first and (n-1) th sheets are obtained. If the two can be regarded as substantially equal, a scan range is set around the predicted movement position ObjP4 of the subject (the range of the arrow shown in FIG. 6), and AF is performed within that range. As a result, an in-focus position FPn is obtained.

予想移動位置ObjPnは、n−3枚目・n−2枚目・n−1枚目の合焦位置から式(3)を用いて求める。   The predicted movement position ObjPn is obtained from the in-focus positions of the (n−3) th sheet, the (n−2) th sheet, and the (n−1) th sheet using Expression (3).

一方、図6(B)のように正しく被写体を追従していない場合は、△LKと△LAFの演算結果が略等しい結果でなくなる。この場合は、被写体へ確実に合焦できるように、焦点距離と撮影距離、想定する被写体の移動速度などを考慮して、両者が略等しいと見なせる場合のスキャン範囲に比べ、1倍〜3倍程度の範囲になる様にスキャン範囲を設定し、AFを行う。その結果、図6(B)に示す様に合焦位置FP4が求まる。そしてこの撮影を連続撮影の一枚目として扱う。   On the other hand, when the subject is not correctly followed as shown in FIG. 6B, the calculation results of ΔLK and ΔLAF are not substantially equal. In this case, considering the focal length, the shooting distance, the assumed moving speed of the subject, and the like so that the subject can be surely focused, it is 1 to 3 times the scanning range when both can be regarded as substantially equal. The scan range is set so as to be within the range, and AF is performed. As a result, the in-focus position FP4 is obtained as shown in FIG. This shooting is treated as the first continuous shooting.

図6(B)の様に、一旦背景に合焦してしまった場合は、4枚目の撮影において△LKと△LAFの差が大きいことが検出され、比較的広い範囲でのスキャンAFが行われるので、正確な合焦位置を得ることができる。図6(B)の場合の連写間AFの5枚目においては、4枚目の合焦位置FP4を5枚目の撮影における被写体の予想移動位置Objp5とする。そして2枚目の撮影と同様にしてスキャン範囲を設定し、設定されたスキャン範囲(図6(B)の示す矢印の範囲)においてAFを行い、合焦位置FP5が求まる。連写間AFの6枚目においては、4枚目の合焦位置FP4と5枚目の合焦位置FP5から式(1)を用いて、6枚目の撮影における被写体の予想移動位置ObjP6を求める。そして3枚目の撮影と同様にしてスキャン範囲を設定し、設定されたスキャン範囲(図6(B)の示す矢印の範囲)においてAFを行う。その結果、合焦位置FP6が求まる。連写間AFの7枚目においては、4枚目・5枚目・6枚目の合焦位置から式(2)を用いて、7枚目の撮影における被写体の予想移動位置ObjP7を求める。そして顔検出の結果からの距離変化△LKと、4枚目・6枚目の合焦位置からの距離変化△LAFを求める。両者が略等しいと見なせる場合は、被写体の予想移動位置ObjP7を中心にスキャン範囲を設定し(図6(B)の示す矢印の範囲)、その範囲においてAFを行い、合焦位置FP7が求まる。これ以降の撮影においては同様にして、合焦位置を求める。   As shown in FIG. 6B, once the background is focused, it is detected that the difference between ΔLK and ΔLAF is large in the fourth image pickup, and scan AF in a relatively wide range is performed. Since this is performed, an accurate in-focus position can be obtained. In the fifth continuous shooting AF in the case of FIG. 6B, the fourth in-focus position FP4 is set as the predicted movement position Objp5 of the subject in the fifth photographing. Then, the scan range is set in the same manner as the second image capturing, and AF is performed within the set scan range (the range indicated by the arrow shown in FIG. 6B) to obtain the in-focus position FP5. In the sixth continuous shooting AF, the predicted moving position ObjP6 of the subject in the sixth shooting is calculated from the fourth focusing position FP4 and the fifth focusing position FP5 using Equation (1). Ask. Then, the scan range is set in the same manner as the shooting of the third image, and AF is performed in the set scan range (the range indicated by the arrow in FIG. 6B). As a result, an in-focus position FP6 is obtained. For the seventh frame in the continuous shooting AF, the predicted moving position ObjP7 of the subject in the seventh shooting is obtained from the focusing positions of the fourth, fifth, and sixth frames using Equation (2). Then, a distance change ΔLK from the face detection result and a distance change ΔLAF from the fourth and sixth focusing positions are obtained. When both can be regarded as substantially equal, a scan range is set around the expected movement position ObjP7 of the subject (the range indicated by the arrow shown in FIG. 6B), and AF is performed within that range, and the focus position FP7 is obtained. In the subsequent shooting, the in-focus position is obtained in the same manner.

(ステップS411のスキャン範囲設定のフロー)
以下、図5を参照しながら図4のステップS411でのスキャン範囲の設定について説明する。図5は処理手順を示す図である。
(Scan range setting flow in step S411)
Hereinafter, the setting of the scan range in step S411 in FIG. 4 will be described with reference to FIG. FIG. 5 is a diagram showing a processing procedure.

まずステップS501において初期のスキャン範囲の設定を行う。   First, in step S501, an initial scan range is set.

ステップS402、S404、S410と同様に、撮影間にAF動作が終了するようにスキャンポイント数を定め、更にAF動作(合焦位置探索)が可能なスキャン間隔を設定することで行われる。スキャン範囲は(スキャンポイント数−1)とスキャン間隔の積となる。ステップS502では、上述のようにして設定されたスキャン範囲が全域を越える、または、全域をカバーする範囲であるかどうかを調べる。設定されたスキャン範囲が全域(合焦すべき至近端から無限遠端までの範囲)を越える場合、またはスキャン範囲をシフトすることで全域をカバーできる場合は全域をスキャン範囲とする(ステップS503)。   Similar to steps S402, S404, and S410, the number of scan points is determined so that the AF operation is completed between photographings, and a scan interval at which an AF operation (focus position search) is possible is set. The scan range is the product of (the number of scan points minus 1) and the scan interval. In step S502, it is checked whether the scan range set as described above exceeds the entire area or covers the entire area. When the set scan range exceeds the entire region (range from the closest end to be focused to the infinity end), or when the entire range can be covered by shifting the scan range, the entire region is set as the scan range (step S503). ).

上記の設定で全域をカバーできない場合はステップS504に進む。ステップS504では、スキャン間隔は変えずにスキャンポイント数を1増やす。そして(スキャンポイント数−1)とスキャン間隔の積で求まるスキャン範囲が全域(合焦すべき至近端から無限遠端までの範囲)を越える、またはスキャン範囲をシフトすることで全域をカバーできるかどうかを調べる(ステップS505)。全域をカバーできる場合はステップS503へ進み、全域をスキャン範囲とする。   If the entire area cannot be covered with the above settings, the process proceeds to step S504. In step S504, the number of scan points is increased by 1 without changing the scan interval. The scan range obtained by the product of (the number of scan points minus 1) and the scan interval exceeds the entire range (range from the closest end to be focused to the infinity end), or the entire range can be covered by shifting the scan range. Whether or not (step S505). If the entire area can be covered, the process advances to step S503 to set the entire area as the scan range.

一方、スキャンポイント数を1増やしても全域をカバーしない場合は、ステップS506に進む。ステップS506では、ステップS504でスキャン間隔は変えずにスキャンポイント数を1増やす前のスキャンポイント数(初期スキャンポイント数)の2倍にする。そして、(スキャンポイント数−1)とスキャン間隔の積で求まるスキャン範囲が全域(合焦すべき至近端から無限遠端までの範囲)を越える、またはスキャン範囲をシフトすることで全域をカバーできるかどうかを再び調べる。全域をカバーできる場合はステップS503へ進み全域をスキャン範囲とする。   On the other hand, if the entire area is not covered even if the number of scan points is increased by 1, the process proceeds to step S506. In step S506, without changing the scan interval in step S504, the number of scan points is doubled from the number of scan points before the number is increased by 1 (the number of initial scan points). The scan range obtained by the product of (the number of scan points minus 1) and the scan interval exceeds the entire range (range from the closest end to be focused to the infinity end), or the entire range is covered by shifting the scan range. Check again if you can. If the entire area can be covered, the process advances to step S503 to set the entire area as the scan range.

全域をカバーしない場合は、ステップS508に進む。ステップS508では、設定されたスキャン範囲が全域の2分の1以上か否かを判定する。全域の2分の1以上の場合はその時点で設定されているスキャン範囲(初期スキャン範囲の2倍)をそのままスキャン範囲とする(ステップS510)。ステップS508で設定されたスキャン範囲が全域の2分の1未満の場合は全域のスキャン範囲の2分の1をスキャン範囲とする(ステップS509)。以上の様にしてステップS411の処理を終了する。   If the entire area is not covered, the process proceeds to step S508. In step S508, it is determined whether the set scan range is equal to or greater than half of the entire area. If it is more than half of the entire area, the scan range set at that time (twice the initial scan range) is used as the scan range as it is (step S510). If the scan range set in step S508 is less than half of the entire area, half of the entire scan range is set as the scan range (step S509). The process of step S411 is completed as described above.

(ステップS413のスキャン動作のフロー)
以下、図7のフローチャートを参照しながら図4のフローチャートにおけるスキャン動作(ステップS413)のサブルーチンを説明する。
(Flow of scan operation in step S413)
Hereinafter, the subroutine of the scanning operation (step S413) in the flowchart of FIG. 4 will be described with reference to the flowchart of FIG.

まず、ステップS701ではフォーカスレンズ群3をスキャン開始位置にスキャン動作中のスキャン速度より速い速度で移動する。スキャン開始位置は、本実施形態においては、設定されたスキャン範囲の一端に設定される。ステップS702では、各スキャンポイントについて、撮影領域内に設定されるAF領域に対応する領域の合焦状態を示す焦点評価値とフォーカスレンズ群3の位置をCPU15に内蔵される図示しない演算メモリに記憶する。ステップS703ではレンズ位置がスキャン終了位置にあるかどうかを調べ、終了位置であればステップS705へ、そうでなければステップS704へ進む。前記スキャン終了位置は、設定されたスキャン範囲の他端に設定される。ステップS704ではフォーカスレンズ群3を駆動してスキャン終了位置方向の次のスキャンポイントまで動かし、ステップS702へ戻る。スキャン範囲のスキャンが終了すると、ステップS705では、ステップS702で記憶した焦点評価値とそのレンズ位置から、焦点評価値が最大となる位置に対応するフォーカスレンズの位置(ピーク位置)を計算する。   First, in step S701, the focus lens group 3 is moved to a scan start position at a speed faster than the scan speed during the scan operation. In this embodiment, the scan start position is set at one end of the set scan range. In step S702, for each scan point, the focus evaluation value indicating the focus state of the area corresponding to the AF area set in the imaging area and the position of the focus lens group 3 are stored in a calculation memory (not shown) built in the CPU 15. To do. In step S703, it is checked whether or not the lens position is at the scan end position. If it is the end position, the process proceeds to step S705, and if not, the process proceeds to step S704. The scan end position is set at the other end of the set scan range. In step S704, the focus lens group 3 is driven to move to the next scan point in the scan end position direction, and the process returns to step S702. When the scan of the scan range is completed, in step S705, the focus lens position (peak position) corresponding to the position where the focus evaluation value is maximized is calculated from the focus evaluation value stored in step S702 and its lens position.

(まとめ)
上記の通り、本第1の実施形態によれば、撮影中に、主被写体に合焦せず背景等に合焦する弊害を防止し、確実に主被写体に合焦することが可能になる。
(Summary)
As described above, according to the first embodiment, it is possible to prevent the adverse effect of focusing on the background or the like without focusing on the main subject during shooting, and focusing on the main subject reliably.

なお、本実施形態においては、スキャン時に各スキャンポイントでフォーカスレンズ群3を停止するものとして説明したが、本願発明はこれに限るものではない。例えば、等速でフォーカスレンズ群3を駆動しながら、所定時間間隔でCMOS5から画像信号を読み出してAF評価値を取得するように制御しても良い。   In the present embodiment, the focus lens group 3 is stopped at each scan point during scanning. However, the present invention is not limited to this. For example, the focus lens group 3 may be driven at a constant speed, and control may be performed so as to read an image signal from the CMOS 5 at predetermined time intervals and acquire an AF evaluation value.

また、本第1の実施形態では、顔検出の結果求められた顔の大きさの変化に応じて被写体移動の予測が正しいか否かを判断した。しかしながらこれに限らず、顔検出の結果求められた顔の大きさから被写体距離を推定し、この被写体距離の変化を求めて、撮影における合焦位置から求められた距離変化と比較するようにしてもよい。   In the first embodiment, it is determined whether the subject movement prediction is correct according to the change in the size of the face obtained as a result of the face detection. However, the present invention is not limited to this. The subject distance is estimated from the face size obtained as a result of the face detection, and the change in the subject distance is obtained and compared with the distance change obtained from the focus position in shooting. Also good.

<第2の実施形態>
本発明の第2の実施形態の第1の実施形態に対する違いは、「2枚目の撮影が終了した時点で被写体移動の予測が正しいか否かを判断する」点と「顔検出結果を用いて連写間のAFを行う際のスキャン中心を決める」点である。
<Second Embodiment>
The difference between the second embodiment of the present invention and the first embodiment is that “it is determined whether or not the prediction of subject movement is correct when the second image is taken” and “the face detection result is used. In other words, the center of the scan when performing AF between continuous shots is determined.

(連写間AF処理のフロー)
図8に第2の実施形態における連写間AF処理の手順を示す。実施形態1と同様で、この処理は連続撮影の2枚目以降にしか実行されないので、初めにこの処理が実行されたときは連続撮影の2枚目の処理となる。またこのときの連写カウンターの値は2である。ステップS801では、連続撮影の2枚目の撮影であるかどうか調べる。連続撮影の2枚目(連写カウンターの値が2)であればステップS802へ進み、連続撮影の2枚目でなければステップS803へ進む。
(Flow of continuous shooting AF processing)
FIG. 8 shows the sequence of the continuous shooting AF process in the second embodiment. As in the first embodiment, this process is executed only for the second and subsequent frames of continuous shooting. Therefore, when this process is executed for the first time, it becomes the second sheet of continuous shooting. The value of the continuous shooting counter at this time is 2. In step S801, it is checked whether or not it is the second continuous shooting. If it is the second continuous shooting (the value of the continuous shooting counter is 2), the process proceeds to step S802. If it is not the second continuous shooting, the process proceeds to step S803.

ステップS802では、連続撮影の1枚目の撮影の際のフォーカスレンズ群3の位置(ピーク位置FP1)をスキャン範囲の中心ObjP2として設定する。その後、第1の実施形態と同様にしてスキャン範囲を設定する。スキャン範囲の設定が終了したならばステップS813へ進む。   In step S802, the position of the focus lens group 3 (peak position FP1) at the time of the first continuous shooting is set as the center ObjP2 of the scan range. Thereafter, the scan range is set in the same manner as in the first embodiment. If the scan range setting is completed, the process advances to step S813.

ステップS803では1枚目の撮影直前の顔検出ができたか否かをチェックする。もし1枚目の撮影直前に行われた顔検出において検出ができていない場合はステップS808へ進む。検出できている場合はステップS804に進み、2枚目の撮影直前にLCD10に表示された露光直前の画像を用いて顔検出を行う。そして、ステップS805にて顔検出が成功したかどうかを調べる。顔検出ができなかった場合にはステップS808へ、顔検出ができた場合にはステップS806へ進む。   In step S803, it is checked whether or not the face detection immediately before the first image has been detected. If the face detection performed immediately before the first image is not detected, the process proceeds to step S808. If it is detected, the process proceeds to step S804, and face detection is performed using the image immediately before exposure displayed on the LCD 10 immediately before the second image is taken. In step S805, it is checked whether face detection is successful. If face detection cannot be performed, the process proceeds to step S808. If face detection is performed, the process proceeds to step S806.

検出できた場合は検出された顔の大きさおよび画面上の位置を求める。そして顔の大きさから被写体の距離変化を求める。具体的方法は実施形態1と同じで、1枚目・2枚目の顔検出の結果(顔の大きさ)Size(1)、Size(2)、1枚目の撮影の際の被写体距離をL(1)とすると距離変化△LKは、
△LK=Size(1)/Size(2)×L(1)−L(1)
となる。
If it can be detected, the size of the detected face and the position on the screen are obtained. Then, the subject distance change is obtained from the size of the face. The specific method is the same as in the first embodiment, and the first and second face detection results (face size) Size (1), Size (2), and the subject distance at the time of shooting the first sheet are determined. If L (1), the distance change ΔLK is
ΔLK = Size (1) / Size (2) × L (1) −L (1)
It becomes.

1枚目2枚目の顔検出で検出された顔の数がともに一つであれば、その顔検出情報を用いれば良いが、複数個ある場合は画面上での顔の位置が最も近いものを用いる。また位置の近さが同程度のものが複数存在する場合は画面中心に最も近いものを用いる。   If the number of faces detected by the first and second face detection is one, the face detection information may be used. If there are multiple faces, the face position on the screen is the closest. Is used. If there are a plurality of objects whose positions are similar, use the one closest to the center of the screen.

ついで、連続撮影における1枚目の撮影と2枚目の撮影における合焦位置から1枚目から2枚目にかけての被写体の距離変化を求める。具体的方法は実施形態1と同じで、1枚目・2枚目の被写体距離をL(1)、LAF(2)とすると距離変化△LAFは
△LAF=LAF(2)−L(1)
となる。
Next, a change in the distance of the subject from the in-focus position in the first and second images to the first and second images in continuous shooting is obtained. The specific method is the same as in the first embodiment, and if the subject distance of the first and second sheets is L (1) and LAF (2), the distance change ΔLAF is ΔLAF = LAF (2) −L (1).
It becomes.

そしてステップS807においてステップS806で求められたそれぞれの距離変化(△LKと△LAF)を比較する。その結果両者の距離変化の差が小さい場合は被写体移動の予測が正しいと判断し、S808へ進む。ステップS808では、連続撮影の3枚目(連写カウンターの値が3)であるかどうか調べる。連続撮影の3枚目であればステップS809へ進み、連続撮影の3回目でなければ(4枚目以降の撮影であれば)ステップS810へ進む。   In step S807, the distance changes (ΔLK and ΔLAF) obtained in step S806 are compared. As a result, if the difference between the distance changes is small, it is determined that the subject movement prediction is correct, and the process proceeds to S808. In step S808, it is checked whether or not it is the third continuous shooting (the value of the continuous shooting counter is 3). If it is the third continuous shooting, the process proceeds to step S809, and if it is not the third continuous shooting (for the fourth and subsequent shootings), the process proceeds to step S810.

連続撮影の3枚目の場合は、合焦位置履歴情報として連続撮影の1回目、2回目の2つの合焦位置(ピーク位置FP1、FP2)に関する情報がある。よってステップS809では、連続撮影間の時間は一定であるとして、2つの合焦位置に関する情報から1次近似により被写***置の予測(3回目の撮影の際のピーク位置の予測)を行ってスキャン範囲の中心位置ObjP3を式(1)より求める。
ObjP3=FP2+(FP2−FP1)×FpAdj3 (1)
In the case of the third continuous shooting, the focus position history information includes information on the first and second continuous shooting (peak positions FP1, FP2). Accordingly, in step S809, assuming that the time between continuous shootings is constant, subject position prediction (prediction of peak position at the time of the third shooting) is performed by primary approximation based on information on the two focus positions, and the scan range. Center position ObjP3 is obtained from equation (1).
ObjP3 = FP2 + (FP2-FP1) × FpAdj3 (1)

なおパラメータFpAdj3は、被写***置の予測の結果と直前の合焦位置の重み付け設定のパラメータであり、0〜1の値をとる。このようにして演算された中心位置ObjP3に基づいてスキャン範囲が設定され、前回のスキャン範囲から被写体像が移動する方向にずらされる。具体的な方法は第一実施形態と同様である。スキャン範囲の設定が終了したならばステップS813へ進む。   The parameter FpAdj3 is a parameter for setting the weighting of the result of the prediction of the subject position and the previous in-focus position, and takes a value of 0 to 1. A scan range is set based on the center position ObjP3 calculated in this way, and the subject image is shifted from the previous scan range in the moving direction. The specific method is the same as in the first embodiment. If the scan range setting is completed, the process advances to step S813.

ステップS810では、4枚目以降の撮影であるので合焦位置履歴情報として少なくとも3回の合焦位置に関する情報がある。したがって、連続撮影間の時間は一定であるとすれば、2次近似により被写***置の予測(今回の撮影の際のピーク位置の予測)を行う。例えば4枚目の撮影の際のスキャン範囲の中心位置ObjP4は式(2)より求められる。このようにして演算された中心位置ObjP4に基づいてスキャン範囲が設定され、前回のスキャン範囲から被写体像が移動する方向にずらされる。
ObjP4=(FP1−3FP2+3FP3)×FpAdj4+FP3(1−FpAdj4)
=(FP1−3FP2+2FP3)×FpAdj4+FP3 (2)
スキャン範囲の設定は第1の実施形態と同様である。その後ステップS813へ進む。
In step S810, since the fourth and subsequent shots are taken, the focus position history information includes information on at least three focus positions. Therefore, assuming that the time between continuous shootings is constant, the subject position is predicted by quadratic approximation (peak position prediction at the time of the current shooting). For example, the center position ObjP4 of the scan range at the time of photographing the fourth image is obtained from Expression (2). A scan range is set based on the center position ObjP4 calculated in this manner, and the subject image is shifted from the previous scan range in the moving direction.
ObjP4 = (FP1-3FP2 + 3FP3) × FpAdj4 + FP3 (1-FpAdj4)
= (FP1-3FP2 + 2FP3) × FpAdj4 + FP3 (2)
The setting of the scan range is the same as in the first embodiment. Thereafter, the process proceeds to step S813.

一方、ステップS807において両者が略等しくない場合はステップS811へ進む。そしてスキャン中心とスキャン範囲の再設定を行う。   On the other hand, if both are not substantially equal in step S807, the process proceeds to step S811. Then, the scan center and scan range are reset.

すなわち顔検出結果を用いてスキャン中心を変更する。それとともに、移動した主被写体がそのスキャン範囲外になってしまい合焦しないという弊害を解決するため、移動した主被写体をスキャン範囲に含むようにする。具体的には、ステップS809などで設定されるスキャン範囲の1倍〜2倍程度のスキャン範囲を設定し、被写体が移動しても確実に合焦するようにする。ステップS811の処理が終了したならば、ステップS812において連写カウンターを1に初期化する。これにより、背景に合焦し続けるなどして被写体が移動していないと判断された場合は、その時の撮影は連続撮影の1枚目ではないが、1枚目の撮影として扱われる。よって次の撮影も2枚目の撮影として扱われる。以下の撮影も同様である。   That is, the scan center is changed using the face detection result. At the same time, the moved main subject is included in the scan range in order to solve the problem that the moved main subject is out of the scan range and is not focused. Specifically, a scan range of about 1 to 2 times the scan range set in step S809 or the like is set so that the subject is surely focused even if the subject moves. When the process of step S811 is completed, the continuous shooting counter is initialized to 1 in step S812. As a result, if it is determined that the subject has not moved due to continuing to focus on the background or the like, the shooting at that time is not the first continuous shooting but is handled as the first shooting. Therefore, the next shooting is also handled as the second shooting. The same applies to the following photographing.

上記のような処理が終了したならばステップS813へ進む。そして、ステップS813において、第1の実施形態で述べた図7のフローチャートに従ってスキャンを行いAF評価値信号のピーク値を求め、ステップS814でピーク位置へフォーカスレンズ群3を移動させる。   If the above processing is completed, the process proceeds to step S813. In step S813, scanning is performed according to the flowchart of FIG. 7 described in the first embodiment to obtain the peak value of the AF evaluation value signal. In step S814, the focus lens group 3 is moved to the peak position.

(ステップS811のスキャン範囲再設定のフロー)
ここで、ステップ811でのスキャン中心とスキャン範囲の再設定について、図9を参照しながら具体的手順を説明する。ステップS501における「初期のスキャン範囲の設定」からステップS507における「スキャン範囲が全域を越えるまたは全域をカバーするかチェックする」までの処理は、第1の実施形態と同じであるので、詳しい説明は割愛する。ステップS507までに設定されたスキャン範囲が全域を越えるかまたは全域をカバーしていない場合は、ステップS908においてスキャンの中心位置を顔検出の結果から求める。
(Scan range resetting flow in step S811)
A specific procedure for resetting the scan center and the scan range in step 811 will be described with reference to FIG. Since the processing from “setting of the initial scan range” in step S501 to “checking whether the scan range exceeds the entire area or covers the entire area” in step S507 is the same as that of the first embodiment, a detailed description will be given. Omit. If the scan range set up to step S507 exceeds the entire area or does not cover the entire area, the center position of the scan is obtained from the face detection result in step S908.

まず1枚目のAF結果(合焦位置)から被写体距離L(1)を、カメラの製造時に行われる調整の結果から作られるフォーカスレンズ位置と被写体距離の関係を示すテーブルを参照することで求める。   First, the subject distance L (1) is obtained from the first AF result (focus position) by referring to a table showing the relationship between the focus lens position and the subject distance, which is created from the result of adjustment performed at the time of camera manufacture. .

ついで1枚目・2枚目の顔検出の結果から、3枚目のスキャン中心の被写体距離L(3)を
L(3)=2・L(2)−L(1)
と求める。但し、
L(2)=Size(1)/Size(2)*L(1)、
Size(1)、Size(2)は1枚目・2枚目顔検出結果から得られる顔の大きさである。
Then, from the results of the first and second face detection, the subject distance L (3) of the third scan center is set to L (3) = 2 · L (2) −L (1).
I ask. However,
L (2) = Size (1) / Size (2) * L (1),
Size (1) and Size (2) are the face sizes obtained from the first and second face detection results.

そして、このスキャン中心の被写体距離L(3)からスキャン中心のフォーカスレンズ位置ObjP3をフォーカスレンズ位置と被写体距離の関係を示すテーブルを参照することで求める。   Then, the focus lens position ObjP3 at the scan center is obtained from the subject distance L (3) at the scan center by referring to a table showing the relationship between the focus lens position and the subject distance.

ここで、顔の大きさ情報を基にスキャン中心を変えた場合には、フォーカス調整の誤差や中心の位置の検出誤差を考慮して、スキャン範囲を2倍にする。   Here, when the scan center is changed based on the face size information, the scan range is doubled in consideration of the focus adjustment error and the center position detection error.

4枚目の撮影以降は、その直前の3回の顔検出の結果(顔の大きさ)Size(n−1)−8・Size(n−2)+3・Size(n−3)
と3枚前の撮影時の合焦位置から得られた被写体距離L(n−3)を用いて、2次関数としてスキャン中心の被写体距離L(n)を求める。その際は以下の式を用いる。
L(n)=Size(n−3)/Size(n)×L(n−3)
但しSize(n)=6・Size(n−1)−8・Size(n−2)+3・Size(n−3)、Size(n−1)、Size(n−2)、Size(n−3)は1枚・2枚・3枚前の顔検出結果から得られる顔の大きさである。
After the fourth image is taken, the result of face detection three times immediately before that (face size) Size (n−1) −8 · Size (n−2) + 3 · Size (n−3)
And the subject distance L (n-3) obtained from the in-focus position at the time of the previous three images, the subject distance L (n) at the scan center is obtained as a quadratic function. In that case, the following formula is used.
L (n) = Size (n−3) / Size (n) × L (n−3)
However, Size (n) = 6.Size (n-1) -8.Size (n-2) + 3.Size (n-3), Size (n-1), Size (n-2), Size (n- 3) is the face size obtained from the face detection results of the previous, second and third face.

このスキャン中心の被写体距離L(n)からスキャン中心のフォーカスレンズ位置ObjPnをフォーカスレンズ位置と被写体距離の関係を示すテーブルを参照することで求める。   The focus lens position ObjPn at the scan center is obtained from the subject distance L (n) at the scan center by referring to a table showing the relationship between the focus lens position and the subject distance.

ここでも、顔の大きさ情報を基にスキャン中心を変えたので、フォーカス調整の誤差や中心の位置の検出誤差を考慮して、スキャン範囲を2倍にする。   Again, since the scan center is changed based on the face size information, the scan range is doubled in consideration of focus adjustment errors and center position detection errors.

(まとめ)
上記の通り、本第2の実施形態によれば、撮影中に、主被写体に合焦せず背景等に合焦する弊害を防止し、確実に主被写体に合焦することが可能になる。
(Summary)
As described above, according to the second embodiment, it is possible to prevent the adverse effect of focusing on the background or the like without focusing on the main subject during shooting, and focusing on the main subject reliably.

なお、上述の実施形態では、△LKと△LAFの演算結果が略等しい結果でない場合、被写体へ確実に合焦できるように、顔の大きさ情報からスキャン中心を変え、スキャン範囲も設定しなおした。しかしながら、顔の大きさ情報から得られた被写体距離に対応するフォーカスレンズ位置の信頼性が十分高い場合には、スキャン範囲の幅は変更せず、スキャンの位置だけを変更するようにしてもよい。このときも、スキャン中心が移動されたので、合焦状態を検出する動作の際、フォーカスレンズは通常(もしくは前回の移動量)よりも大きく移動することとなる。   In the above-described embodiment, if the calculation results of ΔLK and ΔLAF are not substantially equal, the scan center is changed from the face size information and the scan range is set again so that the subject can be surely focused. did. However, when the reliability of the focus lens position corresponding to the subject distance obtained from the face size information is sufficiently high, only the scan position may be changed without changing the width of the scan range. . Also at this time, since the scan center has been moved, the focus lens moves more than usual (or the previous movement amount) in the operation of detecting the in-focus state.

<第3の実施形態>
本発明の第3の実施形態は、顔検出が成功したか、失敗したかに応じて、連写間のAFを行う際のスキャン範囲を切り換える点が第1の実施形態と異なる。
<Third Embodiment>
The third embodiment of the present invention is different from the first embodiment in that the scan range when performing AF between continuous shots is switched depending on whether face detection is successful or unsuccessful.

(連写間AF処理のフロー)
連写間AF処理の詳細について、図10を参照して説明する。前述した第1の実施形態における連写間AF処理のフローと同じ処理については同一のステップを記し、説明を省略する。
(Flow of continuous shooting AF processing)
Details of the continuous shooting AF processing will be described with reference to FIG. The same steps as the flow of the continuous shooting AF processing in the first embodiment described above are denoted by the same steps, and description thereof is omitted.

ステップS405、S407において、顔検出が成功でなかった場合には、ステップS415に進む。4枚目以降の撮影であるので、合焦位置履歴情報として少なくとも3回の撮影で用いられた合焦位置に関する情報がある。連続撮影の時間間隔は一定であるので、2次近似により被写***置の予測(今回の撮影の際の合焦位置の予測)を行う。例えば4枚目の撮影の際のスキャン範囲の中心位置ObjP4は、式(2)より求める。
なお、ここでは3枚目までと異なり、スキャン範囲の設定は行わない。
If the face detection is not successful in steps S405 and S407, the process proceeds to step S415. Since the fourth and subsequent shots are taken, there is information on the focus position used in at least three shots as the focus position history information. Since the time interval of continuous shooting is constant, the subject position is predicted (predicting the in-focus position at the time of the current shooting) by secondary approximation. For example, the center position ObjP4 of the scan range at the time of photographing the fourth image is obtained from Expression (2).
Here, unlike the third sheet, the scan range is not set.

ついでステップS416において、3枚目の撮影の合焦位置FP3と、求めた4枚目の中心位置ObjP4の差の絶対値を求め、これを被写体の光軸方向の移動量とする。なお、5枚目以降であれば、求めた中心位置とその直前の撮影における合焦位置との差の絶対値が移動量となる。   In step S416, the absolute value of the difference between the in-focus position FP3 of the third image and the obtained center position ObjP4 of the fourth image is obtained, and this is set as the amount of movement of the subject in the optical axis direction. For the fifth and subsequent images, the absolute value of the difference between the obtained center position and the in-focus position at the previous shooting is the movement amount.

そしてステップS417において、ステップS416で求められた被写体の光軸方向の移動量を所定値と比較することで、被写体が光軸方向に大きく移動しているか否かを判定する。その結果、被写体の光軸方向の移動量が所定値を超える場合はステップS418へ進み、スキャン範囲の設定を行う。この場合の設定の仕方はステップS402及びステップS404で行われた設定の仕方と同様で、連続撮影の際の撮影間隔を延ばさないことを優先して設定される。その後ステップS413へ進む。   In step S417, the movement amount of the subject in the optical axis direction obtained in step S416 is compared with a predetermined value to determine whether or not the subject has moved greatly in the optical axis direction. As a result, if the amount of movement of the subject in the optical axis direction exceeds a predetermined value, the process proceeds to step S418, and the scan range is set. The setting method in this case is the same as the setting method performed in step S402 and step S404, and is set with priority given to not extending the shooting interval in continuous shooting. Thereafter, the process proceeds to step S413.

一方、被写体の光軸方向の移動量が所定値以下の場合はステップS419へ進み、スキャン範囲の設定を行う。ここでは、以下のような現象により、移動した主被写体がスキャン範囲外になってしまい、合焦しないという弊害を解決するため、移動した主被写体をスキャン範囲に含むように設定する。   On the other hand, if the amount of movement of the subject in the optical axis direction is less than or equal to the predetermined value, the process proceeds to step S419, where the scan range is set. Here, due to the following phenomenon, the moved main subject is set to be included in the scan range in order to solve the problem that the moved main subject is out of the scan range and is not focused.

例えば、1枚目の撮影において、背景の被写体がAF領域に占める割合が大きい場合などは背景に合焦してしまい、その後も背景に合焦し続けることがある。これは例えば背景の被写体のAF領域に占める割合が大きいために、1枚目の撮影で背景に合焦し、その後も背景のAF領域に占める割合が大きいため主被写体ではなく背景に合焦する場合である。そして主被写体が移動し、AF領域に占める背景の割合がより大きくなった時には、移動した主被写体は、ステップS404等で設定されるスキャン範囲ではその外になってしまい、被写体に合焦しなくなってしまう。   For example, in the first shooting, when the ratio of the background subject to the AF area is large, the background is focused, and the background may continue to be focused thereafter. For example, since the ratio of the background subject to the AF area is large, the background is focused on the first image, and after that, the ratio to the background AF area is large so that the background is focused on the background instead of the main subject. Is the case. When the main subject moves and the proportion of the background in the AF area becomes larger, the moved main subject is outside the scan range set in step S404 and the like, and is not focused on the subject. End up.

よってステップS417において比較に用いるこの所定値は、連写間AF処理の結果が背景に張り付いていないか否かを判定するためのものとなる。その値は、合焦位置や予測位置の検出誤差等を考慮して被写体が動いていないと判断できる値となる。   Therefore, the predetermined value used for comparison in step S417 is used to determine whether or not the result of the continuous shooting AF processing is stuck to the background. The value is a value by which it can be determined that the subject is not moving in consideration of the detection error of the in-focus position and the predicted position.

ステップS419では、スキャン範囲の設定を行う。ここでは被写体は大きく動いていないと判断されているので、連写速度よりも合焦精度が重要視される。従って被写体へ確実に合焦できるように、ステップS418などで設定されるスキャン範囲の1倍〜3倍程度のスキャン範囲を設定する。   In step S419, the scan range is set. Here, since it is determined that the subject does not move greatly, focus accuracy is more important than continuous shooting speed. Accordingly, a scan range of about 1 to 3 times the scan range set in step S418 or the like is set so that the subject can be in focus with certainty.

具体的には以下のようにして設定させる。図11に図10のステップS419におけるスキャン範囲の設定処理手順を示す。   Specifically, it is set as follows. FIG. 11 shows a scan range setting processing procedure in step S419 in FIG.

まずステップS51において初期のスキャン範囲の設定を行う。ステップS418と同様に、撮影間にAF動作が終了するようにスキャンポイント数を定め、更にAF動作(合焦位置探索)が可能なスキャン間隔を設定することで行われる。スキャン範囲は(スキャンポイント数−1)とスキャン間隔の積となる。このようにして設定されたスキャン範囲が全域(合焦すべき至近端から無限遠端までの範囲)を越える場合(ステップS52でYES)、またはスキャン範囲をシフトすることで全域をカバーできる場合は全域をスキャン範囲とする(ステップS53)。   First, in step S51, an initial scan range is set. Similar to step S418, the number of scan points is determined so that the AF operation is completed during photographing, and a scan interval at which an AF operation (focus position search) is possible is set. The scan range is the product of (the number of scan points minus 1) and the scan interval. When the scan range set in this way exceeds the entire range (the range from the closest end to be focused to the infinity end) (YES in step S52), or the entire range can be covered by shifting the scan range Is the scan range (step S53).

上記の設定で全域をカバーできない場合は(ステップS52でNO)、ステップS54においてスキャン間隔は変えずにスキャンポイント数を1増やす。そして(スキャンポイント数−1)とスキャン間隔の積で求まるスキャン範囲が全域を越える、またはスキャン範囲をシフトすることで全域をカバーできる場合(ステップS55でYES)は、全域をスキャン範囲とする(ステップS53)。   If the entire area cannot be covered with the above settings (NO in step S52), the number of scan points is increased by 1 in step S54 without changing the scan interval. If the scan range obtained by the product of (the number of scan points minus 1) and the scan interval exceeds the entire range, or the entire range can be covered by shifting the scan range (YES in step S55), the entire range is set as the scan range ( Step S53).

スキャンポイント数を1増やしても全域をカバーできない場合は、ステップS54において、スキャン間隔は変えずにスキャンポイント数を1増やす前のスキャンポイント数(初期スキャンポイント数)の2倍にする。そして、(スキャンポイント数−1)とスキャン間隔の積で求まるスキャン範囲が全域を越える、またはスキャン範囲をシフトすることで全域をカバーできる場合(ステップS57でYES)は、全域をスキャン範囲とする(ステップS53)。   If the entire area cannot be covered even if the number of scan points is increased by 1, the number of scan points is increased to twice the number of scan points before the increase of 1 (initial scan point number) without changing the scan interval in step S54. If the scan range obtained by the product of (the number of scan points minus 1) and the scan interval exceeds the entire range, or the entire range can be covered by shifting the scan range (YES in step S57), the entire range is set as the scan range. (Step S53).

全域をカバーしない場合は、ステップS58で、設定されたスキャン範囲が全域の2分の1以上か否かを判定する。全域の2分の1以上の場合はその時点で設定されているスキャン範囲(初期スキャン範囲の2倍)をそのままスキャン範囲とする。一方、ステップS58で、設定されたスキャン範囲が全域の2分の1未満の場合は全域のスキャン範囲の2分の1をスキャン範囲とする(ステップS59)。   If the entire area is not covered, it is determined in step S58 whether or not the set scan range is one half or more of the entire area. If it is more than half of the entire area, the scan range set at that time (twice the initial scan range) is used as it is. On the other hand, if the set scan range is less than half of the entire area in step S58, half of the entire scan range is set as the scan range (step S59).

以上のようにしてスキャン範囲設定処理が終了すると、図10に戻り、ステップS420において連写カウンターを1に初期化する。これにより、背景に合焦し続けるなどして被写体が移動していないと判断された場合は、その時の撮影は連続撮影の1枚目ではないが、1枚目の撮影として扱われる。よって次の撮影は2枚目の撮影として扱われることになる。以下の撮影も同様である。   When the scan range setting process is completed as described above, the process returns to FIG. 10 and the continuous shooting counter is initialized to 1 in step S420. As a result, if it is determined that the subject has not moved due to continuing to focus on the background or the like, the shooting at that time is not the first continuous shooting but is handled as the first shooting. Therefore, the next shooting is handled as the second shooting. The same applies to the following photographing.

上記処理が終了したならばステップS413へ進む。ステップS413において、前述した図7のフローチャートに従ってスキャンを行い、AF評価値のピーク値を求め、ステップS414で合焦位置へフォーカスレンズ群3を移動する。   If the above process ends, the process proceeds to step S413. In step S413, scanning is performed according to the flowchart of FIG. 7 described above to obtain the peak value of the AF evaluation value, and in step S414, the focus lens group 3 is moved to the in-focus position.

なお、同様にして5枚目以降(連写カウンターNの値が5以上)の連続撮影の際には、図10のステップS415で2次近似により被写***置の予測(今回の撮影の際の合焦位置の予測)を行って、スキャン範囲の中心位置ObjP(n)を式(3)より求める。このようにして演算された中心位置ObjP(n)に基づいてスキャン範囲が設定され、前回のスキャン範囲から被写体像が移動する方向にずらされる。   Similarly, in the case of continuous shooting after the fifth shot (the value of the continuous shooting counter N is 5 or more), in step S415 of FIG. The focus position is predicted), and the center position ObjP (n) of the scan range is obtained from Expression (3). A scan range is set based on the center position ObjP (n) calculated in this way, and the subject image is shifted from the previous scan range in the moving direction.

但し、4枚目の撮影と同様に被写体の移動量が所定値以下の場合は、ステップS419からステップS420に進み、被写体へ確実に合焦できるようにスキャン範囲の設定を行う。
このような処理を行うことは連写速度単位時間あたりの撮影枚数の低下を招くが、確実に主被写体に合焦することができる。もし本当に被写体が動いていない場合や、被写体が動いていたとしても大きく動いていない場合は連写速度(単位時間あたりの撮影枚数)は問題にならず、スキャン範囲を広くとっても構わない。これは、移動の少ない被写体ではスキャン中に主被写体の画面内での位置がほとんど変わらないため、撮影者の意図どおりの構図を得られるからである。動きが少ない被写体はスキャンする時間が多少かかっても、その間の被写体移動は少ない場合が多いからである。
However, if the amount of movement of the subject is equal to or smaller than the predetermined value, as in the case of the fourth image, the process proceeds from step S419 to step S420, and the scan range is set so that the subject can be surely focused.
Although such processing causes a reduction in the number of shots per unit time of continuous shooting speed, it can surely focus on the main subject. If the subject is not really moving, or if the subject is not moving greatly, the continuous shooting speed (number of images taken per unit time) does not matter and the scanning range may be widened. This is because the position of the main subject on the screen hardly changes during scanning for a subject with little movement, so that the composition as intended by the photographer can be obtained. This is because a subject with little movement often takes a little time to scan, but there is often little movement of the subject during that time.

上記処理によれば、上述した理由により生じる、移動した主被写体に合焦せず背景に合焦する弊害を防止することが可能になる。   According to the above processing, it is possible to prevent the adverse effect of focusing on the background without focusing on the moved main subject, which occurs for the reason described above.

(第1〜3の実施形態のまとめ)
上述したように、第1、第2の実施形態では、合焦位置検出動作を行い、合焦位置を得た後に連続して複数の画像を撮影する。この際、各々の撮影においてそれまでに得られた一つ又は複数の合焦位置から、その撮影時点でのおおまかな合焦位置を予測し、その位置に基づいて正確な合焦位置の探索(合焦位置のスキャン)を行う。これにより、被写体が等速で近づいてくるような一般的な被写体に対する合焦能力を向上させている。
(Summary of first to third embodiments)
As described above, in the first and second embodiments, a focus position detection operation is performed, and a plurality of images are continuously captured after obtaining the focus position. At this time, a rough focus position at the time of shooting is predicted from one or a plurality of focus positions obtained so far in each shooting, and an accurate focus position search (based on the position) Scan the in-focus position). This improves the focusing ability for a general subject in which the subject approaches at a constant speed.

また主被写体が人物である場合は、上記の予測された撮影時点でのおおまかな合焦位置から求められる距離変化と、顔検出手段により求まる顔の大きさの変化から推測される距離変化が一致するか判断する。一致しない場合には、一致した場合に比べて広い範囲または全域(無限遠〜該当する最至近距離)で合焦位置の探索(合焦位置のスキャン)を行う。間違えて背景に合焦した場合は合焦位置がほとんど変わらず両者は一致しない。このため、このような場合は比較的広い範囲または全域(無限遠〜該当する最至近距離)で合焦位置を探索するようにすることにより動いている主被写体に合焦することが可能になる。   If the main subject is a person, the distance change obtained from the rough focus position at the predicted shooting time and the distance change estimated from the face size change obtained by the face detection means match. Judge whether to do. If they do not match, the focus position search (focus position scan) is performed in a wider range or in the whole area (from infinity to the closest closest distance) compared to the case where they match. If you make a mistake and focus on the background, the focus position will not change and the two will not match. Therefore, in such a case, it is possible to focus on the moving main subject by searching for the in-focus position within a relatively wide range or the entire region (from infinity to the closest closest distance). .

この場合は、撮影と撮影の間に行われる正確な合焦位置の探索に要する時間が延びることになる。この結果、初めの合焦位置を得た後に連続して複数の画像を撮影する場合に単位時間あたりの撮影枚数が減るが、ピントに関しては正しい位置が求められ、画質も向上する。   In this case, the time required for searching for an accurate in-focus position performed between shootings is extended. As a result, when a plurality of images are continuously captured after obtaining the first in-focus position, the number of images to be taken per unit time is reduced, but the correct position is required for focusing, and the image quality is improved.

なお、第1〜3の実施形態では、例えば、背景に張り付いているなどの予測結果に応じて、スキャン範囲を変更する(広げる)よう構成した。しかしながら、これに限るものではない。例えば、背景に張り付いていると予測された場合には、スキャン範囲の中心位置を合焦位置の履歴情報や顔情報(顔の大きさ、位置等)を参照して移動させるよう制御してもよい。   In the first to third embodiments, for example, the scan range is changed (expanded) according to a prediction result such as sticking to the background. However, the present invention is not limited to this. For example, if it is predicted to stick to the background, control is performed so that the center position of the scan range is moved by referring to the focus position history information and face information (face size, position, etc.). Also good.

また、第1〜3の実施形態では顔情報として主に顔の大きさ情報を用いて被写体距離の変化を算出したが、画像面内の顔位置に応じて被写体距離の変化を算出するよう構成してもよい。また、上述の実施形態では顔情報に基づいて、求められた合焦位置が主被写体の合焦位置であるか否かを判別した。しかしながら、顔情報に限るものではない。例えば、被写体全体の大きさや位置などの特徴情報でもよい。   In the first to third embodiments, the change in the subject distance is calculated mainly using the face size information as the face information. However, the change in the subject distance is calculated according to the face position in the image plane. May be. In the above-described embodiment, it is determined based on the face information whether or not the obtained in-focus position is the in-focus position of the main subject. However, it is not limited to face information. For example, characteristic information such as the size and position of the entire subject may be used.

また、第1〜3の実施形態はコンパクトタイプのデジタルカメラを例に説明したが、本発明は、デジタルビデオカメラやデジタルSLRの位相差AFにも適用可能である。具体的に以下に説明する。連続撮影の2枚目の撮影の際には、1枚目の撮影の際のフォーカスレンズ群3の位置に対応する被写***置が、予測される被写***置となる。また、連続撮影の3枚目の撮影の際には、1枚目、2枚目の2つの合焦位置に関する情報から1次近似により被写***置の予測を行って求めることができる。そして、連続撮影の4枚目以降の撮影の際には、合焦位置履歴情報として少なくとも3回の撮影で用いられた合焦位置に関する情報を基にして、2次近似により被写***置の予測を行って求めることができる。そして、これらの結果より、被写体の光軸方向の移動量が所定値以下の場合は、連写間AF処理の結果が背景に張り付いていないかを検出するように制御する。これにより、主被写体に適正にピントを合わせることができているかを判断することが可能となる。また、第1、第2の実施形態と同様に、それぞれの撮影の際の顔検出処理の結果(顔の大きさ)から、被写体移動を予測し、距離変化が、合焦位置から求められた被写体距離変化とほぼ等しいか否かを判別する。そして判定結果から、連写間AF処理の結果が背景に張り付いていないかを検出するように制御する。これにより、主被写体に適正にピントを合わせることができているかを判断することが可能となる。この予測結果を用いて、例えば、位相差AFの際に予測された合焦位置にまずフォーカスレンズを移動させてから、AFセンサからの信号に基づいて位相差AFを実行する。すると、合焦位置の付近にフォーカスレンズがある状態で微調整を行うことができるため、精度を向上させることができる。   Although the first to third embodiments have been described by taking a compact digital camera as an example, the present invention can also be applied to a phase difference AF of a digital video camera or a digital SLR. This will be specifically described below. At the time of the second continuous shooting, the subject position corresponding to the position of the focus lens group 3 at the time of the first shooting is the predicted subject position. In addition, when the third image is taken in continuous shooting, the subject position can be estimated by first-order approximation from information on the two in-focus positions of the first image and the second image. Then, at the time of the fourth and subsequent shootings of continuous shooting, the subject position is predicted by secondary approximation based on information on the focus position used in at least three shootings as the focus position history information. You can go and ask. From these results, when the amount of movement of the subject in the optical axis direction is equal to or smaller than a predetermined value, control is performed so as to detect whether the result of the continuous shooting AF processing is stuck to the background. This makes it possible to determine whether or not the main subject can be properly focused. Similarly to the first and second embodiments, the movement of the subject is predicted from the result (face size) of the face detection process at the time of each photographing, and the distance change is obtained from the in-focus position. It is determined whether or not the subject distance change is substantially equal. From the determination result, control is performed so as to detect whether or not the result of the continuous shooting AF process sticks to the background. This makes it possible to determine whether or not the main subject can be properly focused. Using this prediction result, for example, the focus lens is first moved to the in-focus position predicted in the phase difference AF, and then the phase difference AF is executed based on the signal from the AF sensor. Then, since the fine adjustment can be performed with the focus lens in the vicinity of the in-focus position, the accuracy can be improved.

また、上述したように、主被写体にピントを適正に合わせているのか、意図する被写体でないところにピントがあってしまっているのかを合焦位置履歴や顔検出結果から推定することができる。よって、意図する被写体でないところにピントがあってしまっているかどうかの情報を利用することにより、位相差AFをやり直したり、より意図する被写体にピントが合うよう調整できる。   Further, as described above, it can be estimated from the focus position history and the face detection result whether the main subject is properly focused or whether the subject is not intended. Therefore, by using the information on whether or not the subject is not the intended subject, it is possible to redo the phase difference AF or to adjust the focus to the intended subject.

また、第3の実施形態では顔検出が成功した場合には、第1の実施形態と同様に連写間AF処理を行うよう構成した。しかしながら、第3の実施形態で顔検出が成功した場合に、第2の実施形態と同様に連写間AF処理を実行するようにしてもよい。   In the third embodiment, when face detection is successful, the continuous shooting AF processing is performed as in the first embodiment. However, when face detection is successful in the third embodiment, the continuous shooting AF process may be executed as in the second embodiment.

第1、第2の実施形態における撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device in 1st, 2nd embodiment. 第1、第2の実施形態における撮像処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the imaging process in 1st, 2nd embodiment. オートフォーカス処理を説明する概略図である。It is the schematic explaining an autofocus process. 第1の実施形態における連写間AF処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the AF process between continuous shootings in 1st Embodiment. 第1の実施形態におけるスキャン範囲設定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the scanning range setting process in 1st Embodiment. 第1の実施形態における被写体の動きに対する焦点位置および連写間AF処理を説明する為の図である。It is a figure for demonstrating the focus position with respect to the motion of the to-be-photographed object in 1st Embodiment, and the continuous shooting AF process. 第1、第2の実施形態におけるスキャン処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the scanning process in 1st, 2nd embodiment. 第2の実施形態における連写間AF処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the AF process between continuous shootings in 2nd Embodiment. 第2の実施形態におけるスキャン範囲設定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the scanning range setting process in 2nd Embodiment. 第3の実施形態における連写間AF処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of continuous shooting AF processing in the third embodiment. 第3の実施形態におけるスキャン範囲設定処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of scan range setting processing in the third embodiment. 従来のAF処理を説明する為の図である。It is a figure for demonstrating the conventional AF process.

符号の説明Explanation of symbols

1 撮像装置、
2 ズームレンズ群
3 フォーカスレンズ群
4 絞り
31 撮影レンズ鏡筒
5 CMOS
6 撮像回路
7 A/D変換回路
8 VRAM
9 D/A変換回路
10 LCD
12 記憶用メモリ
11 圧縮伸長回路
13 AE処理回路
14 スキャンAF処理回路
15 CPU
16 タイミングジェネレータ
17 CMOSドライバー
21 絞り駆動モータ
18 第一モータ駆動回路
22 フォーカス駆動モータ
19 第ニモータ駆動回路
23 ズーム駆動モータ
20 第三モータ駆動回路
24 操作スイッチ
25 EEPROM
26 電池
28 ストロボ発光部
27 スイッチング回路
29 表示素子
30 スピーカー
32 AF補助光駆動回路
33 AF補助光発光部
1 imaging device,
2 Zoom lens group 3 Focus lens group 4 Aperture 31 Shooting lens barrel 5 CMOS
6 Imaging circuit 7 A / D conversion circuit 8 VRAM
9 D / A converter circuit 10 LCD
12 Memory for Storage 11 Compression / Expansion Circuit 13 AE Processing Circuit 14 Scan AF Processing Circuit 15 CPU
16 Timing generator 17 CMOS driver 21 Aperture drive motor 18 First motor drive circuit 22 Focus drive motor 19 Second motor drive circuit 23 Zoom drive motor 20 Third motor drive circuit 24 Operation switch 25 EEPROM
26 Battery 28 Strobe light emitting unit 27 Switching circuit 29 Display element 30 Speaker 32 AF auxiliary light driving circuit 33 AF auxiliary light emitting unit

Claims (11)

フォーカスレンズにより結像された被写体像を光電変換して画像を取得する撮像手段と、
前記フォーカスレンズの移動に伴って前記撮像手段から得られた画像を基に前記フォーカスレンズの合焦状態を検出し、当該検出された合焦状態に基づいて前記フォーカスレンズ位置を調節するよう制御する制御手段とを備え、
前記制御手段は、前記撮像手段にて得られた画像における被写体の大きさの変化に基づいて前記合焦状態の検出の際の前記フォーカスレンズを移動させる範囲を変更することを特徴とする焦点調節装置。
Imaging means for photoelectrically converting a subject image formed by a focus lens to obtain an image;
A focus state of the focus lens is detected on the basis of an image obtained from the imaging unit as the focus lens moves, and control is performed so as to adjust the focus lens position based on the detected focus state. Control means,
The focus adjustment is characterized in that the control means changes a range in which the focus lens is moved when detecting the in-focus state based on a change in size of a subject in an image obtained by the imaging means. apparatus.
前記画像における被写体の大きさの変化が、複数の撮影の際の合焦位置に基づく変化より大きい場合、前記フォーカスレンズの合焦状態を検出する際のフォーカスレンズの移動量を所定より大きくすることを特徴とする請求項1に記載の焦点調節装置。   When the change in the size of the subject in the image is larger than the change based on the focus position at the time of shooting, the amount of movement of the focus lens when detecting the focus state of the focus lens is made larger than a predetermined amount. The focus adjustment apparatus according to claim 1, wherein: フォーカスレンズにより結像された被写体像を光電変換して画像を得る撮像手段と、
前記撮像手段にて得られた画像から被写体の特徴情報を検出する検出手段と、
前記フォーカスレンズを移動させる範囲を設定する範囲設定手段と、
前記範囲設定手段にて設定された範囲における前記フォーカスレンズの移動にともなって前記撮像手段から得られた画像を基に前記フォーカスレンズの合焦状態を検出し、当該検出された合焦状態を基に被写体像が合焦となるように前記フォーカスレンズ位置を調節するよう制御する制御手段とを備え、
前記範囲設定手段は、撮影した複数の画像において被写体が合焦となったフォーカスレンズの位置から合焦予測位置を検出し、当該合焦予測位置および前記検出手段の検出結果に基づいて、前記フォーカスレンズを移動させる範囲を変化させることを特徴とする焦点調節装置。
Imaging means for photoelectrically converting a subject image formed by a focus lens to obtain an image;
Detecting means for detecting feature information of a subject from an image obtained by the imaging means;
Range setting means for setting a range for moving the focus lens;
A focus state of the focus lens is detected based on an image obtained from the image pickup means as the focus lens moves within a range set by the range setting means, and the detected focus state is used as a basis. Control means for controlling the position of the focus lens so that the subject image is in focus,
The range setting means detects a predicted focus position from the position of the focus lens at which the subject is in focus in a plurality of captured images, and the focus setting position is based on the predicted focus position and the detection result of the detection means. A focus adjustment device that changes a range in which a lens is moved.
前記被写体の特徴情報は、前記被写体の大きさであることを特徴とする請求項3に記載の焦点調節装置。   The focus adjustment apparatus according to claim 3, wherein the feature information of the subject is a size of the subject. 前記範囲設定手段は、前記被写体の大きさに変化があった場合に、当該変化がなかった場合よりも前記フォーカスレンズを移動させる範囲を広くすることを特徴とする請求項4に記載の焦点調節装置。   5. The focus adjustment according to claim 4, wherein the range setting unit widens the range in which the focus lens is moved when the size of the subject changes compared to when the size does not change. apparatus. 前記範囲設定手段は、前記被写体の大きさの撮影ごとの変化が前記合焦予測位置の変化よりも大きい場合には小さい場合に比べて前記フォーカスレンズを移動させる範囲を広くすることを特徴とする請求項4又は5に記載の焦点調節装置。   The range setting means widens the range in which the focus lens is moved when a change in the size of the subject for each shooting is larger than a change in the predicted focus position compared to a case where the change is small. The focus adjustment apparatus according to claim 4 or 5. 前記範囲設定手段は、前記被写体の大きさの情報に基づき前記フォーカスレンズを移動させる位置を決めることを特徴とする請求項4乃至6のいずれか1項に記載の焦点調節装置。   The focus adjustment apparatus according to claim 4, wherein the range setting unit determines a position to move the focus lens based on information on a size of the subject. 前記範囲設定手段は、前記検出手段により被写体の特徴情報が検出できた場合よりも検出できなかった場合のほうが、前記フォーカスレンズの移動の範囲を広くすることを特徴とする請求項1乃至7のいずれか1項に記載の焦点調節装置。   8. The range setting unit widens the range of movement of the focus lens when the feature information of the subject is not detected by the detection unit than when the feature information is detected by the detection unit. The focus adjustment apparatus according to any one of the above. 請求項1乃至8のいずれかに記載の焦点調節装置と、前記フォーカスレンズを有することを特徴とする撮像装置。   An imaging apparatus comprising: the focus adjustment apparatus according to claim 1; and the focus lens. フォーカスレンズの移動に伴って撮像手段から得られた画像を基に前記フォーカスレンズの合焦状態を検出し、当該検出された合焦状態に基づいて前記フォーカスレンズ位置を調節するよう制御する工程と、
前記撮像手段にて得られた画像における被写体の大きさの変化に基づいて前記合焦状態の検出の際の前記フォーカスレンズを移動させる範囲を変更することを特徴とする焦点調節方法。
A step of detecting the in-focus state of the focus lens based on an image obtained from the imaging means as the focus lens moves, and controlling to adjust the position of the focus lens based on the detected in-focus state; and ,
A focus adjustment method, wherein a range in which the focus lens is moved when detecting the in-focus state is changed based on a change in size of a subject in an image obtained by the imaging unit.
フォーカスレンズにより結像された被写体像を光電変換して得られた画像から被写体の特徴情報を検出する検出工程と、
前記フォーカスレンズを移動させる範囲を設定する範囲設定工程と、
前記範囲設定工程にて設定された範囲における前記フォーカスレンズの移動にともなって得られた画像を基に前記フォーカスレンズの合焦状態を検出し、当該検出された合焦状態を基に被写体像が合焦となるように前記フォーカスレンズ位置を調節するよう制御する制御工程とを有し、
前記範囲設定工程では、撮影した複数の画像において被写体が合焦となったフォーカスレンズの位置から合焦予測位置を検出し、当該合焦予測位置および前記検出工程での検出結果に基づいて、前記フォーカスレンズを移動させる範囲を変化させることを特徴とする焦点調節方法。
A detection step of detecting feature information of a subject from an image obtained by photoelectrically converting a subject image formed by a focus lens;
A range setting step for setting a range for moving the focus lens;
A focus state of the focus lens is detected based on an image obtained with the movement of the focus lens in the range set in the range setting step, and a subject image is generated based on the detected focus state. A control step for controlling the position of the focus lens so as to be in focus, and
In the range setting step, the focus prediction position is detected from the position of the focus lens where the subject is in focus in the plurality of captured images, and based on the focus prediction position and the detection result in the detection step, A focus adjustment method characterized by changing a range in which the focus lens is moved.
JP2007124693A 2006-08-01 2007-05-09 Focus adjustment device, imaging device, and focus adjustment method Expired - Fee Related JP5004649B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007124693A JP5004649B2 (en) 2007-05-09 2007-05-09 Focus adjustment device, imaging device, and focus adjustment method
US11/781,545 US7725018B2 (en) 2006-08-01 2007-07-23 Focus control apparatus, image sensing apparatus and focus control method
CN2009101771439A CN101685239B (en) 2006-08-01 2007-08-01 Focus control apparatus, image sensing apparatus and focus control method
CN201110393944.6A CN102523383B (en) 2006-08-01 2007-08-01 Focus control apparatus, image sensing apparatus and focus control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007124693A JP5004649B2 (en) 2007-05-09 2007-05-09 Focus adjustment device, imaging device, and focus adjustment method

Publications (3)

Publication Number Publication Date
JP2008281701A true JP2008281701A (en) 2008-11-20
JP2008281701A5 JP2008281701A5 (en) 2010-01-28
JP5004649B2 JP5004649B2 (en) 2012-08-22

Family

ID=40142583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007124693A Expired - Fee Related JP5004649B2 (en) 2006-08-01 2007-05-09 Focus adjustment device, imaging device, and focus adjustment method

Country Status (1)

Country Link
JP (1) JP5004649B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008695A (en) * 2008-06-26 2010-01-14 Sony Corp Image capturing apparatus, focus control method, and program
JP2011107581A (en) * 2009-11-20 2011-06-02 Canon Inc Imaging apparatus and focus control method
JP2011199560A (en) * 2010-03-19 2011-10-06 Nec Corp Cellular phone and scale display method
JP2013130758A (en) * 2011-12-22 2013-07-04 Canon Inc Focus adjustment apparatus
JP2014126790A (en) * 2012-12-27 2014-07-07 Canon Inc Device and method for automatically adjusting focus, imaging apparatus and program
JP2014132321A (en) * 2013-01-07 2014-07-17 Canon Inc Focus adjustment device and method
WO2014109125A1 (en) * 2013-01-09 2014-07-17 ソニー株式会社 Image processing device, image processing method and program
JP2015007797A (en) * 2014-08-20 2015-01-15 オリンパスイメージング株式会社 Digital camera and digital camera control method
JP2015040968A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Focus adjustment unit, image capturing device, and focus adjustment method
JP2015118337A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Image capturing device, control method therefor, program, and storage medium
JP2016122196A (en) * 2016-01-12 2016-07-07 カシオ計算機株式会社 Imaging device, imaging method, and program
US9936120B2 (en) 2014-01-28 2018-04-03 Casio Computer Co., Ltd. Image capture apparatus performing interval shooting, image capture method and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002122773A (en) * 2000-10-13 2002-04-26 Olympus Optical Co Ltd Focusing unit, electronic camera and focusing method
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2006023652A (en) * 2004-07-09 2006-01-26 Canon Inc Image pickup apparatus and its control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002122773A (en) * 2000-10-13 2002-04-26 Olympus Optical Co Ltd Focusing unit, electronic camera and focusing method
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2006023652A (en) * 2004-07-09 2006-01-26 Canon Inc Image pickup apparatus and its control method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010008695A (en) * 2008-06-26 2010-01-14 Sony Corp Image capturing apparatus, focus control method, and program
JP4535173B2 (en) * 2008-06-26 2010-09-01 ソニー株式会社 Imaging apparatus, focus control method, and program
US8204370B2 (en) 2008-06-26 2012-06-19 Sony Corporation Image pickup apparatus, focus control method and focus control program
JP2011107581A (en) * 2009-11-20 2011-06-02 Canon Inc Imaging apparatus and focus control method
JP2011199560A (en) * 2010-03-19 2011-10-06 Nec Corp Cellular phone and scale display method
JP2013130758A (en) * 2011-12-22 2013-07-04 Canon Inc Focus adjustment apparatus
JP2014126790A (en) * 2012-12-27 2014-07-07 Canon Inc Device and method for automatically adjusting focus, imaging apparatus and program
JP2014132321A (en) * 2013-01-07 2014-07-17 Canon Inc Focus adjustment device and method
WO2014109125A1 (en) * 2013-01-09 2014-07-17 ソニー株式会社 Image processing device, image processing method and program
JPWO2014109125A1 (en) * 2013-01-09 2017-01-19 ソニー株式会社 Image processing apparatus, image processing method, and program
US10547774B2 (en) 2013-01-09 2020-01-28 Sony Corporation Image processing device, image processing method, and program
US11012614B2 (en) 2013-01-09 2021-05-18 Sony Corporation Image processing device, image processing method, and program
JP2015040968A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Focus adjustment unit, image capturing device, and focus adjustment method
JP2015118337A (en) * 2013-12-19 2015-06-25 キヤノン株式会社 Image capturing device, control method therefor, program, and storage medium
US9936120B2 (en) 2014-01-28 2018-04-03 Casio Computer Co., Ltd. Image capture apparatus performing interval shooting, image capture method and storage medium
JP2015007797A (en) * 2014-08-20 2015-01-15 オリンパスイメージング株式会社 Digital camera and digital camera control method
JP2016122196A (en) * 2016-01-12 2016-07-07 カシオ計算機株式会社 Imaging device, imaging method, and program

Also Published As

Publication number Publication date
JP5004649B2 (en) 2012-08-22

Similar Documents

Publication Publication Date Title
JP5004649B2 (en) Focus adjustment device, imaging device, and focus adjustment method
US9277112B2 (en) Auto focusing apparatus and auto focusing method, and image sensing apparatus
CN101685239B (en) Focus control apparatus, image sensing apparatus and focus control method
JP5157256B2 (en) Image tracking device and imaging device
JP2009015117A (en) Focusing device and image pickup apparatus
JP4845628B2 (en) Focus adjustment device, imaging device, and focus adjustment method
US7391461B2 (en) Apparatus, method and control computer program for imaging a plurality of objects at different distances
JP4801960B2 (en) Autofocus control device, image forming apparatus using the autofocus control device, and autofocus control method
JP5020643B2 (en) Imaging apparatus and control method thereof
JP5173676B2 (en) Automatic focus adjustment device and control method thereof
JP2007129310A (en) Imaging apparatus
US9357124B2 (en) Focusing control device and controlling method of the same
JP2009157123A (en) Imaging device
JP5056136B2 (en) Image tracking device
US10313602B2 (en) Image capture apparatus and method for controlling the same
JP5858658B2 (en) Imaging device
JP6071561B2 (en) Focus adjustment apparatus and method
JP2011048265A (en) Focus detection device and focus detection method
JP2006023653A (en) Optical equipment
JP2009198975A (en) Focus adjustment device and focus adjustment method therefor
JP6274779B2 (en) Focus adjustment device, imaging device, and focus adjustment method
JP6335503B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2006157604A (en) Camera apparatus and automatic photographing control program
JP2011071671A (en) Image recognition device and imaging apparatus
JP2018113624A (en) Imaging apparatus and control method for imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091208

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees