JP2008276214A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2008276214A
JP2008276214A JP2008094974A JP2008094974A JP2008276214A JP 2008276214 A JP2008276214 A JP 2008276214A JP 2008094974 A JP2008094974 A JP 2008094974A JP 2008094974 A JP2008094974 A JP 2008094974A JP 2008276214 A JP2008276214 A JP 2008276214A
Authority
JP
Japan
Prior art keywords
subject
distance
digital camera
unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008094974A
Other languages
Japanese (ja)
Other versions
JP5251215B2 (en
Inventor
Koichi Abe
幸一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2008094974A priority Critical patent/JP5251215B2/en
Priority to EP08153976A priority patent/EP1986421A3/en
Priority to US12/078,632 priority patent/US20080284900A1/en
Priority to CN200810090579.XA priority patent/CN101281290B/en
Publication of JP2008276214A publication Critical patent/JP2008276214A/en
Priority to US13/037,026 priority patent/US8253847B2/en
Application granted granted Critical
Publication of JP5251215B2 publication Critical patent/JP5251215B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera capable of more accurately focusing on a moving subject and photographing it. <P>SOLUTION: The digital camera includes: an imaging unit that receives and images light from a subject transmitted a photographing optical system; a recognition unit that recognizes a feature region of the subject using an image obtained by imaging with the imaging unit; a detection unit that detects size of the feature region that is recognized with the recognition unit; and a control unit that predicts a distance to the subject after a predetermined period of time according to the size of the feature region, and controls the photographing optical system so as to focus on the subject. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、デジタルカメラに関する。   The present invention relates to a digital camera.

従来から、デジタルカメラのオートフォーカス(AF)の方式としてコントラスト方式が知られている。このコントラスト方式では、被写体をCCD等の撮像素子で撮像して画像信号を取得し、画像内の所定のAFエリア内の画像信号から所定空間周波数帯域の成分を取り出し、その絶対値を積分することで焦点評価値を演算する。この焦点評価値は、焦点検出エリアのコントラストに応じた値であり、コントラストが高いほどその値が高くなる。そして、フォーカスレンズが合焦位置に近いほど像のコントラストが高くなる特性に基づいて、焦点評価値がピークとなる位置(ピーク位置)を見つけて合焦位置と判断し、その位置にフォーカスレンズを駆動する(特許文献1)。
特開2003−315665号公報
Conventionally, a contrast method is known as an autofocus (AF) method for digital cameras. In this contrast method, a subject is imaged by an image sensor such as a CCD to obtain an image signal, a component in a predetermined spatial frequency band is extracted from the image signal in a predetermined AF area in the image, and the absolute value is integrated. To calculate the focus evaluation value. This focus evaluation value is a value corresponding to the contrast of the focus detection area, and the higher the contrast, the higher the value. Based on the characteristic that the contrast of the image increases as the focus lens is closer to the in-focus position, a position where the focus evaluation value reaches a peak (peak position) is found and determined as the in-focus position, and the focus lens is placed at that position. Drive (Patent Document 1).
JP 2003-315665 A

しかし、合焦位置となるコントラストのピーク位置を検出するために、フォーカスレンズを光軸に沿って移動させながら所定間隔ごとに焦点評価値を演算し、それらの焦点評価値を分析してピーク位置を探し出すので、合焦するのに時間がかかり、動きのある被写体に合焦できないという問題があった。   However, in order to detect the peak position of the contrast, which is the in-focus position, the focus evaluation value is calculated at predetermined intervals while moving the focus lens along the optical axis, and the focus evaluation value is analyzed and the peak position is analyzed. It takes a long time to focus on the subject, and there is a problem that it cannot focus on a moving subject.

本発明の目的は、動きのある被写体に対してより正確に合焦し、撮影することができるデジタルカメラを提供することである。   An object of the present invention is to provide a digital camera that can more accurately focus and photograph a moving subject.

請求項1に記載のデジタルカメラは、撮影光学系を透過した被写体からの光を受光して撮像する撮像部と、前記撮像部で撮像した画像を用いて前記被写体の特徴領域を認識する認識部と、前記認識部により認識された特徴領域の大きさを検出する検出部と、前記特徴領域の大きさに基づいて所定時間後の前記被写体までの距離を予測し、前記被写体に合焦するように前記撮影光学系を制御する制御部とを備えることを特徴とする。   The digital camera according to claim 1, wherein an imaging unit that receives and captures light from a subject that has passed through a photographing optical system, and a recognition unit that recognizes a feature region of the subject using an image captured by the imaging unit And a detection unit for detecting the size of the feature area recognized by the recognition unit, and predicting a distance to the subject after a predetermined time based on the size of the feature region so as to focus on the subject. And a controller for controlling the photographing optical system.

請求項2に記載のデジタルカメラは、請求項1に記載のデジタルカメラにおいて、前記特徴領域の大きさに基づいて前記被写体までの距離を算出する距離算出部と、前記被写体までの距離の時間変化に基づいて、前記被写体の移動速度を算出する速度算出部とをさらに備え、前記制御部は、前記距離算出部で算出される前記被写体までの距離、および前記速度算出部で算出される前記被写体の移動速度から、前記被写体までの距離を予測することを特徴とする。   The digital camera according to claim 2 is the digital camera according to claim 1, wherein a distance calculation unit that calculates a distance to the subject based on a size of the feature region, and a time change of the distance to the subject And a speed calculation unit that calculates a moving speed of the subject based on the distance, the control unit is a distance to the subject calculated by the distance calculation unit, and the subject calculated by the speed calculation unit The distance to the subject is predicted from the moving speed of the object.

請求項3に記載のデジタルカメラは、請求項2に記載のデジタルカメラにおいて、前記距離算出部は、前記撮影光学系を構成するレンズの位置情報から前記被写体までの距離を算出し、前記撮影光学系を構成するレンズの位置情報から前記被写体までの距離を算出した後は、算出した前記被写体までの距離と前記特徴領域の大きさとに基づいて前記被写体までの距離を算出することを特徴とする。   The digital camera according to claim 3 is the digital camera according to claim 2, wherein the distance calculation unit calculates a distance to the subject from position information of a lens constituting the imaging optical system, and the imaging optical After calculating the distance to the subject from the position information of the lenses constituting the system, the distance to the subject is calculated based on the calculated distance to the subject and the size of the feature region. .

請求項4に記載のデジタルカメラは、請求項1から請求項3のいずれか一項に記載のデジタルカメラにおいて、前記制御部は、撮影実行操作から前記撮像部が撮像するまでの時間から、撮像時の前記被写体までの距離を予測し、前記撮像部による撮像時に前記被写体に合焦するように前記撮影光学系を制御することを特徴とする。   The digital camera according to claim 4 is the digital camera according to any one of claims 1 to 3, wherein the control unit captures an image from a time from a photographing execution operation until the imaging unit captures an image. The distance to the subject at the time is predicted, and the photographing optical system is controlled to focus on the subject at the time of imaging by the imaging unit.

請求項5に記載のデジタルカメラは、請求項1から請求項4のいずれか一項に記載のデジタルカメラにおいて、前記認識部が認識した前記特徴領域のうち、前記被写体までの距離を予測するための前記被写体の特徴領域を選択し、選択した前記被写体の特徴領域の特徴情報を登録する登録部をさらに備え、前記被写体の特徴領域の特徴情報を登録した後には、前記認識部は、前記被写体の特徴領域の特徴情報を基に前記被写体の特徴領域を認識することを特徴とする。   The digital camera according to claim 5 is the digital camera according to any one of claims 1 to 4, wherein the distance from the feature region recognized by the recognition unit to the subject is predicted. A registration unit that selects the feature region of the subject and registers the feature information of the feature region of the selected subject, and after registering the feature information of the feature region of the subject, the recognition unit The feature area of the subject is recognized based on the feature information of the feature area.

請求項6に記載のデジタルカメラは、請求項5に記載のデジタルカメラにおいて、前記撮像部で撮像して取得した画像を記録媒体に記録する記録制御部をさらに備え、前記登録部は、前記記録媒体に記録されている画像に基づいて前記被写体の特徴領域の特徴情報を登録することを特徴とする。   A digital camera according to a sixth aspect of the present invention is the digital camera according to the fifth aspect, further comprising a recording control unit that records an image captured and acquired by the imaging unit on a recording medium, and the registration unit includes the recording unit The feature information of the feature region of the subject is registered based on the image recorded on the medium.

請求項7に記載のデジタルカメラは、請求項5または請求項6に記載のデジタルカメラにおいて、前記特徴領域の特徴情報は、前記撮影光学系を構成するレンズの位置情報、前記被写体までの距離、前記特徴領域の大きさのうち少なくとも1つであることを特徴とする。   The digital camera according to claim 7 is the digital camera according to claim 5 or 6, wherein the feature information of the feature region includes position information of a lens constituting the photographing optical system, a distance to the subject, It is at least one of the sizes of the feature regions.

請求項8に記載のデジタルカメラは、請求項4に記載のデジタルカメラにおいて、前記距離算出部および前記速度算出部のいずれか一方の算出結果に応じて、撮影条件を変更することを特徴とする。   The digital camera according to claim 8 is characterized in that, in the digital camera according to claim 4, the shooting condition is changed according to a calculation result of one of the distance calculation unit and the speed calculation unit. .

請求項9に記載のデジタルカメラは、請求項8に記載のデジタルカメラにおいて、前記撮影条件は、シャッタースピードおよびISO感度のいずれか一方であることを特徴とする。   A digital camera according to a ninth aspect is the digital camera according to the eighth aspect, wherein the photographing condition is one of a shutter speed and an ISO sensitivity.

請求項10に記載のデジタルカメラは、請求項1から請求項9のいずれか1項に記載のデジタルカメラにおいて、前記制御部は、前記撮像部で時系列に取得された複数の画像に存在する、複数の前記特徴領域の大きさに基づいて、前記所定時間後の前記被写体までの距離を予測することを特徴とする。   The digital camera according to claim 10 is the digital camera according to any one of claims 1 to 9, wherein the control unit is present in a plurality of images acquired in time series by the imaging unit. The distance to the subject after the predetermined time is predicted based on the sizes of the plurality of feature regions.

本発明によれば、動きのある被写体に対してより正確に合焦し、撮影することができるデジタルカメラを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the digital camera which can focus on a to-be-photographed object more correctly and can image | photograph can be provided.

(第1実施形態)
本発明の第1実施形態について説明する。
(First embodiment)
A first embodiment of the present invention will be described.

図1は、本実施形態におけるデジタルカメラ1の電気的構成を示すブロック図である。   FIG. 1 is a block diagram showing an electrical configuration of a digital camera 1 in the present embodiment.

レンズ2は、フォーカスレンズ2aおよびズームレンズ2bを含み、撮影光学系を構成している。フォーカスレンズ2aは、被写体に対して焦点調節を行なうためのレンズであり、フォーカスレンズ駆動部3により光軸方向に移動する。ズームレンズ2bは、レンズ2の焦点距離を変更するためのレンズであり、ズームレンズ駆動部4により光軸方向に移動する。フォーカスレンズ駆動部3およびズームレンズ駆動部4は、それぞれ例えばステッピングモータからなり、制御部5からの指令に基づいて制御される。フォーカスレンズ位置検出部6は、フォーカスレンズ2aの光軸上の位置を検出し、検出信号を制御部5へ送る。ズームレンズ位置検出部7は、ズームレンズ2bの光軸上の位置を検出し、検出信号を制御部5へ送る。   The lens 2 includes a focus lens 2a and a zoom lens 2b, and constitutes a photographing optical system. The focus lens 2 a is a lens for performing focus adjustment on the subject, and is moved in the optical axis direction by the focus lens driving unit 3. The zoom lens 2 b is a lens for changing the focal length of the lens 2, and is moved in the optical axis direction by the zoom lens driving unit 4. The focus lens driving unit 3 and the zoom lens driving unit 4 are each composed of, for example, a stepping motor, and are controlled based on a command from the control unit 5. The focus lens position detection unit 6 detects the position of the focus lens 2 a on the optical axis and sends a detection signal to the control unit 5. The zoom lens position detector 7 detects the position of the zoom lens 2 b on the optical axis and sends a detection signal to the controller 5.

被写体からの光は、レンズ2によって撮像素子8上に結像される。撮像素子8は、例えばCCDやCMOSなどの固体撮像素子であり、光電変換により被写体像を電気信号に変換した撮像信号をアナログ信号処理部9に出力する。アナログ信号処理部9に入力されたアナログ信号である撮像信号は、相関二重サンプリング(CDS)などの処理が施され、アナログデジタル変換器(ADC)10に入力される。そして、撮像信号はADC10でアナログ信号からデジタル信号へ変換されて、メモリ11に格納される。メモリ11は、撮像信号が一時的に格納されるバッファメモリや撮影済みの画像データを記録する内蔵メモリなどを備えている。メモリ11に格納された画像データは、バス12を介してデジタル信号処理部13に送られる。デジタル信号処理部13は、例えばデジタル信号プロセッサ(DSP)であり、画像データに対してホワイトバランス処理、補間処理、ガンマ補正など周知の画像処理を施した後、メモリ11に再び格納する。   Light from the subject is imaged on the image sensor 8 by the lens 2. The image sensor 8 is a solid-state image sensor such as a CCD or a CMOS, for example, and outputs an image signal obtained by converting a subject image into an electrical signal by photoelectric conversion to the analog signal processing unit 9. An imaging signal which is an analog signal input to the analog signal processing unit 9 is subjected to processing such as correlated double sampling (CDS) and input to an analog-to-digital converter (ADC) 10. The imaging signal is converted from an analog signal to a digital signal by the ADC 10 and stored in the memory 11. The memory 11 includes a buffer memory that temporarily stores image signals and a built-in memory that records captured image data. The image data stored in the memory 11 is sent to the digital signal processing unit 13 via the bus 12. The digital signal processor 13 is a digital signal processor (DSP), for example, and performs known image processing such as white balance processing, interpolation processing, and gamma correction on the image data, and then stores the image data in the memory 11 again.

画像処理された画像データは、圧縮伸張部14によりJPEGなど周知の圧縮処理が施され、デジタルカメラ1に対して着脱自在なメモリカード15に記録される。また、メモリカード15に記録されている画像を再生表示する場合は、メモリカード15に記録されている画像をメモリ11に読み出し、デジタルアナログ変換器(DAC)16によりデジタル画像をアナログ映像信号に変換し、表示部17に画像を表示する。表示部17は、例えば液晶ディスプレイであり、メモリカード15に記録されている画像を再生表示したり、画像撮影時に撮像素子8で撮像された画像をスルー画として表示したりする。なお画像データの記録先は、メモリカード15でもよいし、メモリ11内に備えた内蔵メモリでもよい。ただし、内蔵メモリを使用するときは、メモリカード15は使用しない。   The image data subjected to the image processing is subjected to a known compression process such as JPEG by the compression / decompression unit 14 and is recorded on a memory card 15 that is detachable from the digital camera 1. When playing back and displaying an image recorded on the memory card 15, the image recorded on the memory card 15 is read into the memory 11, and the digital image is converted into an analog video signal by the digital-analog converter (DAC) 16. Then, an image is displayed on the display unit 17. The display unit 17 is, for example, a liquid crystal display, and reproduces and displays an image recorded on the memory card 15 or displays an image captured by the image sensor 8 at the time of image capturing as a through image. The image data recording destination may be the memory card 15 or a built-in memory provided in the memory 11. However, the memory card 15 is not used when the internal memory is used.

制御部5は、操作部18と接続されている。制御部5は、例えばCPUを備え、操作部18から入力される信号に応じてデジタルカメラ1の動作を制御する。操作部18は、電源ボタン19、レリーズボタン20、メニューボタン21、十字キー22、決定ボタン23、AFモード選択スイッチ24などを含んでいる。   The control unit 5 is connected to the operation unit 18. The control unit 5 includes a CPU, for example, and controls the operation of the digital camera 1 in accordance with a signal input from the operation unit 18. The operation unit 18 includes a power button 19, a release button 20, a menu button 21, a cross key 22, a determination button 23, an AF mode selection switch 24, and the like.

電源ボタン19は、デジタルカメラ1の電源の投入(ON)状態と切断(OFF)状態を切替えるためのボタンである。   The power button 19 is a button for switching between a power-on (ON) state and a disconnection (OFF) state of the digital camera 1.

レリーズボタン20は、使用者が画像撮影の指示を行なう場合に押下するボタンである。レリーズボタン20が半押しされると半押しスイッチSW1が投入(ON)されてON信号を出力し、半押しされないと半押しスイッチSW1が切断(OFF)されてOFF信号を出力する。半押しスイッチSW1が出力する信号は制御部5へ入力される。レリーズボタン20が全押し(半押し操作よりもさらに深く押し込まれる)されると全押しスイッチSW2が投入(ON)されてON信号を出力し、全押しされないと全押しスイッチSW2が切断(OFF)されてOFF信号を出力する。全押しスイッチSW2が出力する信号は制御部5へ入力される。   The release button 20 is a button that is pressed when the user gives an instruction to capture an image. When the release button 20 is half-pressed, the half-press switch SW1 is turned on (ON) and an ON signal is output. When the release button 20 is not half-pressed, the half-press switch SW1 is disconnected (OFF) and an OFF signal is output. A signal output from the half-press switch SW1 is input to the control unit 5. When the release button 20 is fully pressed (pressed further deeper than the half-press operation), the full-press switch SW2 is turned on (ON) and an ON signal is output, and if not fully pressed, the full-press switch SW2 is disconnected (OFF). And outputs an OFF signal. A signal output from the full-press switch SW2 is input to the control unit 5.

メニューボタン21は、使用者が選択しているモードに応じたメニューを表示させるためのボタンである。   The menu button 21 is a button for displaying a menu corresponding to the mode selected by the user.

十字キー22は、表示部17に表示される項目を選択するためのカーソルを上下左右に移動させるなど使用者が行ないたい操作を選択するためのボタンである。   The cross key 22 is a button for selecting an operation that the user wants to perform, such as moving a cursor for selecting an item displayed on the display unit 17 up, down, left, or right.

決定ボタン23は、十字キー22により選択した操作を決定するためのボタンである。   The enter button 23 is a button for determining the operation selected by the cross key 22.

AFモード選択スイッチ24は、動体予測AFモードで画像の撮影を行なうかどうかを選択するためのスイッチである。ここで動体予測AFモードとは、AFモード選択スイッチ24が投入(ON)状態で実行される撮影モードであり、後述する図3に示したような動作である。図3及び動体予測AF処理の詳細については、後述する。AFモード選択スイッチ24が投入(ON)されると動体予測AFモードに切り替え、AFモード選択スイッチ24が切断(OFF)されると、例えば背景技術に示したような従来のコントラストAFモードに切り替える。   The AF mode selection switch 24 is a switch for selecting whether or not to take an image in the moving object prediction AF mode. Here, the moving object prediction AF mode is a shooting mode executed when the AF mode selection switch 24 is turned on (ON), and is an operation as shown in FIG. Details of FIG. 3 and the moving object prediction AF process will be described later. When the AF mode selection switch 24 is turned on (ON), the mode is switched to the moving object prediction AF mode. When the AF mode selection switch 24 is disconnected (OFF), the mode is switched to the conventional contrast AF mode as shown in the background art, for example.

特徴領域認識演算部25は、画像データから特徴領域を認識し、認識に成功すると、認識した特徴領域の位置および大きさを表わす座標を制御部5へ出力する。制御部5は、特徴領域の位置および大きさを表わす座標が入力されると、それに基づいてスルー画表示用の画像に特徴領域の大きさを表す枠(特徴領域マーク)を重ねた画像を作成し、その画像を表示部17に表示する。なお、特徴領域を認識する演算は制御部5で行なうようにしてもかまわない。   The feature region recognition calculation unit 25 recognizes the feature region from the image data, and outputs the coordinates representing the position and size of the recognized feature region to the control unit 5 when the recognition is successful. When the coordinates representing the position and size of the feature area are input, the control unit 5 creates an image in which a frame (feature area mark) representing the size of the feature area is superimposed on the live view display image based on the coordinates. Then, the image is displayed on the display unit 17. The calculation for recognizing the feature area may be performed by the control unit 5.

本発明の第1実施形態によるデジタルカメラ1は、撮像素子8によって撮像した画像から特徴領域を認識し、使用者が特定した特徴領域の大きさを連続的に検出し、その特徴領域の大きさの変化から被写体の動きを演算する。そして、この結果に基づいて撮像時の被写体までの距離を予測し、被写体に合焦するようにフォーカスレンズ2aの駆動位置を制御する。   The digital camera 1 according to the first embodiment of the present invention recognizes a feature region from an image captured by the image sensor 8, continuously detects the size of the feature region specified by the user, and determines the size of the feature region. The movement of the subject is calculated from the change of the object. Based on this result, the distance to the subject at the time of imaging is predicted, and the drive position of the focus lens 2a is controlled so as to focus on the subject.

特徴領域を認識する方法を説明する。例えば、被写体が人物である場合、人物の顔を特徴領域として認識する。特徴領域認識演算部25は、表示部17に表示されたスルー画に人物の顔があるかどうかを検出する。人物の顔の検出方法としては、例えば画像から肌色検出を行なうもの(特開2004−037733号公報)、顔形状に相当する顔候補領域を抽出し、その領域内から顔領域を決定するもの(特開平8−063597号公報)などがある。また、人物認証の方法としては、例えば画像から目、鼻、口など顔の各特徴点を抽出した画像と予め登録された各登録者の辞書画像とを比較して当該人物を識別するものがある(特開平9−251534号公報)。このような公知の手法を用いて人物の顔の認識に成功すると、認識した顔領域の位置および大きさを表わす座標を制御部5へ出力する。   A method for recognizing a feature region will be described. For example, when the subject is a person, the face of the person is recognized as a feature region. The feature area recognition calculation unit 25 detects whether or not there is a human face in the through image displayed on the display unit 17. As a method for detecting a human face, for example, skin color detection is performed from an image (Japanese Patent Laid-Open No. 2004-037733), a face candidate area corresponding to a face shape is extracted, and a face area is determined from the area ( JP-A-8-063597). In addition, as a person authentication method, for example, an image obtained by extracting facial feature points such as eyes, nose and mouth from an image is compared with a dictionary image of each registrant registered in advance to identify the person. (Japanese Patent Laid-Open No. 9-251534). If the person's face is successfully recognized using such a known method, coordinates representing the position and size of the recognized face area are output to the control unit 5.

複数の人物が認識された場合には、後述するように、複数の人物の中から焦点を合わせたい人物を特定する。制御部5は、特徴領域認識演算部25から入力された座標に基づいて、表示部17を制御し、図2に示すように顔領域を表す枠(顔領域マーク)をスルー画に重ねて表示する。特徴領域認識演算部25によって検出された顔が1つの場合、その顔領域に対して顔領域マークを表示させる。図2のように特徴領域認識演算部25によって検出された顔が複数(図2では顔が3つ)ある場合には、複数の顔領域に対してそれぞれ顔領域マークM1〜M3を表示させる。   When a plurality of persons are recognized, the person who wants to focus is specified from the plurality of persons as will be described later. The control unit 5 controls the display unit 17 based on the coordinates input from the feature region recognition calculation unit 25, and displays a frame (face region mark) representing the face region on the through image as shown in FIG. To do. When one face is detected by the feature area recognition calculation unit 25, a face area mark is displayed for the face area. When there are a plurality of faces (three faces in FIG. 2) detected by the feature area recognition calculation unit 25 as shown in FIG. 2, face area marks M1 to M3 are displayed for the plurality of face areas, respectively.

なお、特徴領域の登録方法と被写体距離の予測方法については後述する。   A feature region registration method and a subject distance prediction method will be described later.

図3は、動体予測AFモードでの撮影手順を示すフローチャートである。図3に示す処理は、制御部5によって実行される。本実施形態では、スルー画像中に複数の人物が存在し、その中から焦点を連続的に合わせたい人物を選択、撮影する場合について説明する。   FIG. 3 is a flowchart showing a photographing procedure in the moving object prediction AF mode. The process shown in FIG. 3 is executed by the control unit 5. In the present embodiment, a case will be described in which a plurality of persons are present in a through image, and a person whose focus is to be continuously selected is selected and photographed.

デジタルカメラ1の電源ボタン19がON状態で、AFモード選択スイッチ24がON状態となると、図3に示したような動作を行なう動体予測AFプログラムが実行される。   When the power button 19 of the digital camera 1 is in the ON state and the AF mode selection switch 24 is in the ON state, a moving object prediction AF program that performs an operation as shown in FIG. 3 is executed.

まず、ステップS101からステップS105までは、特徴領域の認識に関するステップである。   First, steps S101 to S105 are steps related to the recognition of the feature region.

ステップS101において、AFモード選択スイッチ24がON状態になると、スルー画像が表示部17に表示される。これは、撮像素子8で繰り返し撮像される画像が逐次更新され、スルー画像として表示部17に表示される。   In step S101, when the AF mode selection switch 24 is turned on, a through image is displayed on the display unit 17. In this case, images repeatedly captured by the image sensor 8 are sequentially updated and displayed on the display unit 17 as a through image.

ステップS102において、スルー画像が表示部17に表示された状態でメニューボタン21が押下されると、制御部5は表示部17へ指令を送り、認識する被写体の種類を選択する画面をスルー画像に重ねて表示部17に表示させる。被写体の種類として、例えば人物、サッカーボール、車など被写体自体が移動するものを選択画面に表示する。使用者は十字キー22を操作することにより選択画面において被写体の種類を選択し、決定ボタン23を押下することにより決定する。決定ボタン23がONされない場合、決定ボタン23がONされるまでS102の判定が繰り返される。決定ボタン23がONされた場合にはステップS103へ進む。ここで、本実施形態の被写体は人物であるので、以下、被写体の種類として人物が選択された場合について説明する。   In step S102, when the menu button 21 is pressed in a state where the through image is displayed on the display unit 17, the control unit 5 sends a command to the display unit 17 so that a screen for selecting the type of subject to be recognized is displayed as the through image. Overlapping is displayed on the display unit 17. As the type of the subject, for example, a subject, a soccer ball, a car or the like that the subject itself moves is displayed on the selection screen. The user operates the cross key 22 to select the type of subject on the selection screen and presses the enter button 23 to make a decision. If the determination button 23 is not turned on, the determination in S102 is repeated until the determination button 23 is turned on. If the determination button 23 is turned on, the process proceeds to step S103. Here, since the subject of the present embodiment is a person, a case where a person is selected as the type of subject will be described below.

認識する被写体の種類が選択されると、ステップS103において、制御部5はスルー画像に対する特徴領域認識処理を特徴領域認識演算部25に開始させる指令を送る。ここでは、ステップS102で被写体の種類として人物を選択したので、人物の顔を特徴領域として認識する顔領域認識処理を開始させる。   When the type of the subject to be recognized is selected, in step S103, the control unit 5 sends a command for starting the feature region recognition processing for the through image to the feature region recognition calculation unit 25. Here, since a person is selected as the type of subject in step S102, face area recognition processing for recognizing a person's face as a feature area is started.

ステップS104において、制御部5は特徴領域認識演算部25からその時点における顔領域の認識結果を受けて、顔領域が認識されたかどうかを判定する。スルー画像中に顔領域が存在しない、またはスルー画像中に顔領域が存在しても顔領域が小さすぎるなど何らかの理由で顔領域が認識されなかった場合、ステップS103へ戻り、再び顔領域認識処理を行なう。顔領域が認識された場合にはステップS105へ進み、制御部5は表示部17へ指令を送り、図2に示したように顔領域マークM1〜M3をスルー画像に重ねて表示部17に表示する。   In step S <b> 104, the control unit 5 receives the recognition result of the face area at that time from the feature area recognition calculation unit 25 and determines whether the face area is recognized. If the face area does not exist in the through image, or if the face area is not recognized for some reason such as the face area is too small even if the face area exists in the through image, the process returns to step S103 and the face area recognition process is performed again. To do. If the face area is recognized, the process proceeds to step S105, where the control unit 5 sends a command to the display unit 17, and displays the face area marks M1 to M3 on the through image as shown in FIG. To do.

このとき、詳細は後述するが、顔領域を選択するための十字マークM4が表示部17に表示される。十字マークM4は、顔領域マークM1〜M3のうち、表示部17に表示されるスルー画像の中心に最も近い顔領域マークM1の内側にのみ表示される。すなわち、顔領域マークが1つの場合、その顔領域マークの内側に十字マークが表示される。顔領域マークが複数ある場合には、表示部17に表示されるスルー画像の中心に最も近い顔領域マークの内側にのみ十字マークが表示される。   At this time, although details will be described later, a cross mark M4 for selecting a face area is displayed on the display unit 17. The cross mark M4 is displayed only inside the face area mark M1 closest to the center of the through image displayed on the display unit 17 among the face area marks M1 to M3. That is, when there is one face area mark, a cross mark is displayed inside the face area mark. When there are a plurality of face area marks, a cross mark is displayed only inside the face area mark closest to the center of the through image displayed on the display unit 17.

次のステップS106からステップS109までは、顔領域の登録に関するステップである。   The next steps S106 to S109 are steps relating to registration of the face area.

ステップS106において、撮影する被写体の顔領域を選択する。図2のようにスルー画像に複数の顔領域マークM1〜M3が表示された状態で、使用者はまず十字キー22を操作することで顔領域マークM1〜M3の中から登録したい顔領域マークを選択する。このとき十字マークM4は、その時点で選択されている顔領域マーク(図2では顔領域マークM2が選択された状態)を示している。使用者が十字キー22を上下左右に操作すると、十字マークM4が表示されていた顔領域マークからその他の顔領域マークへジャンプして移動する。例えば、図2のように顔領域マークM2が選択された状態で、使用者が十字キー22の左を押下すると、十字マークM4は顔領域マークM2から顔領域マークM1へとジャンプして移動する。   In step S106, the face area of the subject to be photographed is selected. In a state where a plurality of face area marks M1 to M3 are displayed on the through image as shown in FIG. 2, the user first operates the cross key 22 to select a face area mark to be registered from the face area marks M1 to M3. select. At this time, the cross mark M4 indicates the face area mark selected at that time (in FIG. 2, the face area mark M2 is selected). When the user operates the cross key 22 up, down, left, or right, the face area mark on which the cross mark M4 is displayed jumps to another face area mark to move. For example, when the user presses the left side of the cross key 22 with the face area mark M2 selected as shown in FIG. 2, the cross mark M4 jumps and moves from the face area mark M2 to the face area mark M1. .

使用者は撮影する人物の顔領域マークに十字マークM4を合わせた状態で、決定ボタン23を押下して決定する。顔領域マークが選択されると、特徴領域認識演算部25は選択された顔領域の目、鼻、口などの特徴点を抽出する。この特徴点を含む近傍領域(目領域、鼻領域、口領域などを含む特徴点近傍領域)は、テンプレートとしてメモリ11に登録される。顔領域マークが選択されると、スルー画像が表示部17に表示される。そして、特徴領域認識演算部25は、スルー画像中に認識した顔領域に対して特徴点近傍領域を抽出する。制御部5は、スルー画像から抽出した特徴点近傍領域とメモリ11に登録されているテンプレートとの比較、すなわち類似度の計算を行なう。   The user decides by pressing the decision button 23 in a state where the cross mark M4 is aligned with the face area mark of the person to be photographed. When the face area mark is selected, the feature area recognition calculation unit 25 extracts feature points such as eyes, nose, and mouth of the selected face area. The neighborhood area including the feature points (feature point neighborhood area including the eye area, the nose area, the mouth area, etc.) is registered in the memory 11 as a template. When the face area mark is selected, a through image is displayed on the display unit 17. Then, the feature area recognition calculation unit 25 extracts a feature point neighborhood area for the face area recognized in the through image. The control unit 5 compares the feature point neighborhood extracted from the through image with the template registered in the memory 11, that is, calculates the similarity.

類似度の計算結果に基づいて、制御部5は、テンプレートとの類似度が高いと判断された特徴点近傍領域に顔領域マークの表示を実行する指令を、一方、テンプレートとの類似度が低いと判断された特徴点近傍領域では顔領域マークの表示を中止する指令を表示部17へ送る。   Based on the calculation result of the similarity, the control unit 5 issues a command to display the face area mark in the feature point vicinity area determined to have a high similarity with the template, while the similarity with the template is low. A command to stop the display of the face area mark is sent to the display unit 17 in the area near the feature point determined to be.

よって、顔領域マーク選択後は、スルー画像中の顔領域のうち、選択された顔領域に一致する顔領域にのみ顔領域マークが表示され、その他の顔領域には顔領域マークは表示されない。なお、特徴領域の選択の仕方はこれに限らず、例えばタッチパネルを表面に備える表示部17であれば、使用者が十字キー22を操作して顔領域マークを選択する代わりに、選択したい顔領域マークを指などで押下することにより顔領域マークを選択してもかまわない。ステップS106で顔領域の選択が行われない場合は、ステップS105へ戻る。   Therefore, after the face area mark is selected, the face area mark is displayed only in the face area that matches the selected face area in the face area in the through image, and the face area mark is not displayed in the other face areas. Note that the method of selecting the feature area is not limited to this. For example, in the case of the display unit 17 having a touch panel on the surface, instead of the user operating the cross key 22 to select the face area mark, the face area to be selected is selected. The face area mark may be selected by pressing the mark with a finger or the like. If no face area is selected in step S106, the process returns to step S105.

顔領域が選択されると、ステップS107に進む。ステップS107では、使用者のレリーズボタン20半押し操作による半押しスイッチSW1のON信号が制御部5に入力されると、ステップS106で選択された顔領域に対してAF処理を行なう。このAF処理は、背景技術で示したような従来のコントラストAFである。顔領域に合焦したら、ステップS108において、顔領域に合焦した状態で決定ボタン23が押下されたかどうかを判定する。決定ボタン23が押下されない場合、ステップS107へ戻り、再びAF処理を行なう。決定ボタン23が押下された場合には、ステップS109へ進む。   When the face area is selected, the process proceeds to step S107. In step S107, when the ON signal of the half-press switch SW1 by the user's half-press operation of the release button 20 is input to the control unit 5, the AF process is performed on the face area selected in step S106. This AF process is a conventional contrast AF as shown in the background art. When the face area is focused, it is determined in step S108 whether or not the enter button 23 has been pressed in a state where the face area is focused. If the enter button 23 is not pressed, the process returns to step S107, and AF processing is performed again. If the enter button 23 is pressed, the process proceeds to step S109.

ステップS109において、制御部5は、ステップS108で決定された被写体に関する情報をメモリ11に登録する。被写体に関する情報とは、ステップS108で顔領域を決定した際のレンズ2の位置情報、レンズ2の位置情報を基に算出した被写体(顔領域)までの距離(被写体距離)、及び顔領域マークの大きさである。レンズ2の位置情報は、光軸上におけるフォーカスレンズ2a及びズームレンズ2bの位置のことであり、フォーカスレンズ位置検出部6及びズームレンズ位置検出部7により取得され、その検出信号は制御部5へ出力される。検出信号が入力されると、制御部5はその検出信号に基づいて被写体距離を算出する。顔領域マークの大きさは、矩形状に表示された顔領域マークの縦横いずれかの辺の長さ、またはその組み合わせとする。これにより、所定の被写体距離と顔領域マークの大きさとの関係が決まる。被写体に関する情報の登録が終了すると、表示部17にはスルー画が表示される。   In step S109, the control unit 5 registers information on the subject determined in step S108 in the memory 11. The information on the subject includes the position information of the lens 2 when the face region is determined in step S108, the distance (subject distance) to the subject (face region) calculated based on the position information of the lens 2, and the face region mark. It is a size. The position information of the lens 2 is the position of the focus lens 2a and the zoom lens 2b on the optical axis, and is acquired by the focus lens position detection unit 6 and the zoom lens position detection unit 7, and the detection signal is sent to the control unit 5. Is output. When the detection signal is input, the control unit 5 calculates the subject distance based on the detection signal. The size of the face area mark is the length of one of the vertical and horizontal sides of the face area mark displayed in a rectangular shape, or a combination thereof. Thereby, the relationship between the predetermined subject distance and the size of the face area mark is determined. When registration of information about the subject is completed, a through image is displayed on the display unit 17.

次のステップS110からステップS120までは、撮影に関するステップである。   The next steps S110 to S120 are steps relating to photographing.

ステップS110において、レリーズボタン20の半押しスイッチSW1がON状態であるかどうかを判定する。レリーズボタン20の半押しスイッチSW1がOFF状態の場合には、半押しスイッチSW1がON状態となるまでステップS110の判定を繰り返す。レリーズボタン20の半押しスイッチSW1がON状態の場合にはステップS111へ進む。   In step S110, it is determined whether or not the half-press switch SW1 of the release button 20 is in the ON state. If the half-press switch SW1 of the release button 20 is in the OFF state, the determination in step S110 is repeated until the half-press switch SW1 is in the ON state. If the half-press switch SW1 of the release button 20 is in the ON state, the process proceeds to step S111.

半押しスイッチSW1がON状態となると、ステップS111において、不図示の絞りが最小口径または最小口径に近くなるように絞り値を設定する。すなわちパンフォーカスに設定する。これは、後述するステップS116の被写体距離演算処理で動きのある被写体、とくに顔領域を認識するので、被写界深度を深くすることによって、動きのある被写体、とくに顔領域を光軸方向に対して広範囲にわたって認識できるようにするためである。このとき、フォーカスレンズ2aは過焦点距離に対応するように駆動される。過焦点距離は、パンフォーカス撮影において被写界深度に含まれる被写体距離のうち、最短の被写体距離である。このとき、使用者が撮影したい被写体の構図に合わせて被写界深度を設定できるようにし、これに対応するようにフォーカスレンズ2aを駆動させるようにしてもかまわない。   When the half-push switch SW1 is turned on, in step S111, the aperture value is set so that the aperture (not shown) is close to the minimum aperture or the minimum aperture. That is, the pan focus is set. This is because a moving subject, particularly a face region, is recognized in the subject distance calculation process in step S116 described later. By increasing the depth of field, a moving subject, particularly the face region, is moved with respect to the optical axis direction. This is so that it can be recognized over a wide range. At this time, the focus lens 2a is driven so as to correspond to the hyperfocal distance. The hyperfocal distance is the shortest subject distance among subject distances included in the depth of field in pan-focus imaging. At this time, the depth of field can be set according to the composition of the subject to be photographed by the user, and the focus lens 2a may be driven so as to correspond to this.

ステップS112において、ステップS109で登録した顔領域がスルー画像中に存在するかどうかを判定する。登録した顔領域がスルー画像中に存在しない場合には、ステップS113へ進む。ステップS113において制御部5は、ステップS110で設定された絞り値をリセットしてパンフォーカス設定を解除し、スルー画像中に存在する被写体に対して適正な露出となるよう絞り値を設定する。ステップS114において、動体予測AFモードから通常のAFモード、例えば背景技術で示したような従来のコントラストAF、に切り替える。例えば、スルー画像として山などの風景が表示されている場合、無限遠に合焦するようにフォーカスレンズ2aを駆動する。ステップS115において、レリーズボタン20の全押しスイッチSW2がON状態であるかどうかを判定する。   In step S112, it is determined whether or not the face area registered in step S109 exists in the through image. If the registered face area does not exist in the through image, the process proceeds to step S113. In step S113, the control unit 5 resets the aperture value set in step S110, cancels the pan focus setting, and sets the aperture value so that the subject existing in the through image has an appropriate exposure. In step S114, the moving object prediction AF mode is switched to the normal AF mode, for example, the conventional contrast AF as shown in the background art. For example, when a landscape such as a mountain is displayed as a through image, the focus lens 2a is driven to focus on infinity. In step S115, it is determined whether or not the full press switch SW2 of the release button 20 is in the ON state.

全押しスイッチSW2がOFF状態である場合、ステップS111に戻り、不図示の絞りの最小絞り径または最小絞り径に近くなるような絞り値に設定する。全押しスイッチSW2がON状態である場合には、ステップS120へ進む。   If the full-press switch SW2 is in the OFF state, the process returns to step S111, and the aperture value is set to a minimum aperture diameter or an aperture value close to the minimum aperture diameter (not shown). If the full push switch SW2 is in the ON state, the process proceeds to step S120.

一方、ステップS112で、登録した顔領域がスルー画像中に存在する場合には、登録した顔領域に対して顔領域マークを表示した上でステップS116へ進み、被写体距離演算処理を開始する。このときの被写体距離は、顔領域マークの大きさ、およびレンズ2の焦点距離のパラメータを所定の演算式に代入することで算出する。また、顔領域マークの大きさとレンズ2の焦点距離との関係を被写体距離に対応づけたテーブルを予め作成してメモリ11に格納しておき、このテーブルを参照することで被写体距離を算出するようにしてもよい。   On the other hand, if the registered face area exists in the through image in step S112, a face area mark is displayed for the registered face area, and then the process proceeds to step S116 to start subject distance calculation processing. The subject distance at this time is calculated by substituting the parameters of the size of the face area mark and the focal length of the lens 2 into a predetermined arithmetic expression. In addition, a table in which the relationship between the size of the face area mark and the focal length of the lens 2 is associated with the subject distance is created in advance and stored in the memory 11, and the subject distance is calculated by referring to this table. It may be.

この顔領域マークは、顔領域が検出されている限り、顔領域が移動しても顔領域と重なるように追尾して表示される。ここで、ステップS110でフォーカスレンズ2aは過焦点距離に対応するように駆動したため、レリーズボタン20の半押しスイッチSW1がON状態となってもフォーカスレンズ2aの駆動は行なわない。但し、被写体の動きに対応して合焦するようにフォーカスレンズ2aを駆動させてもかまわない。この処理については、第4実施形態において説明する。上述したパンフォーカスの設定は、ステップS112で顔領域が存在すると判定されてからは、ステップS118でパンフォーカスの設定が解除されるまで継続される。   As long as the face area is detected, the face area mark is tracked and displayed so as to overlap the face area even if the face area moves. Here, since the focus lens 2a is driven so as to correspond to the hyperfocal distance in step S110, the focus lens 2a is not driven even when the half-press switch SW1 of the release button 20 is turned on. However, the focus lens 2a may be driven so as to be focused in accordance with the movement of the subject. This process will be described in the fourth embodiment. The setting of the pan focus described above is continued until it is determined in step S112 that a face area exists, until the pan focus setting is canceled in step S118.

ステップS116において、撮像素子8で時間順次に撮像された画像ごとに(例えば、30フレーム/秒)、顔領域マークの大きさ及びレンズ2の焦点距離の情報を取得し、被写体距離を演算する。ステップS109で顔領域を登録した時とレンズ2の焦点距離が同じである場合、顔領域登録時の顔領域マークの大きさに対して、スルー画像中に表示される顔領域マークの大きさが小さければ、顔領域登録時の被写体距離より遠距離であると認識する。   In step S116, information on the size of the face area mark and the focal length of the lens 2 is acquired for each image captured in time sequence by the image sensor 8 (for example, 30 frames / second), and the subject distance is calculated. If the focal length of the lens 2 is the same as when the face area is registered in step S109, the size of the face area mark displayed in the through image is larger than the face area mark size when the face area is registered. If it is smaller, it is recognized that the distance is longer than the subject distance at the time of face area registration.

一方、顔領域登録時の顔領域マークの大きさに対して、スルー画像中に表示される顔領域マークの大きさが大きければ、顔領域登録時の被写体距離より近距離であると認識する。そして得られた被写体距離は、メモリ11に記憶される。メモリ11に記憶される被写体距離は複数フレーム分であり、撮像素子8で順次撮像される度にメモリ11内の被写体距離も逐次更新される。   On the other hand, if the size of the face area mark displayed in the through image is larger than the size of the face area mark at the time of face area registration, it is recognized that the distance is shorter than the subject distance at the time of face area registration. The obtained subject distance is stored in the memory 11. The subject distance stored in the memory 11 is for a plurality of frames, and the subject distance in the memory 11 is also updated sequentially each time images are sequentially picked up by the image sensor 8.

さらに、メモリ11に記憶された複数フレーム分の被写体距離の時間変化から被写体の移動速度を算出し、その後の被写体距離を算出する。図4で、被写体である人物を人物Aとして説明する。時間t=0秒のとき、顔領域マークの縦の長さがaであり、算出した被写体距離が5mであったとする。その後被写体は一定の速度で移動しており、時間t=5/30秒のとき、顔領域マークの縦の長さがaよりも大きいbであり、算出した被写体距離が4.83mであった。この間、レンズ2の焦点距離が変化していないとすると、被写体の移動速度は1m/秒となる。よってt=6/30秒のときには、被写体は被写体距離4.80mの位置にいると予測できる。上述した被写体距離の算出は、レリーズボタン20が全押しされるまで繰り返し行なわれる。   Further, the moving speed of the subject is calculated from the temporal change in the subject distance for a plurality of frames stored in the memory 11, and the subsequent subject distance is calculated. In FIG. 4, the person who is the subject will be described as person A. It is assumed that when the time t = 0 seconds, the vertical length of the face area mark is a and the calculated subject distance is 5 m. After that, the subject moved at a constant speed. When the time t = 5/30 seconds, the vertical length of the face area mark was b larger than a, and the calculated subject distance was 4.83 m. . If the focal length of the lens 2 does not change during this period, the moving speed of the subject is 1 m / sec. Therefore, when t = 6/30 seconds, it can be predicted that the subject is at a subject distance of 4.80 m. The calculation of the subject distance described above is repeated until the release button 20 is fully pressed.

ステップS117において、レリーズボタン20の全押しスイッチSW2がON状態であるかどうかを判定する。レリーズボタン20の全押しスイッチSW2がOFF状態である場合には、ステップS112へ戻り、登録した顔領域がスルー画像中に存在するかどうかの判定を再度行なう。レリーズボタン20の全押しスイッチSW2がON状態である場合にはステップS118へ進む。   In step S117, it is determined whether or not the full press switch SW2 of the release button 20 is in the ON state. If the full-press switch SW2 of the release button 20 is in the OFF state, the process returns to step S112, and it is determined again whether or not the registered face area exists in the through image. If the full press switch SW2 of the release button 20 is in the ON state, the process proceeds to step S118.

ステップS118において、ステップS111で設定された絞り値をリセットしてパンフォーカス設定を解除し、被写体に対して適正な露出となるよう絞り値を設定する。   In step S118, the aperture value set in step S111 is reset to cancel the pan focus setting, and the aperture value is set so that an appropriate exposure is obtained for the subject.

ステップS119において、被写体に対して動体予測AF処理を実行する。AF機能を備えるカメラでは、レリーズボタン20が全押しされてから実際に撮影が実行されるまでの時間差(レリーズタイムラグ)が問題となることがある。特に被写体が移動する場合、レリーズタイムラグの間に被写体に対する合焦位置が変化してしまうので、撮影した画像のピントがずれるという問題があった。ここでは、ステップS116の被写体距離演算処理の結果に基づく被写体の移動速度から、レリーズタイムラグ後の被写体に対する合焦位置を予測し、この合焦位置に合焦するようにフォーカスレンズ2aを移動し、撮像時の被写体に対する合焦状態が最適となるようにした。本実施形態では、レリーズタイムラグは0.01秒とし、レリーズボタン20が全押しされてから0.01秒後の被写体の位置を予測し、その位置に合焦させてから撮像する。   In step S119, the moving object prediction AF process is executed on the subject. In a camera having an AF function, there may be a problem of a time difference (release time lag) from when the release button 20 is fully pressed to when shooting is actually performed. In particular, when the subject moves, the focus position with respect to the subject changes during the release time lag, and there is a problem that the photographed image is out of focus. Here, the focus position with respect to the subject after the release time lag is predicted from the moving speed of the subject based on the result of the subject distance calculation process in step S116, and the focus lens 2a is moved so as to focus on this focus position. The focus state on the subject at the time of imaging was optimized. In the present embodiment, the release time lag is set to 0.01 seconds, and the position of the subject 0.01 seconds after the release button 20 is fully pressed is predicted, and the image is taken after focusing on that position.

図5(a)(b)は、ステップS119の動体予測AF処理の例を示した図である。ここでは、被写体である人物Bの動きを示している。   FIGS. 5A and 5B are diagrams illustrating an example of the moving object prediction AF process in step S119. Here, the movement of the person B as the subject is shown.

図5(a)は、人物Bの顔領域マークの大きさの時間変化を表した図である。ここで、顔領域マークの大きさは、顔領域マークの縦辺の長さとする。横軸は、撮像素子8で時間順次に撮像された各画像に番号を付したものであり(スルー画像I1〜スルー画像I7)、これらの画像は30フレーム/秒で取り込んでいる。すなわち、横軸の1目盛りは1/30秒である。縦軸は、顔領域マークの大きさを表している。   FIG. 5A is a diagram illustrating a change in the size of the face area mark of the person B over time. Here, the size of the face area mark is the length of the vertical side of the face area mark. The horizontal axis is a number assigned to each image captured in time sequence by the image sensor 8 (through image I1 to through image I7), and these images are captured at 30 frames / second. That is, one scale on the horizontal axis is 1/30 second. The vertical axis represents the size of the face area mark.

図5(b)は、人物Bの被写体距離の時間変化を表した図である。横軸は、図5(a)と同様に、撮像素子8で時間順次に撮像された各画像に番号を付したものであり、横軸の1目盛りは1/30秒である。縦軸は、人物Bの被写体距離を表している。被写体距離の算出は、前述したように、顔領域マークの大きさ及びレンズ2の焦点距離に基づき被写体距離を演算している。   FIG. 5B is a diagram illustrating a change in the subject distance of the person B over time. Similarly to FIG. 5A, the horizontal axis is a number assigned to each image captured in time sequence by the image sensor 8, and one scale on the horizontal axis is 1/30 second. The vertical axis represents the subject distance of the person B. As described above, the subject distance is calculated based on the size of the face area mark and the focal length of the lens 2.

人物Bの動きについて説明する。顔領域マークの大きさは、スルー画像I1の時点でaであり(図5(a))、人物Bの被写体距離は5.0mである(図5(b))。同様に、スルー画像I2及びスルー画像I3においても顔領域マークの大きさはaのままであるから(図5(a))、人物Bの被写体距離も変わらず5.0mのままである(図5(b))。スルー画像I4において、顔領域マークの大きさはaよりも大きいbに変化していることから(図5(a))、人物Bの被写体距離は短くなり4.9mとなる(図5(b))。また、スルー画像I5、スルー画像I6及びスルー画像I7において、顔領域マークの大きさはc、d及びeと時間経過と共に比例して大きくなり(図5(a))、人物Bの被写体距離はスルー画像I7の時点で4.6mであった。これより、人物Bは3.0m/秒の移動速度でカメラ側に近づいていると算出される。   The movement of the person B will be described. The size of the face area mark is a at the time of the through image I1 (FIG. 5A), and the subject distance of the person B is 5.0 m (FIG. 5B). Similarly, in the through image I2 and the through image I3, since the size of the face area mark remains a (FIG. 5A), the subject distance of the person B remains unchanged at 5.0 m (FIG. 5). 5 (b)). In the through image I4, since the size of the face area mark has changed to b larger than a (FIG. 5A), the subject distance of the person B is shortened to 4.9 m (FIG. 5B). )). In the through image I5, the through image I6, and the through image I7, the size of the face area mark increases proportionally with time, c, d, and e (FIG. 5A), and the subject distance of the person B is It was 4.6 m at the time of the through image I7. From this, it is calculated that the person B is approaching the camera side at a moving speed of 3.0 m / sec.

ここで、スルー画像I7の時点でレリーズボタン20が全押しされたとする。全押し信号に応じて、制御部5は、人物Bの被写体距離及び移動速度から、撮像時、すなわちレリーズタイムラグ分の0.01秒後の人物Bの位置を算出する。よって、撮像時の人物Bの位置は4.6m+(−3.0m/秒)×0.01秒=4.57mと予測できる。この被写体距離の算出結果に基づいて、制御部5は、被写体距離4.57mの位置に合焦するようにフォーカスレンズ2aを駆動するようフォーカスレンズ駆動部3に指令を送る。そして、制御部5から指令を受けたフォーカスレンズ駆動部3は、フォーカスレンズ2aを駆動する。   Here, it is assumed that the release button 20 is fully pressed at the time of the through image I7. In response to the full-press signal, the control unit 5 calculates the position of the person B at the time of imaging, that is, 0.01 seconds after the release time lag, from the subject distance and moving speed of the person B. Therefore, the position of the person B at the time of imaging can be predicted to be 4.6 m + (− 3.0 m / sec) × 0.01 sec = 4.57 m. Based on the calculation result of the subject distance, the control unit 5 sends a command to the focus lens driving unit 3 to drive the focus lens 2a so as to focus on the subject distance 4.57m. Then, the focus lens driving unit 3 that has received a command from the control unit 5 drives the focus lens 2a.

ステップS120において、撮像素子8で撮像する。このとき、被写体の動きに合わせてデジタルカメラ1の露出条件を変化させてもよい。例えば、被写体の移動速度が速い場合には、シャッター速度を速くしたり、ISO感度を上げたりする。   In step S120, an image is picked up by the image pickup device 8. At this time, the exposure condition of the digital camera 1 may be changed according to the movement of the subject. For example, when the moving speed of the subject is fast, the shutter speed is increased or the ISO sensitivity is increased.

以上説明した本実施形態によれば、以下のような作用効果を得ることができる。   According to this embodiment described above, the following effects can be obtained.

撮像素子8で時間順次に撮像された画像ごとに特徴領域の大きさ及びレンズ2の焦点距離から被写体までの距離を演算することで、撮像時の被写体までの距離を予測し、被写体に合焦するようにフォーカスレンズ2aを駆動させるようにした。これによって、動きのある被写体に対してより正確に合焦して撮影することができる。   The distance to the subject at the time of imaging is predicted by calculating the distance to the subject from the size of the feature region and the focal length of the lens 2 for each image captured in time sequence by the imaging device 8, and focus on the subject. Thus, the focus lens 2a is driven. As a result, it is possible to shoot with a more accurate focus on a moving subject.

画像から認識した少なくとも1つの特徴領域のうち使用者が選択した特徴領域を登録するようにした。これによって、撮像時に複数の被写体が存在していても、登録した特徴領域を有する被写体に対して動体予測AFを行なうので、登録していない他の被写体に合焦することなく、登録した特徴領域を有する被写体に常に合焦することができる。   The feature region selected by the user among at least one feature region recognized from the image is registered. Thus, even when there are a plurality of subjects at the time of imaging, the moving object prediction AF is performed on the subject having the registered feature region, so that the registered feature region is not focused on other subjects that are not registered. It is possible to always focus on a subject having

撮影時のスルー画像を表示する際、不図示の絞りが最小口径または最小口径に近くなるように絞り値を設定し、フォーカスレンズ2aを過焦点距離に対応する位置に駆動するようにした。これによって、被写界深度は深くなり、動きのある被写体(特徴領域)であっても合焦した画像データを広範囲にわたって取得することができる。また、レンズ2を駆動する必要がないので、デジタルカメラ1の省電力化が可能である。   When displaying a through image at the time of shooting, the aperture value is set so that the aperture (not shown) is the minimum aperture or close to the minimum aperture, and the focus lens 2a is driven to a position corresponding to the hyperfocal distance. As a result, the depth of field is deepened, and focused image data can be acquired over a wide range even for a moving subject (characteristic region). Further, since it is not necessary to drive the lens 2, it is possible to save the power of the digital camera 1.

フォーカスレンズ2aは過焦点距離に対応する位置に駆動した後は固定し、撮像時に被写体に対する合焦位置へ駆動させるようにした。これによって、レンズ2は効率的に合焦位置へ駆動され、AF処理を高速化することができる。   The focus lens 2a is fixed after being driven to a position corresponding to the hyperfocal distance, and is driven to a focus position with respect to the subject at the time of imaging. Thereby, the lens 2 is efficiently driven to the in-focus position, and the AF processing can be speeded up.

撮像時に、被写体の動きに合わせてデジタルカメラ1の露出条件を変化させるようにした。これによって、被写体に対して適切な露出条件で撮像することができる。   At the time of imaging, the exposure condition of the digital camera 1 is changed according to the movement of the subject. Thereby, it is possible to capture an image of the subject under appropriate exposure conditions.

なお本実施形態は、以下のように変形することもできる。   Note that the present embodiment can be modified as follows.

図3のステップS102では被写体の種類として人物を選択した例を説明したが、ここではサッカーボールを選択した場合について説明する。ここでは、サッカーボールを特徴領域として認識し、決定する方法について説明する。その他の部分については、本実施形態で説明した通りである。   In step S102 of FIG. 3, the example in which a person is selected as the type of subject has been described, but here, a case in which a soccer ball is selected will be described. Here, a method for recognizing and determining a soccer ball as a feature region will be described. Other parts are as described in this embodiment.

サッカーボールを認識する方法として、画像データからサッカーボールの形状に相当する円形領域候補を抽出し、その領域内からサッカーボールを決定する方法や、画像データから色を検出する方法がある。また、これらの方法を組み合わせて認識するようにしてもよい。   As a method for recognizing a soccer ball, there are a method for extracting a circular area candidate corresponding to the shape of a soccer ball from image data and determining a soccer ball from the area, and a method for detecting a color from image data. Moreover, you may make it recognize combining these methods.

ここで、画像データから色を検出してサッカーボールを認識する方法について説明する。サッカーボールを形成する色は、黒色と白色の2色とする。そこで、画像データから黒色と白色の2色から形成されている領域を抽出することでサッカーボールを認識する。さらに、サッカーボールを形成する黒色と白色の領域比は、どの角度から見ても大きな差がないことから、黒色と白色の領域比を予め登録しておく。そして、予め登録した黒色と白色の領域比に該当する領域を画像データから抽出する。   Here, a method for recognizing a soccer ball by detecting a color from image data will be described. The colors that form the soccer ball are black and white. Therefore, a soccer ball is recognized by extracting an area formed from two colors of black and white from the image data. Further, since the black and white area ratio forming the soccer ball is not significantly different from any angle, the black and white area ratio is registered in advance. Then, an area corresponding to a black / white area ratio registered in advance is extracted from the image data.

さらに、使用者が特徴領域の形状を設定できるようにしてもよい。図3のステップS102のように、被写体の種類としてサッカーボールを選択すると、サッカーボールの形状に相当する選択ツール、例えば円形の枠、がスルー画像に重ねて表示される。この選択ツールの大きさは十字キー22を操作することにより調節することができ、使用者は選択ツールをスルー画像中に表示されているサッカーボールの大きさとほぼ同じ大きさに調節する。選択ツールの大きさを調整したら、決定ボタン23を押下することで選択ツールの大きさが固定される。大きさを固定した選択ツールは十字キー22を操作することにより上下左右に移動させることができ、使用者は選択ツールをスルー画像中に表示されているサッカーボールに重ね合わせる。選択ツールの位置を調節したら、決定ボタン23を押下することでサッカーボールが特徴領域として登録される。   Further, the user may be able to set the shape of the feature area. When a soccer ball is selected as the type of subject as in step S102 of FIG. 3, a selection tool corresponding to the shape of the soccer ball, for example, a circular frame, is displayed superimposed on the through image. The size of the selection tool can be adjusted by operating the cross key 22, and the user adjusts the selection tool to approximately the same size as the size of the soccer ball displayed in the through image. After adjusting the size of the selection tool, the size of the selection tool is fixed by pressing the enter button 23. The selection tool having a fixed size can be moved up, down, left and right by operating the cross key 22, and the user superimposes the selection tool on the soccer ball displayed in the through image. When the position of the selection tool is adjusted, the soccer ball is registered as a feature region by pressing the enter button 23.

以上説明した変形例によれば、以下のような作用効果を得ることができる。   According to the modification described above, the following operational effects can be obtained.

サッカーボールを画像から認識する方法として、円形領域を抽出し、画像データから特定の色を検出することに加えて、特徴領域に特有の色領域比を予め登録しておき、この色領域比に該当する特徴領域を検出するようにした。これによって、画像データから特徴領域を認識する精度を向上させることができる。   As a method for recognizing a soccer ball from an image, in addition to extracting a circular area and detecting a specific color from the image data, a color area ratio peculiar to the characteristic area is registered in advance, and this color area ratio is The corresponding feature area was detected. Thereby, the accuracy of recognizing the feature region from the image data can be improved.

選択した被写体の種類に対応した選択ツールを表示させ、使用者がその選択ツールを特徴領域の大きさ及び位置に合わせて調節できるようにした。これによって、画像データから特徴領域を認識することが難しい被写体であっても、特徴領域を指定することができる。
(第2実施形態)
次に、本発明の第2実施形態について説明する。
A selection tool corresponding to the type of the selected subject is displayed, and the user can adjust the selection tool according to the size and position of the feature region. As a result, even if it is difficult to recognize the feature area from the image data, the feature area can be designated.
(Second Embodiment)
Next, a second embodiment of the present invention will be described.

第1実施形態では、スルー画像中で認識された特徴領域から合焦したい特徴領域を設定したが、本実施形態では、合焦したい特徴領域をメモリカード15などに保存されている画像データから予め設定することができる。   In the first embodiment, the feature area to be focused is set from the feature areas recognized in the through image. However, in this embodiment, the feature area to be focused is set in advance from image data stored in the memory card 15 or the like. Can be set.

第2実施形態におけるデジタルカメラの基本的な構成は、上述した第1実施形態と同様である。以下、第1実施形態と相違する部分について説明する。図6は、動体予測AFモードにおいて、メモリカード15などに保存されている画像データから特徴領域を設定する場合の処理手順を示すフローチャートである。なお、図6のフローチャートに示す処理は、制御部5などによって実行される。   The basic configuration of the digital camera in the second embodiment is the same as that of the first embodiment described above. Hereinafter, parts different from the first embodiment will be described. FIG. 6 is a flowchart showing a processing procedure when a feature region is set from image data stored in the memory card 15 or the like in the moving object prediction AF mode. The process shown in the flowchart of FIG. 6 is executed by the control unit 5 or the like.

まず、デジタルカメラ1の電源ボタン19がON状態で、使用者が不図示のモードダイヤルを操作することによりセットアップモードが選択されると、表示部17にはセットアップメニュー画面が表示される。このセットアップメニュー画面には、撮影及び再生に関する様々なメニュー項目が表示されるが、この中に動体予測AFモードの各種設定を行なうための「動体予測AF」の項目がある。使用者が十字キー22を操作することで「動体予測AF」の項目が選択され、決定ボタン23を押下することで「動体予測AF」の項目が決定されると、表示部17には動体予測AFメニュー画面が表示される。   First, when the power button 19 of the digital camera 1 is ON and the user selects a setup mode by operating a mode dial (not shown), a setup menu screen is displayed on the display unit 17. Various menu items relating to shooting and reproduction are displayed on the setup menu screen, and among these, there is an item of “moving object prediction AF” for performing various settings of the moving object prediction AF mode. When the user operates the cross key 22 to select the “moving object prediction AF” item and presses the determination button 23 to determine the “moving object prediction AF” item, the display unit 17 displays the moving object prediction AF. The AF menu screen is displayed.

この動体予測AFメニュー画面には、動体予測AFモードに関する様々なメニュー項目が表示されるが、この中に動体予測AFモードで撮影を行なう際の特徴領域を指定するための「特徴領域設定」の項目がある。使用者が十字キー22を操作することで「特徴領域設定」の項目が選択され、決定ボタン23を押下することで「特徴領域設定」の項目が決定されると、ステップS201へ進み、表示部17には特徴領域設定画面が表示される。   Various menu items related to the moving object prediction AF mode are displayed on the moving object prediction AF menu screen. Among these, a “feature area setting” for designating a characteristic region when shooting in the moving object prediction AF mode is displayed. There are items. When the user operates the cross key 22 to select the item “characteristic region setting” and presses the determination button 23 to determine the item “characteristic region setting”, the process proceeds to step S201, and the display unit A feature area setting screen 17 is displayed.

この特徴領域設定画面には、メモリカード15に保存されている画像が一覧表示される。一覧表示の仕方として、例えばメモリカード15に保存されている画像のサムネイル画像を表示する。なお、メモリカード15が使用されていない場合には、メモリ11内に備えた内蔵メモリに保存されている画像のサムネイル画像を表示してもよい。   A list of images stored in the memory card 15 is displayed on the feature area setting screen. As a list display method, for example, thumbnail images of images stored in the memory card 15 are displayed. When the memory card 15 is not used, thumbnail images of images stored in the built-in memory provided in the memory 11 may be displayed.

ステップS202において、表示部17に表示されたサムネイル画像の中から合焦したい特徴領域を含むサムネイル画像が決定されたかどうかを判定する。サムネイル画像の決定の仕方は、使用者が十字キー22を操作することでサムネイル画像が選択され、決定ボタン23を押下することでサムネイル画像が決定される。サムネイル画像が決定されない場合、サムネイル画像が決定されるまでS202の判定を繰り返す。サムネイル画像が決定された場合には、ステップS203へ進む。   In step S202, it is determined whether a thumbnail image including a feature area to be focused on has been determined from the thumbnail images displayed on the display unit 17. The thumbnail image is determined by selecting the thumbnail image by the user operating the cross key 22 and pressing the determination button 23 to determine the thumbnail image. If the thumbnail image is not determined, the determination in S202 is repeated until the thumbnail image is determined. If a thumbnail image is determined, the process proceeds to step S203.

サムネイル画像が決定されると、ステップS203において、まずサムネイル画像に対応する画像が表示部17に再生表示される。このとき、認識する被写体の種類を選択する画面がスルー画像に重ねて表示部17に表示される。被写体の種類が選択されると、その被写体の形状に対応する選択ツールをスルー画像に重ねて表示する。例えば、被写体の種類として人物が選択されると、縦方向に長い楕円の形状をした選択ツールを表示する。そして、使用者は十字キー22および決定ボタン23を操作して選択ツールの大きさ及び位置を調節することにより特徴領域を設定する。選択ツールの設定方法の詳細については第1実施形態の変形例と同様であるので、ここでは説明を省略する。   When the thumbnail image is determined, an image corresponding to the thumbnail image is first reproduced and displayed on the display unit 17 in step S203. At this time, a screen for selecting the type of subject to be recognized is displayed on the display unit 17 so as to overlap the through image. When the type of the subject is selected, a selection tool corresponding to the shape of the subject is displayed over the through image. For example, when a person is selected as the type of subject, a selection tool having an elliptical shape that is long in the vertical direction is displayed. Then, the user operates the cross key 22 and the determination button 23 to set the feature region by adjusting the size and position of the selection tool. Details of the setting method of the selection tool are the same as in the modification of the first embodiment, and thus the description thereof is omitted here.

ステップS204において、特徴領域設定画面を終了する指示があるかどうかを判定する。特徴領域設定画面を終了しない場合、ステップS201へ戻り、再び表示部17には特徴領域設定画面が表示される。例えば使用者が操作部18を操作して特徴領域設定画面の終了を選択し、特徴領域設定画面を終了する場合には、特徴領域の設定を終了する。特徴領域を設定した後、被写体の撮影を行う場合には、図7のフローチャートに示す処理に移行する。   In step S204, it is determined whether there is an instruction to end the feature area setting screen. If the feature area setting screen is not terminated, the process returns to step S201, and the feature area setting screen is displayed again on the display unit 17. For example, when the user selects the end of the feature area setting screen by operating the operation unit 18 and ends the feature area setting screen, the setting of the feature area is ended. When photographing a subject after setting the feature region, the process proceeds to the process shown in the flowchart of FIG.

なお、本実施形態において、特徴領域を設定する際に用いた画像データは1つであるが、同一被写体に対して複数の画像データを用いて特徴領域を設定できるようにしてもかまわない。例えば、被写体の種類が人物である場合は顔が特徴領域となるが、正面を向いた顔が含まれる画像データだけでなく、横顔など角度のある方向を向いた顔が含まれる画像データからも特徴領域を設定することができる。なお、同一被写体に対して複数の画像データを用いて特徴領域を設定した場合には、それら複数の画像データは関連した画像データとなるようにする。関連した画像データにする方法として、例えば使用者が画像データに同一のキーワードを入力して保存させる方法がある。   In the present embodiment, only one image data is used when setting the feature area. However, the feature area may be set using a plurality of image data for the same subject. For example, when the type of subject is a person, the face is a feature area, but not only from image data that includes a face that faces the front, but also from image data that includes a face that faces an angle such as a side face. A feature region can be set. When a feature region is set for a single subject using a plurality of image data, the plurality of image data are related image data. As a method of making related image data, for example, there is a method in which a user inputs and saves the same keyword in the image data.

また、特徴領域の設定対象となる被写体の数は1つに限らず、異なる被写体の特徴領域を複数設定してもかまわない。   Further, the number of subjects for which feature areas are set is not limited to one, and a plurality of feature regions for different subjects may be set.

図7は、既に画像データから特徴領域を設定している場合における動体予測AFモードでの撮影手順を示すフローチャートである。   FIG. 7 is a flowchart showing a photographing procedure in the moving object prediction AF mode when a feature region has already been set from image data.

デジタルカメラ1の電源ボタン19がON状態で、AFモード選択スイッチ24がON状態となると、ステップS205において、画像データから設定された特徴領域が1つであるかどうかを判定する。画像データから設定された特徴領域が1つである場合、ステップS208へ進む。画像データから設定された特徴領域が複数ある場合、ステップS206へ進み、設定された特徴領域がわかるように一覧表示される。一覧表示の仕方として、設定された特徴領域を含む画像のサムネイル画像を表示してもよいし、設定された特徴領域を含む画像に登録されているキーワードを表示するようにしてもよい。   When the power button 19 of the digital camera 1 is in the ON state and the AF mode selection switch 24 is in the ON state, it is determined in step S205 whether or not there is one feature region set from the image data. If there is one feature region set from the image data, the process proceeds to step S208. If there are a plurality of feature regions set from the image data, the process proceeds to step S206, and a list is displayed so that the set feature regions can be seen. As a list display method, a thumbnail image of an image including the set feature area may be displayed, or a keyword registered in the image including the set feature area may be displayed.

ステップS207において、設定された特徴領域の一覧の中から特徴領域が1つ選択されたかどうかを判定する。特徴領域が選択されない場合には、特徴領域が選択されるまでステップS207の判定を繰り返す。特徴領域が選択された場合には、S208へ進む。   In step S207, it is determined whether one feature region has been selected from the set feature region list. If the feature region is not selected, the determination in step S207 is repeated until the feature region is selected. If a feature region is selected, the process proceeds to S208.

ステップS208において、設定された被写体に関する情報をメモリ11に登録する。被写体に関する情報とは、画像が撮影された際のレンズ2の位置情報、レンズ2の位置情報を基に算出した被写体までの距離(被写体距離)、及び特徴領域の大きさであり、これらの情報はExif形式で画像に記録されている。なお、特徴領域の大きさは、ステップS203で選択ツールの大きさを決定した際の選択ツールの大きさである。   In step S208, information regarding the set subject is registered in the memory 11. The information on the subject includes the position information of the lens 2 when the image is taken, the distance to the subject (subject distance) calculated based on the position information of the lens 2, and the size of the feature region. Is recorded on the image in Exif format. Note that the size of the feature region is the size of the selection tool when the size of the selection tool is determined in step S203.

例えば選択ツールの形状が楕円の形状である場合、特徴領域の大きさは、楕円の長軸(楕円の2つの焦点を結ぶ直線と楕円との交点を両端とする線分)の長さ、楕円の短軸(長軸と楕円の中心で直交する直線と楕円との交点を両端とする線分)の長さ、または楕円の長軸の長さ及び楕円の短軸の長さとの組み合わせとなる。これより、制御部5は、画像から被写体に関する情報を読み出し、メモリ11内に備えた内蔵メモリに保存する。   For example, when the shape of the selection tool is an ellipse, the size of the feature area is the length of the major axis of the ellipse (the line segment with the intersection of the ellipse between the straight line connecting the two focal points of the ellipse), the ellipse The length of the minor axis (the line segment with the intersection of the straight line and the ellipse perpendicular to the major axis and the center of the ellipse), or the combination of the major axis length of the ellipse and the minor axis length of the ellipse . As a result, the control unit 5 reads information on the subject from the image and stores it in the built-in memory provided in the memory 11.

ステップS208で被写体に関する情報が登録されると、図3のステップS110へ進むが、これ以降のステップについては第1実施形態と同様であるので説明を省略する。   When the information about the subject is registered in step S208, the process proceeds to step S110 in FIG. 3, but the subsequent steps are the same as those in the first embodiment, and thus description thereof is omitted.

以上説明した本実施形態によれば、以下のような作用効果を得ることができる。   According to this embodiment described above, the following effects can be obtained.

メモリカード15などに保存されている画像データから合焦したい特徴領域を設定できるようにした。これによって、使用者は撮影前に予め合焦させたい特徴領域を設定し、デジタルカメラ1起動後すぐに撮影することができる。   The feature area to be focused can be set from the image data stored in the memory card 15 or the like. Thus, the user can set a feature area to be focused in advance before shooting, and can take a picture immediately after the digital camera 1 is activated.

同一被写体に対して複数の画像データを用いて特徴領域を設定できるようにした。これによって、被写体を認識する精度を向上させることができる。   A feature region can be set for a single subject using a plurality of image data. Thereby, the accuracy of recognizing the subject can be improved.

(第3実施形態)
次に、本発明の第3実施形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

第1実施形態では、使用者による決定ボタン23の操作に応じて、合焦したい特徴領域を設定し、被写体情報を登録したが、本実施形態では、特徴領域の設定および被写体情報の登録を自動で行う。   In the first embodiment, the feature area to be focused is set and subject information is registered in accordance with the operation of the decision button 23 by the user. In this embodiment, however, the feature area setting and subject information registration are automatically performed. To do.

第3実施形態におけるデジタルカメラの基本的な構成は、上述した第1実施形態と同様である。以下、第1実施形態と相違する部分について説明する。第3実施形態における動体予測AFモードでの撮影手順を、図8のフローチャートを用いて説明する。図8のフローチャートに示す処理は、制御部5などによって実行される。   The basic configuration of the digital camera in the third embodiment is the same as that of the first embodiment described above. Hereinafter, parts different from the first embodiment will be described. A shooting procedure in the moving object prediction AF mode in the third embodiment will be described with reference to the flowchart of FIG. The process shown in the flowchart of FIG. 8 is executed by the control unit 5 or the like.

ステップS301において、AFモード選択スイッチ24がON状態になると、スルー画像が表示部17に表示される。ステップS302では、被写体の種類を選択する。以下、被写体の種類として人物が選択された場合について説明する。   In step S301, when the AF mode selection switch 24 is turned on, a through image is displayed on the display unit 17. In step S302, the type of subject is selected. Hereinafter, a case where a person is selected as the type of subject will be described.

認識する被写体の種類が選択されると、ステップS303において、制御部5はスルー画像に対する特徴領域認識処理を特徴領域認識演算部25に開始させる指令を送る。ここでは、ステップS302で被写体の種類として人物を選択したので、人物の顔を特徴領域として認識する顔領域認識処理を開始させる。   When the type of the subject to be recognized is selected, in step S303, the control unit 5 sends a command for starting the feature region recognition processing for the through image to the feature region recognition calculation unit 25. Here, since a person is selected as the type of subject in step S302, face area recognition processing for recognizing a person's face as a feature area is started.

ステップS304において、制御部5は特徴領域認識演算部25からその時点における顔領域の認識結果を受けて、顔領域が認識されたかどうかを判定する。顔領域が認識されなかった場合、ステップS303へ戻り、再び顔領域認識処理を行なう。顔領域が認識された場合にはステップS305へ進む。ここで、複数の顔領域が認識された場合は、認識された複数の顔領域のうち最も大きな顔領域を自動的に選択してステップS305へ進む。または、複数の顔領域のうち、画面中央に最も近い位置に配置されているものを自動的に選択してもよい。   In step S304, the control unit 5 receives the recognition result of the face area at that time from the feature area recognition calculation unit 25, and determines whether the face area is recognized. If the face area is not recognized, the process returns to step S303 and the face area recognition process is performed again. If the face area is recognized, the process proceeds to step S305. Here, when a plurality of face areas are recognized, the largest face area is automatically selected from the recognized face areas, and the process proceeds to step S305. Or you may select automatically the thing arrange | positioned in the position nearest to the screen center among several face area | regions.

ステップS305では、認識した顔領域を示す顔領域マークをスルー画像に重ねて表示部17に表示する。この顔領域マークは、被写体情報を登録する予定の顔領域を示す。顔領域マークは、例えば図2に示すような矩形の枠とし、例えば白色で表示する。   In step S305, a face area mark indicating the recognized face area is displayed on the display unit 17 so as to overlap the through image. This face area mark indicates a face area where subject information is to be registered. The face area mark is, for example, a rectangular frame as shown in FIG.

登録予定の顔領域が設定されると、ステップS307に進む。ステップS307では、半押しスイッチSW1のON信号に応じて、設定された顔領域に対してコントラストAF処理を行なう。つづくステップS308では設定された顔領域に合焦したか否かを判定する。顔領域に合焦したと判定されると、ステップS309へ進む。ステップS309では、被写体に正確に焦点があった状態で再び顔認識処理を行い、この状態での被写体情報をメモリ11に登録する。なお、設定された顔領域に対して合焦すると、合焦したことを示すように顔領域マークの表示色を変更する。例えば、白色で表示されていた顔領域マークを、合焦後は緑色に変更する。あるいは、合焦後に顔領域マークを点滅させてもよい。   When the face area to be registered is set, the process proceeds to step S307. In step S307, contrast AF processing is performed on the set face area in response to the ON signal of the half-press switch SW1. In subsequent step S308, it is determined whether or not the set face area is focused. If it is determined that the face area is in focus, the process proceeds to step S309. In step S309, face recognition processing is performed again with the subject accurately focused, and subject information in this state is registered in the memory 11. When the set face area is focused, the display color of the face area mark is changed so as to indicate that the focused face area has been focused. For example, the face area mark displayed in white is changed to green after focusing. Alternatively, the face area mark may be blinked after focusing.

一方、ステップS308で顔領域に合焦していないと判定されると、ステップS321へ進み、被写体情報の登録ができないことを使用者に報知する。ここで、登録不可の警告として、例えば表示部17に警告のための表示を行ったり、警告ランプを点灯する。   On the other hand, if it is determined in step S308 that the face area is not focused, the process proceeds to step S321 to notify the user that subject information cannot be registered. Here, as a warning that registration is impossible, for example, a display for warning is performed on the display unit 17 or a warning lamp is turned on.

このように、顔領域の認識および被写体情報の登録を自動で行った後、ステップS311へ進む。ステップS311〜S320での処理は、上述した第1実施形態におけるステップS111〜S120での処理と同様であるので、説明を省略する。   As described above, after face area recognition and subject information registration are automatically performed, the process proceeds to step S311. Since the processing in steps S311 to S320 is the same as the processing in steps S111 to S120 in the first embodiment described above, description thereof will be omitted.

以上説明した第3実施形態によれば、特徴領域の設定および被写体情報の登録を容易に行うことができる。   According to the third embodiment described above, it is possible to easily perform setting of a feature area and registration of subject information.

(第4実施形態)
次に、本発明の第4実施形態について説明する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described.

上述した第1実施形態では、半押しスイッチSW1の操作に応じてスルー画を表示する場合に、パンフォーカス設定を行った。第4実施形態では、スルー画中に選択した顔領域が存在する場合に、その顔領域の動きを予測して合焦するように、動体予測AF処理を行う。   In the first embodiment described above, pan focus setting is performed when a through image is displayed in accordance with the operation of the half-press switch SW1. In the fourth embodiment, when the selected face area exists in the through image, the moving object prediction AF process is performed so that the movement of the face area is predicted and focused.

第4実施形態におけるデジタルカメラの基本的な構成は、上述した第1実施形態と同様である。以下、第1実施形態と相違する部分について説明する。第4実施形態における動体予測AFモードでの撮影手順を、図9のフローチャートを用いて説明する。図9のフローチャートに示す処理は、制御部5などによって実行される。   The basic configuration of the digital camera in the fourth embodiment is the same as that in the first embodiment described above. Hereinafter, parts different from the first embodiment will be described. An imaging procedure in the moving object prediction AF mode in the fourth embodiment will be described with reference to the flowchart of FIG. The process shown in the flowchart of FIG. 9 is executed by the control unit 5 or the like.

ステップS401〜S409での処理は、上述した第1実施形態におけるステップS101〜S109での処理と同様であるので、説明を省略する。   Since the processing in steps S401 to S409 is the same as the processing in steps S101 to S109 in the first embodiment described above, description thereof is omitted.

ステップS410において、レリーズボタン20の半押しスイッチSW1がON状態であるかどうかを判定する。レリーズボタン20の半押しスイッチSW1がOFF状態の場合には、半押しスイッチSW1がON状態となるまでステップS410の判定を繰り返す。レリーズボタン20の半押しスイッチSW1がON状態の場合にはステップS412へ進む。   In step S410, it is determined whether or not the half-press switch SW1 of the release button 20 is in the ON state. If the half-press switch SW1 of the release button 20 is in the OFF state, the determination in step S410 is repeated until the half-press switch SW1 is in the ON state. If the half-press switch SW1 of the release button 20 is in the ON state, the process proceeds to step S412.

ステップS412において、ステップS409で登録した顔領域がスルー画像中に存在するかどうかを判定する。登録した顔領域がスルー画像中に存在しない場合には、ステップS414へ進む。ステップS414では、従来のコントラストAF処理を行う。ステップS415において、レリーズボタン20の全押しスイッチSW2がON状態であるかどうかを判定する。全押しスイッチSW2がOFF状態である場合、ステップS412に戻る。全押しスイッチSW2がON状態である場合には、ステップS420へ進む。   In step S412, it is determined whether or not the face area registered in step S409 exists in the through image. If the registered face area does not exist in the through image, the process proceeds to step S414. In step S414, a conventional contrast AF process is performed. In step S415, it is determined whether or not the full press switch SW2 of the release button 20 is in the ON state. If the full push switch SW2 is in the OFF state, the process returns to step S412. When the full push switch SW2 is in the ON state, the process proceeds to step S420.

一方、ステップS412で、登録した顔領域がスルー画像中に存在する場合には、登録した顔領域に対して顔領域マークを表示した上でステップS416へ進み、被写体距離演算処理を行う。制御部5は、顔領域マークの大きさおよびレンズ2の焦点距離の情報に基づいて、現在の被写体距離を算出する。さらに、上述した第1実施形態と同様に所定時間後の被写体距離を予測する。   On the other hand, if the registered face area is present in the through image in step S412, the face area mark is displayed for the registered face area, and then the process proceeds to step S416 to perform subject distance calculation processing. The control unit 5 calculates the current subject distance based on the information on the size of the face area mark and the focal length of the lens 2. Further, the subject distance after a predetermined time is predicted as in the first embodiment described above.

続くステップS416Aでは、前回周期で算出され、メモリ11に記録されていた前回の被写体距離と、ステップS416で算出した所定時間後の被写体距離とを比較する。所定時間は、制御部5おける制御遅れ等を考慮して予め適切な値を設定する。例えば所定時間を、上述したレリーズタイムラグと同じ値に設定してもよい。   In the subsequent step S416A, the previous subject distance calculated in the previous cycle and recorded in the memory 11 is compared with the subject distance after the predetermined time calculated in step S416. For the predetermined time, an appropriate value is set in advance in consideration of a control delay or the like in the control unit 5. For example, the predetermined time may be set to the same value as the release time lag described above.

ステップS416Bにおいて、前回の被写体距離と予測される被写体距離との差(=前回被写体距離−予測被写体距離)がしきい値以上であると判定されると、ステップS416Cへ進む。一方、(前回被写体距離−予測被写体距離)がしきい値未満と判定されると、ステップS417へ進む。ここで、しきい値は、被写体距離が変化したとしても、登録した顔領域に対応する被写体の顔がスルー画上でぼけないような値として、予め適切に設定しておく。しきい値として、被写体距離の変化率を設定してもよい。なお、被写体距離が近距離の場合は、遠距離の場合よりもしきい値が小さくなるように設定してもよい。   If it is determined in step S416B that the difference between the previous subject distance and the predicted subject distance (= previous subject distance−predicted subject distance) is greater than or equal to the threshold value, the process proceeds to step S416C. On the other hand, if it is determined that (previous subject distance−predicted subject distance) is less than the threshold value, the process proceeds to step S417. Here, the threshold value is appropriately set in advance as a value that prevents the face of the subject corresponding to the registered face area from being blurred on the through image even if the subject distance changes. As the threshold value, a change rate of the subject distance may be set. Note that when the subject distance is a short distance, the threshold value may be set smaller than in the case of a long distance.

ステップS416Cでは、被写体に対して動体予測AF処理を実行する。ここでは、ステップS416で算出した所定時間後の被写体距離を用いて、所定時間後の被写体に対する合焦位置を予測し、この合焦位置に合焦するようにフォーカスレンズ2aを移動する。ステップS416Dでは、ステップS416Aで算出した今回周期の被写体距離をメモリ11に記録する。   In step S416C, the moving object prediction AF process is performed on the subject. Here, the focus position with respect to the subject after the predetermined time is predicted using the subject distance after the predetermined time calculated in step S416, and the focus lens 2a is moved so as to focus on this focus position. In step S416D, the subject distance of the current cycle calculated in step S416A is recorded in the memory 11.

ステップS417において、レリーズボタン20の全押しスイッチSW2がON状態であるかどうかを判定する。レリーズボタン20の全押しスイッチSW2がOFF状態である場合には、ステップS412へ戻り、登録した顔領域がスルー画像中に存在するかどうかの判定を再度行なう。レリーズボタン20の全押しスイッチSW2がON状態である場合にはステップS418へ進む。   In step S417, it is determined whether or not the full-press switch SW2 of the release button 20 is in the ON state. If the full-press switch SW2 of the release button 20 is in the OFF state, the process returns to step S412 to determine again whether the registered face area exists in the through image. If the full push switch SW2 of the release button 20 is in the ON state, the process proceeds to step S418.

ステップS418において、登録した顔領域に対して被写体距離演算処理を行い、続くステップS419では、被写体に対して動体予測AF処理を実行する。その後、ステップS420において、撮像素子8で撮像する。   In step S418, subject distance calculation processing is performed on the registered face area, and in step S419, moving object prediction AF processing is performed on the subject. Thereafter, in step S420, an image is picked up by the image pickup device 8.

以上説明した第4実施形態によれば、スルー画を表示する際に、前回の被写体距離と予測被写体距離とを比較し、スルー画上で設定した顔領域に対応する被写体の顔の像がぼけてしまうことが予測されると、設定した顔領域に対して動体予測AF処理を行う。これにより、必要に応じて動きのある被写体に対して正確に合焦したスルー画を表示することができる。   According to the fourth embodiment described above, when displaying a through image, the previous subject distance is compared with the predicted subject distance, and the face image of the subject corresponding to the face area set on the through image is blurred. If it is predicted, the moving object prediction AF process is performed on the set face area. As a result, it is possible to display a through image that is accurately focused on a moving subject as necessary.

なお、以上説明した第2実施形態を、第3または第4実施形態と組み合わせることもできる。あるいは、第3実施形態と第4実施形態とを組み合わせることもできる。   Note that the second embodiment described above can be combined with the third or fourth embodiment. Alternatively, the third embodiment and the fourth embodiment can be combined.

本発明の第1実施形態において、デジタルカメラ1の電気的構成を示すブロック図である。1 is a block diagram showing an electrical configuration of a digital camera 1 in a first embodiment of the present invention. 本発明の第1実施形態において、被写体である人物の顔に対して顔領域マークを表示した図である。In the first embodiment of the present invention, a face area mark is displayed on the face of a person who is a subject. 本発明の第1実施形態において、動体予測AFモードでの撮影手順を示したフローチャートである。6 is a flowchart illustrating a photographing procedure in a moving object prediction AF mode in the first embodiment of the present invention. 本発明の第1実施形態において、複数フレーム分の被写体距離の時間変化とその後の被写体距離との関係の一例を表した図である。In the first embodiment of the present invention, it is a diagram showing an example of a relationship between a temporal change in subject distance for a plurality of frames and a subsequent subject distance. 本発明の第1実施形態において、スルー画像と顔領域マークの大きさ及び被写体距離との関係の一例を表した図である。FIG. 5 is a diagram illustrating an example of a relationship between a through image, a size of a face area mark, and a subject distance in the first embodiment of the present invention. 本発明の第2実施形態において、画像データから特徴領域を設定する手順を示したフローチャートである。9 is a flowchart illustrating a procedure for setting a feature region from image data in the second embodiment of the present invention. 本発明の第2実施形態において、画像データから特徴領域を設定した場合における動体予測AFモードでの撮影手順を示したフローチャートである。9 is a flowchart showing a shooting procedure in a moving object prediction AF mode when a feature region is set from image data in the second embodiment of the present invention. 本発明の第3実施形態における、動体予測AFモードでの撮影手順を示したフローチャートである。It is the flowchart which showed the imaging | photography procedure in the moving body prediction AF mode in 3rd Embodiment of this invention. 本発明の第4実施形態における、動体予測AFモードでの撮影手順を示したフローチャートである。It is the flowchart which showed the imaging | photography procedure in the moving body prediction AF mode in 4th Embodiment of this invention.

符号の説明Explanation of symbols

1 デジタルカメラ
2 レンズ
2a フォーカスレンズ
2b ズームレンズ
3 フォーカスレンズ駆動部
4 ズームレンズ駆動部
5 制御部
6 フォーカスレンズ位置検出部
7 ズームレンズ位置検出部
8 撮像素子
9 アナログ信号処理部
10 アナログデジタル変換器
11 メモリ
12 バス
13 デジタル信号処理部
14 圧縮伸張部
15 メモリカード
16 デジタルアナログ変換器
17 表示部
18 操作部
19 電源ボタン
20 レリーズボタン
21 メニューボタン
22 十字キー
23 決定ボタン
24 AFモード選択スイッチ
25 特徴領域認識演算部
DESCRIPTION OF SYMBOLS 1 Digital camera 2 Lens 2a Focus lens 2b Zoom lens 3 Focus lens drive part 4 Zoom lens drive part 5 Control part 6 Focus lens position detection part 7 Zoom lens position detection part 8 Imaging element 9 Analog signal processing part 10 Analog digital converter 11 Memory 12 Bus 13 Digital signal processing unit 14 Compression / decompression unit 15 Memory card 16 Digital / analog converter 17 Display unit 18 Operation unit 19 Power button 20 Release button 21 Menu button 22 Cross key 23 Enter button 24 AF mode selection switch 25 Feature area recognition Calculation unit

Claims (10)

撮影光学系を透過した被写体からの光を受光して撮像する撮像部と、
前記撮像部で撮像して取得した画像を用いて前記被写体の特徴領域を認識する認識部と、
前記認識部により認識された特徴領域の大きさを検出する検出部と、
前記特徴領域の大きさに基づいて所定時間後の前記被写体までの距離を予測し、前記被写体に合焦するように前記撮影光学系を制御する制御部と
を備えることを特徴とするデジタルカメラ。
An imaging unit that receives and images light from a subject that has passed through the imaging optical system;
A recognition unit for recognizing a feature region of the subject using an image captured and acquired by the imaging unit;
A detection unit for detecting the size of the feature region recognized by the recognition unit;
A digital camera comprising: a control unit that predicts a distance to the subject after a predetermined time based on the size of the feature region and controls the photographing optical system so as to focus on the subject.
請求項1に記載のデジタルカメラにおいて、
前記特徴領域の大きさに基づいて前記被写体までの距離を算出する距離算出部と、
前記被写体までの距離の時間変化に基づいて、前記被写体の移動速度を算出する速度算出部とをさらに備え、
前記制御部は、前記距離算出部で算出される前記被写体までの距離、および前記速度算出部で算出される前記被写体の移動速度から、前記被写体までの距離を予測することを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
A distance calculation unit that calculates a distance to the subject based on the size of the feature region;
A speed calculating unit that calculates a moving speed of the subject based on a time change of the distance to the subject;
The control unit predicts a distance to the subject from a distance to the subject calculated by the distance calculation unit and a moving speed of the subject calculated by the speed calculation unit. .
請求項2に記載のデジタルカメラにおいて、
前記距離算出部は、前記撮影光学系を構成するレンズの位置情報から前記被写体までの距離を算出し、前記撮影光学系を構成するレンズの位置情報から前記被写体までの距離を算出した後は、算出した前記被写体までの距離と前記特徴領域の大きさとに基づいて前記被写体までの距離を算出することを特徴とするデジタルカメラ。
The digital camera according to claim 2,
The distance calculation unit calculates the distance to the subject from the position information of the lens constituting the photographing optical system, and after calculating the distance to the subject from the position information of the lens constituting the photographing optical system, A digital camera characterized in that the distance to the subject is calculated based on the calculated distance to the subject and the size of the feature region.
請求項1から請求項3のいずれか一項に記載のデジタルカメラにおいて、
前記制御部は、撮影実行操作から前記撮像部が撮像するまでの時間から、撮像時の前記被写体までの距離を予測し、前記撮像部による撮像時に前記被写体に合焦するように前記撮影光学系を制御することを特徴とするデジタルカメラ。
The digital camera according to any one of claims 1 to 3,
The control unit predicts the distance to the subject at the time of imaging from the time from the imaging execution operation to imaging by the imaging unit, and focuses on the subject at the time of imaging by the imaging unit. A digital camera characterized by controlling the camera.
請求項1から請求項4のいずれか一項に記載のデジタルカメラにおいて、
前記認識部によって認識された少なくとも一つの前記特徴領域のうち、前記被写体までの距離を予測するための前記被写体の特徴領域を選択し、選択した前記被写体の特徴領域の特徴情報を登録する登録部をさらに備え、
前記被写体の特徴領域の特徴情報を登録した後には、前記認識部は、前記被写体の特徴領域の特徴情報を基に前記被写体の特徴領域を認識することを特徴とするデジタルカメラ。
The digital camera according to any one of claims 1 to 4,
A registration unit that selects a feature region of the subject for predicting a distance to the subject from at least one feature region recognized by the recognition unit, and registers feature information of the selected feature region of the subject Further comprising
After registering the feature information of the feature region of the subject, the recognition unit recognizes the feature region of the subject based on the feature information of the feature region of the subject.
請求項5に記載のデジタルカメラにおいて、
前記撮像部で撮像して取得した画像を記録媒体に記録する記録制御部をさらに備え、
前記登録部は、前記記録媒体に記録されている画像に基づいて前記被写体の特徴領域の特徴情報を登録することを特徴とするデジタルカメラ。
The digital camera according to claim 5, wherein
A recording control unit for recording an image captured by the imaging unit on a recording medium;
The digital camera according to claim 1, wherein the registration unit registers feature information of a feature region of the subject based on an image recorded on the recording medium.
請求項5または請求項6に記載のデジタルカメラにおいて、
前記特徴領域の特徴情報は、前記撮影光学系を構成するレンズの位置情報、前記被写体までの距離、前記特徴領域の大きさのうち少なくとも1つであることを特徴とするデジタルカメラ。
The digital camera according to claim 5 or 6,
The digital camera according to claim 1, wherein the feature information of the feature region is at least one of position information of a lens constituting the photographing optical system, a distance to the subject, and a size of the feature region.
請求項4に記載のデジタルカメラにおいて、
前記距離算出部および前記速度算出部のいずれか一方の算出結果に応じて、撮影条件を変更することを特徴とするデジタルカメラ。
The digital camera according to claim 4, wherein
A digital camera characterized in that a shooting condition is changed according to a calculation result of one of the distance calculation unit and the speed calculation unit.
請求項8に記載のデジタルカメラにおいて、
前記撮影条件は、シャッタースピードおよびISO感度のいずれか一方であることを特徴とするデジタルカメラ。
The digital camera according to claim 8, wherein
The digital camera according to claim 1, wherein the photographing condition is one of shutter speed and ISO sensitivity.
請求項1から請求項9のいずれか一項に記載のデジタルカメラにおいて、
前記制御部は、前記撮像部で時系列に取得された複数の画像に存在する、複数の前記特徴領域の大きさに基づいて、前記所定時間後の前記被写体までの距離を予測することを特徴とするデジタルカメラ。
The digital camera according to any one of claims 1 to 9,
The control unit predicts the distance to the subject after the predetermined time based on the size of the plurality of feature regions present in a plurality of images acquired in time series by the imaging unit. A digital camera.
JP2008094974A 2007-04-04 2008-04-01 Digital camera Expired - Fee Related JP5251215B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008094974A JP5251215B2 (en) 2007-04-04 2008-04-01 Digital camera
EP08153976A EP1986421A3 (en) 2007-04-04 2008-04-02 Digital camera
US12/078,632 US20080284900A1 (en) 2007-04-04 2008-04-02 Digital camera
CN200810090579.XA CN101281290B (en) 2007-04-04 2008-04-03 Digital camera
US13/037,026 US8253847B2 (en) 2007-04-04 2011-02-28 Digital camera having an automatic focus

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007098136 2007-04-04
JP2007098136 2007-04-04
JP2008094974A JP5251215B2 (en) 2007-04-04 2008-04-01 Digital camera

Publications (2)

Publication Number Publication Date
JP2008276214A true JP2008276214A (en) 2008-11-13
JP5251215B2 JP5251215B2 (en) 2013-07-31

Family

ID=40013830

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008094974A Expired - Fee Related JP5251215B2 (en) 2007-04-04 2008-04-01 Digital camera

Country Status (2)

Country Link
JP (1) JP5251215B2 (en)
CN (1) CN101281290B (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130590A (en) * 2008-11-28 2010-06-10 Samsung Yokohama Research Institute Co Ltd Imaging apparatus and imaging method
JP2010282102A (en) * 2009-06-05 2010-12-16 Canon Inc Imaging apparatus and range-finding method
JP2011027847A (en) * 2009-07-22 2011-02-10 Fujifilm Corp Af frame automatic tracking system
JP2011027846A (en) * 2009-07-22 2011-02-10 Fujifilm Corp Automatic af frame tracking system
JP2011107396A (en) * 2009-11-17 2011-06-02 Fujifilm Corp Autofocus system
WO2013054797A1 (en) * 2011-10-11 2013-04-18 オリンパス株式会社 Focus control device, endoscope system and focus control method
JP2013088785A (en) * 2011-10-23 2013-05-13 Canon Inc Focus adjustment device
JP2013113922A (en) * 2011-11-25 2013-06-10 Eastman Kodak Co Imaging apparatus
JP2015170919A (en) * 2014-03-05 2015-09-28 オリンパス株式会社 Imaging apparatus, and control method of imaging apparatus
US9160916B2 (en) 2011-10-16 2015-10-13 Canon Kabushiki Kaisha Focus adjustment apparatus with a size detector
JP2016086362A (en) * 2014-10-28 2016-05-19 キヤノン株式会社 Image processing device, image processing method, and computer program
US9519202B2 (en) 2012-03-15 2016-12-13 Panasonic Intellectual Property Management Co., Ltd. Auto-focusing device and image pickup device
FR3042367A1 (en) * 2015-10-12 2017-04-14 Stmicroelectronics (Grenoble 2) Sas METHOD FOR CAPTURING IMAGES OF A MOVING OBJECT AND CORRESPONDING APPARATUS
JP2018064285A (en) * 2017-11-28 2018-04-19 オリンパス株式会社 Imaging apparatus and method for controlling imaging apparatus
WO2019058691A1 (en) * 2017-09-20 2019-03-28 富士フイルム株式会社 Imaging control device, imaging device, imaging control method, and imaging control program
WO2021117367A1 (en) * 2019-12-09 2021-06-17 ソニーグループ株式会社 Image processing apparatus, image processing system, and image processing method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010073619A1 (en) * 2008-12-26 2010-07-01 パナソニック株式会社 Image capture device
JP5760727B2 (en) * 2011-06-14 2015-08-12 リコーイメージング株式会社 Image processing apparatus and image processing method
JP5879831B2 (en) * 2011-09-02 2016-03-08 株式会社ニコン Electronic camera and image processing program
JP6032879B2 (en) * 2011-10-03 2016-11-30 キヤノン株式会社 Imaging information output device and lens device having the same
JP2015001609A (en) * 2013-06-14 2015-01-05 ソニー株式会社 Control device and storage medium
US20160073039A1 (en) * 2014-09-08 2016-03-10 Sony Corporation System and method for auto-adjust rate of zoom feature for digital video
CN106331518A (en) * 2016-09-30 2017-01-11 北京旷视科技有限公司 Image processing method and device and electronic system
CN110244611A (en) * 2019-06-06 2019-09-17 北京迈格威科技有限公司 A kind of pet monitoring method and device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63159817A (en) * 1986-12-24 1988-07-02 Seikosha Co Ltd Automatic focusing device for still camera
JPH05216093A (en) * 1992-01-31 1993-08-27 Canon Inc Camera with function for initializing operation mode
JP2002330335A (en) * 2001-04-27 2002-11-15 Matsushita Electric Ind Co Ltd Still picture image pickup device
JP2003075717A (en) * 2001-09-06 2003-03-12 Nikon Corp Distance detecting device
JP2004320287A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2006254272A (en) * 2005-03-14 2006-09-21 Sanyo Electric Co Ltd Imaging apparatus
JP2006319596A (en) * 2005-05-12 2006-11-24 Fuji Photo Film Co Ltd Imaging apparatus and imaging method
JP2007010898A (en) * 2005-06-29 2007-01-18 Casio Comput Co Ltd Imaging apparatus and program therefor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001004909A (en) * 1999-06-18 2001-01-12 Olympus Optical Co Ltd Camera having automatic focusing device
US20040207743A1 (en) * 2003-04-15 2004-10-21 Nikon Corporation Digital camera system
JP4371219B2 (en) * 2004-05-07 2009-11-25 株式会社ニコン Digital camera
US7773146B2 (en) * 2004-06-15 2010-08-10 Canon Kabushiki Kaisha Focus control apparatus and optical apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63159817A (en) * 1986-12-24 1988-07-02 Seikosha Co Ltd Automatic focusing device for still camera
JPH05216093A (en) * 1992-01-31 1993-08-27 Canon Inc Camera with function for initializing operation mode
JP2002330335A (en) * 2001-04-27 2002-11-15 Matsushita Electric Ind Co Ltd Still picture image pickup device
JP2003075717A (en) * 2001-09-06 2003-03-12 Nikon Corp Distance detecting device
JP2004320287A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2006254272A (en) * 2005-03-14 2006-09-21 Sanyo Electric Co Ltd Imaging apparatus
JP2006319596A (en) * 2005-05-12 2006-11-24 Fuji Photo Film Co Ltd Imaging apparatus and imaging method
JP2007010898A (en) * 2005-06-29 2007-01-18 Casio Comput Co Ltd Imaging apparatus and program therefor

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010130590A (en) * 2008-11-28 2010-06-10 Samsung Yokohama Research Institute Co Ltd Imaging apparatus and imaging method
JP2010282102A (en) * 2009-06-05 2010-12-16 Canon Inc Imaging apparatus and range-finding method
JP2011027847A (en) * 2009-07-22 2011-02-10 Fujifilm Corp Af frame automatic tracking system
JP2011027846A (en) * 2009-07-22 2011-02-10 Fujifilm Corp Automatic af frame tracking system
US8643766B2 (en) 2009-11-17 2014-02-04 Fujifilm Corporation Autofocus system equipped with a face recognition and tracking function
JP2011107396A (en) * 2009-11-17 2011-06-02 Fujifilm Corp Autofocus system
WO2013054797A1 (en) * 2011-10-11 2013-04-18 オリンパス株式会社 Focus control device, endoscope system and focus control method
JP2013101314A (en) * 2011-10-11 2013-05-23 Olympus Corp Focus control device, endoscope system and focus control method
US9621781B2 (en) 2011-10-11 2017-04-11 Olympus Corporation Focus control device, endoscope system, and focus control method
US9160916B2 (en) 2011-10-16 2015-10-13 Canon Kabushiki Kaisha Focus adjustment apparatus with a size detector
JP2013088785A (en) * 2011-10-23 2013-05-13 Canon Inc Focus adjustment device
JP2013113922A (en) * 2011-11-25 2013-06-10 Eastman Kodak Co Imaging apparatus
US9519202B2 (en) 2012-03-15 2016-12-13 Panasonic Intellectual Property Management Co., Ltd. Auto-focusing device and image pickup device
JP2015170919A (en) * 2014-03-05 2015-09-28 オリンパス株式会社 Imaging apparatus, and control method of imaging apparatus
JP2016086362A (en) * 2014-10-28 2016-05-19 キヤノン株式会社 Image processing device, image processing method, and computer program
FR3042367A1 (en) * 2015-10-12 2017-04-14 Stmicroelectronics (Grenoble 2) Sas METHOD FOR CAPTURING IMAGES OF A MOVING OBJECT AND CORRESPONDING APPARATUS
US10187563B2 (en) 2015-10-12 2019-01-22 Stmicroelectronics (Grenoble 2) Sas Method of setting a focus to acquire images of a moving object and corresponding device
WO2019058691A1 (en) * 2017-09-20 2019-03-28 富士フイルム株式会社 Imaging control device, imaging device, imaging control method, and imaging control program
JPWO2019058691A1 (en) * 2017-09-20 2020-10-08 富士フイルム株式会社 Imaging control device, imaging device, imaging control method, and imaging control program
US11095845B2 (en) 2017-09-20 2021-08-17 Fujifilm Corporation Imaging control device, imaging apparatus, imaging control method, and imaging control program
JP2018064285A (en) * 2017-11-28 2018-04-19 オリンパス株式会社 Imaging apparatus and method for controlling imaging apparatus
WO2021117367A1 (en) * 2019-12-09 2021-06-17 ソニーグループ株式会社 Image processing apparatus, image processing system, and image processing method
JP7435621B2 (en) 2019-12-09 2024-02-21 ソニーグループ株式会社 Image processing device, image processing system, and image processing method

Also Published As

Publication number Publication date
JP5251215B2 (en) 2013-07-31
CN101281290B (en) 2014-07-30
CN101281290A (en) 2008-10-08

Similar Documents

Publication Publication Date Title
JP5251215B2 (en) Digital camera
US8253847B2 (en) Digital camera having an automatic focus
US11012614B2 (en) Image processing device, image processing method, and program
US20200280681A1 (en) Zoom control device, control method of zoom control device, and recording medium
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
JP5293206B2 (en) Image search apparatus, image search method and program
JP2008206018A (en) Imaging apparatus and program
JP4552997B2 (en) Imaging apparatus and program
JP2008009263A (en) Imaging device and program therefor
JP2006201282A (en) Digital camera
JP6006024B2 (en) Imaging apparatus, imaging method, and program
JP2005215040A (en) Autofocus system
JP2007279601A (en) Camera
JP2008299784A (en) Object determination device and program therefor
US20130293768A1 (en) Imaging apparatus, imaging method, imaging program and computer readable information recording medium
JP2008028747A (en) Imaging device and program thereof
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP5448868B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP7342883B2 (en) Imaging control device, imaging device, imaging control method
JP5229371B2 (en) Imaging device
JP5293769B2 (en) Imaging apparatus and program thereof
JP2009229570A (en) Autofocus system
JP2009055093A (en) Imaging apparatus
JP2013162225A (en) Tracker and imaging apparatus, and tracking method to be used for imaging apparatus
JP5168424B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120502

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130401

R150 Certificate of patent or registration of utility model

Ref document number: 5251215

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees