JP2010122358A - Autofocus device, autofocus method, and imaging apparatus - Google Patents

Autofocus device, autofocus method, and imaging apparatus Download PDF

Info

Publication number
JP2010122358A
JP2010122358A JP2008294404A JP2008294404A JP2010122358A JP 2010122358 A JP2010122358 A JP 2010122358A JP 2008294404 A JP2008294404 A JP 2008294404A JP 2008294404 A JP2008294404 A JP 2008294404A JP 2010122358 A JP2010122358 A JP 2010122358A
Authority
JP
Japan
Prior art keywords
area
priority
focusing
imaging
specific area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008294404A
Other languages
Japanese (ja)
Other versions
JP5315019B2 (en
Inventor
Takeshi Otsuki
武志 大槻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Electronics Corp
Original Assignee
NEC Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Electronics Corp filed Critical NEC Electronics Corp
Priority to JP2008294404A priority Critical patent/JP5315019B2/en
Publication of JP2010122358A publication Critical patent/JP2010122358A/en
Application granted granted Critical
Publication of JP5315019B2 publication Critical patent/JP5315019B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To shorten processing time, since a user need not perform operation for designating an area where autofocus is preferentially performed for himself (herself). <P>SOLUTION: The autofocus device includes: a face detection part 130 detecting a face area in a photographic image plane on the basis of image data generated by photographing a subject imaged by an imaging optical system; and an AF target area decision part 131 deciding whether or not the face area is within a preferential focusing area set in the photographic image plane, and deciding the face area as an AF target area in order to carry out focusing operation of the imaging optical system 10 when the face area is included in the preferential focusing area. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像装置における被写体の合焦状態を自動で調整するオートフォーカス技術に関する。   The present invention relates to an autofocus technique for automatically adjusting a focus state of a subject in an imaging apparatus.

CCD(Charge Coupled Device)センサ、CMOS(Complementary Metal Oxide Semiconductor)センサ等の撮像素子を有するデジタルスチルカメラ、デジタルビデオカメラ等の撮像装置が実用化されている。これらの撮像装置に適用されるオートフォーカス(AF)方式として、撮像素子によって取得される撮影画像を使用したコントラスト検出方式が知られている。   Imaging devices such as digital still cameras and digital video cameras having imaging elements such as CCD (Charge Coupled Device) sensors and CMOS (Complementary Metal Oxide Semiconductor) sensors have been put into practical use. As an autofocus (AF) method applied to these image pickup apparatuses, a contrast detection method using a captured image acquired by an image sensor is known.

コントラスト検出方式は、撮像光学系によって撮像素子の撮像面上に結像される被写体像が合焦状態にあるときは、撮像素子によって取得される撮影画像のコントラストが高くなることを利用する。具体的には、撮像光学系に含まれる合焦用レンズの位置又は撮像素子の位置を移動させることで被写体像の結像位置を順次変化させながら、撮影画像を順次取得する。   The contrast detection method uses the fact that the contrast of the captured image acquired by the imaging device is high when the subject image formed on the imaging surface of the imaging device by the imaging optical system is in focus. Specifically, captured images are sequentially acquired while sequentially changing the imaging position of the subject image by moving the position of the focusing lens included in the imaging optical system or the position of the imaging element.

撮像素子により順次取得される複数の撮影画像に関して、これらのコントラストを示すコントラスト評価値を計算し、コントラスト評価値が極大となる被写体像の結像位置を合焦位置に決定する。コントラスト評価値には、例えば、空間周波数の高周波成分の積算値が使用される。このように、コントラスト評価値の極大値を探索することで合焦位置の決定を行なう制御アルゴリズムは、「山登り制御」と呼ばれる。   Contrast evaluation values indicating these contrasts are calculated for a plurality of captured images sequentially acquired by the image sensor, and the imaging position of the subject image that maximizes the contrast evaluation value is determined as the in-focus position. For the contrast evaluation value, for example, an integrated value of the high frequency component of the spatial frequency is used. In this way, the control algorithm for determining the in-focus position by searching for the maximum value of the contrast evaluation value is called “mountain climbing control”.

また、撮像素子により取得された撮影画面に含まれている人物の顔の像を検出する顔検出処理を実行し、検出された顔の像にピントが合うように合焦制御を行う撮像装置が知られている(特許文献1)。特許文献1には、動きの激しい被写体にも追従できるように、撮像画面内での顔領域の位置に基づいて合焦制御を行う指定エリアを決定し、当該指定エリア内の顔領域から顔の特徴点を示す顔認識データを作成し、顔認識データに基づいて顔位置の変化を検出するとともに、指定エリアを変更する技術が記載されている。しかしながら、顔領域が検出されなかった場合には、オートフォーカスが実行されないという問題がある。   In addition, an imaging apparatus that performs a face detection process for detecting a human face image included in a shooting screen acquired by the imaging device and performs focusing control so that the detected face image is in focus. Known (Patent Document 1). In Patent Document 1, a designated area for performing focus control is determined based on the position of the face area in the imaging screen so that a subject moving rapidly can be followed, and the face area is determined from the face area in the designated area. A technique is described in which face recognition data indicating feature points is created, a change in face position is detected based on the face recognition data, and a designated area is changed. However, when the face area is not detected, there is a problem that autofocus is not executed.

また、特許文献1には、指定エリアとなった顔以外の領域にピントを合わせるため、顔領域の位置に基づいて決定された合焦制御を行う指定エリアを、ユーザからの指定エリアの変更を指示する入力に従って、他の焦点検出エリアに変更する技術が記載されている。
特開2007−279601号公報
Further, in Patent Document 1, in order to focus on an area other than the face that has become the designated area, the designated area for performing focus control determined based on the position of the face area is changed from the user to the designated area. A technique for changing to another focus detection area in accordance with an input to be instructed is described.
JP 2007-279601 A

上記の技術では、例えば、撮像画面内の複数の顔領域が検出された場合に、ユーザ自身が優先的にオートフォーカスを行う領域を指定する操作を行う必要があった。このように、ユーザ自身がオートフォーカスを行う領域を指定する操作を行うため、処理時間が増大するという問題があった。   In the above technique, for example, when a plurality of face areas in the imaging screen are detected, it is necessary for the user himself to perform an operation for preferentially specifying an area to be autofocused. Thus, there is a problem that the processing time increases because the user himself performs an operation of designating an area to be autofocused.

本発明の第1の態様に係るオートフォーカス装置は、撮像光学系によって結像される被写体を撮影することにより生成される画像データに基づいて、撮影画面内の特定領域を検出する領域検出部と、前記特定領域が前記撮影画面内に設定された優先合焦エリア内であるか否かを判定する判定部と、前記特定領域が前記優先合焦エリア内に含まれる場合には、前記撮像光学系の合焦動作を実行するため、前記特定領域での結像状態を評価する合焦状態評価部とを備えるものである。   An autofocus device according to a first aspect of the present invention includes an area detection unit that detects a specific area in a shooting screen based on image data generated by shooting a subject imaged by an imaging optical system. A determination unit that determines whether or not the specific area is within a priority focus area set in the shooting screen; and when the specific area is included in the priority focus area, the imaging optical In order to execute the focusing operation of the system, a focusing state evaluation unit that evaluates the imaging state in the specific region is provided.

本発明の第2の態様に係るオートフォーカス方法は、撮像光学系によって結像される被写体を撮影して画像データを生成する撮像部を有する撮像装置におけるオートフォーカス制御方法であって、前記画像データに基づいて、撮影画面内の特定領域を検出し、前記特定領域が前記撮影画面内に設定された優先合焦エリア内であるか否かを判定し、前記特定領域が前記優先合焦エリア内に含まれる場合には、前記特定領域での結像状態に基づいて、前記撮像光学系の合焦動作を実行する。   An autofocus method according to a second aspect of the present invention is an autofocus control method in an imaging apparatus having an imaging unit that shoots a subject imaged by an imaging optical system and generates image data. Based on the above, a specific area in the shooting screen is detected, it is determined whether or not the specific area is in the priority focusing area set in the shooting screen, and the specific area is in the priority focusing area. Is included, the focusing operation of the imaging optical system is executed based on the imaging state in the specific area.

本発明の第3の態様に係る撮像装置は、撮像光学系によって結像される被写体を撮影して画像データを生成する撮像部と、前記画像データに基づいて、撮影画面内の特定領域を検出する領域検出部と、前記特定領域が前記撮影画面内に設定された優先合焦エリア内であるか否かを判定する判定部と、前記特定領域が前記優先合焦エリア内に含まれる場合には、前記特定領域での結像状態に基づいて、前記撮像光学系の合焦動作を実行する制御部と、を備えるものである。   An imaging apparatus according to a third aspect of the present invention includes an imaging unit that shoots a subject imaged by an imaging optical system to generate image data, and detects a specific area in the shooting screen based on the image data. A region detection unit that performs determination, a determination unit that determines whether or not the specific region is within a priority focus area set in the shooting screen, and a case where the specific region is included in the priority focus area Includes a control unit that executes a focusing operation of the imaging optical system based on an imaging state in the specific region.

本発明によれば、ユーザ自身が優先的にオートフォーカスを行う領域を指定する操作を行う必要がなく、処理時間を短縮することができる。   According to the present invention, it is not necessary for the user himself to perform an operation for preferentially specifying an area to be autofocused, and the processing time can be reduced.

以下では、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。各図面において、同一要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted as necessary for the sake of clarity.

実施の形態1.
本発明の実施の形態1に係る撮像装置1の構成について、図1を参照して説明する。図1は、本実施の形態に係る撮像装置1の主要構成を示すブロック図である。図1に示すように、撮像装置1は、撮像光学系10、撮像部11、画像処理部12、合焦処理部13を備える。以下では、図1に含まれる各構成要素について順に説明する。
Embodiment 1 FIG.
The configuration of the imaging apparatus 1 according to Embodiment 1 of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a main configuration of an imaging apparatus 1 according to the present embodiment. As illustrated in FIG. 1, the imaging device 1 includes an imaging optical system 10, an imaging unit 11, an image processing unit 12, and a focusing processing unit 13. Below, each component contained in FIG. 1 is demonstrated in order.

図1において、撮像光学系10は、後述する撮像素子110の撮像面に被写体像を結像させるため光学レンズ群である。撮像光学系10は、合焦用レンズ101を含む。合焦用レンズ101は、後述するレンズ駆動部134の駆動によって、撮像光学系10と撮像素子110を結ぶ光軸方向に移動可能である。   In FIG. 1, an image pickup optical system 10 is an optical lens group for forming a subject image on an image pickup surface of an image pickup element 110 described later. The imaging optical system 10 includes a focusing lens 101. The focusing lens 101 is movable in the direction of the optical axis connecting the imaging optical system 10 and the imaging element 110 by driving a lens driving unit 134 described later.

撮像部11は、撮像素子110、アナログ信号処理部111及びA/D変換部112を含む。撮像素子110は、撮像光学系10を介して入射する光信号を光電変換し、アナログ画像信号を出力するセンサである。撮像素子110は、例えば、CCD(Charge Coupled Device)イメージセンサ、CMOS(Complementary MOS)イメージセンサ等である。   The imaging unit 11 includes an imaging element 110, an analog signal processing unit 111, and an A / D conversion unit 112. The image sensor 110 is a sensor that photoelectrically converts an optical signal incident via the imaging optical system 10 and outputs an analog image signal. The image sensor 110 is, for example, a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary MOS) image sensor, or the like.

アナログ信号処理部111は、撮像素子110から出力されるアナログ画像信号の増幅処理、ノイズ除去等の処理を行う。A/D変換部112は、アナログ信号処理部111から出力されるアナログ画像信号をサンプリングすることで、デジタル画像信号としての画像データを生成する。   The analog signal processing unit 111 performs processing such as amplification processing and noise removal of the analog image signal output from the image sensor 110. The A / D conversion unit 112 generates image data as a digital image signal by sampling the analog image signal output from the analog signal processing unit 111.

画像処理部12は、A/D変換部112から供給される画像データに対するカラー補正、ホワイトバランス調整、ガンマ補正等の画像処理を行う。   The image processing unit 12 performs image processing such as color correction, white balance adjustment, and gamma correction on the image data supplied from the A / D conversion unit 112.

合焦処理部13は、撮像部11から供給される画像データを用いてコントラスト検出方式によるオートフォーカスを実行する。より具体的に述べると、合焦処理部13は、撮像部11により生成された撮影画面内に含まれている人物の顔領域を特定領域として検出するための顔検出処理を実行する。そして、顔領域が検出された場合、合焦処理部13は当該顔領域が撮影画面内に設定された優先合焦エリア内であるか否かを判定する。   The focusing processing unit 13 performs autofocus by a contrast detection method using the image data supplied from the imaging unit 11. More specifically, the focusing processing unit 13 performs a face detection process for detecting a person's face area included in the shooting screen generated by the imaging unit 11 as a specific area. When the face area is detected, the focusing processing unit 13 determines whether or not the face area is within the priority focusing area set in the shooting screen.

顔領域が優先合焦エリア内に含まれる場合には、合焦処理部13は、顔領域をオートフォーカス対象領域(以下、AF対象領域)に決定し、画像データ中のAF対象領域に対応する領域のコントラストが極大となるように、合焦用レンズ101を光軸方向に移動させる。   When the face area is included in the priority focus area, the focus processing unit 13 determines the face area as an autofocus target area (hereinafter referred to as AF target area) and corresponds to the AF target area in the image data. The focusing lens 101 is moved in the optical axis direction so that the contrast of the region is maximized.

なお、本実施の形態においては、撮像画面内に含まれる顔領域を特定領域として検出する例について説明するが、これに限定されるものではない。ユーザが決定した他の被写体を特定領域として検出する処理を行うことも可能である。   In the present embodiment, an example in which a face area included in an imaging screen is detected as a specific area will be described, but the present invention is not limited to this. It is also possible to perform processing for detecting another subject determined by the user as a specific region.

図1の構成例では、合焦処理部13は、顔検出部130、オートフォーカス対象領域決定部(以下、AF対象領域決定部)131、オートフォーカス評価値算出部(以下、AF評価値算出部)132、制御部133、及びレンズ駆動部134を有する。領域検出部としての顔検出部130は、背景技術として上述した公知の顔検出アルゴリズムを使用して、撮像部11により生成された画像データに基づいて、撮影画面内の顔領域を検出する。   In the configuration example of FIG. 1, the focusing processing unit 13 includes a face detection unit 130, an autofocus target area determination unit (hereinafter referred to as AF target area determination unit) 131, an autofocus evaluation value calculation unit (hereinafter referred to as AF evaluation value calculation unit). ) 132, a control unit 133, and a lens driving unit 134. The face detection unit 130 as the region detection unit detects a face region in the shooting screen based on the image data generated by the imaging unit 11 using the known face detection algorithm described above as the background technology.

AF対象領域決定部131は、顔領域が検出された場合、合焦処理部13は当該顔領域が撮影画面内に設定された優先合焦エリア内であるか否かを判定し、顔領域が優先合焦エリア内に含まれる場合には、合焦処理部13は、顔領域をオートフォーカス対象領域(以下、AF対象領域)に決定する。   When the face area is detected, the AF target area determination unit 131 determines whether the face area is within the priority focusing area set in the shooting screen, and the face area is determined. When included in the priority focus area, the focus processing unit 13 determines the face area as an autofocus target area (hereinafter referred to as AF target area).

また、AF対象領域決定部131は、顔領域が優先合焦エリア内に含まれない場合には、顔領域以外の領域をAF対象領域に決定する。この場合には、例えば、従来のように、撮像画面の中央をオートフォーカス対象領域とすることができる。なお、AF対象領域決定部131がAF対象領域を決定する際の手順については後述する。 In addition, when the face area is not included in the priority focus area, the AF target area determination unit 131 determines an area other than the face area as the AF target area. In this case, for example, as in the prior art, the center of the imaging screen can be set as the autofocus target area. The procedure when the AF target area determination unit 131 determines the AF target area will be described later.

AF評価値算出部132は、画像データの中で少なくともAF対象領域に対応する領域に関するコントラスト評価値を計算する。コントラスト評価値としては、撮影画像のコントラストの大きさを反映した様々なパラメータが使用可能である。例えば、AF対象領域の空間周波数スペクトルを離散コサイン変換(DCT:Discrete Cosine Transform)によって得るとともに、空間周波数の高周波成分の大きさをコントラスト評価値としてもよい。また、例えば、AF対象領域の各々の画素について、水平方向又は垂直方向に隣接する画素との画素値の差分(絶対値)を計算し、得られた画素値の差分をAF対象領域内において積算した積算値をコントラスト評価値としてもよい。   The AF evaluation value calculation unit 132 calculates a contrast evaluation value for at least an area corresponding to the AF target area in the image data. As the contrast evaluation value, various parameters reflecting the magnitude of contrast of the captured image can be used. For example, the spatial frequency spectrum of the AF target area may be obtained by discrete cosine transform (DCT) and the magnitude of the high frequency component of the spatial frequency may be used as the contrast evaluation value. Also, for example, for each pixel in the AF target area, the difference (absolute value) of the pixel value from the adjacent pixel in the horizontal direction or the vertical direction is calculated, and the obtained pixel value difference is integrated in the AF target area. The integrated value may be used as the contrast evaluation value.

制御部133は、AF評価値算出部132によって計算されたAF評価値を使用して、撮像素子110の撮像面における合焦状態の判定を行い、合焦状態が得られる合焦用レンズ101の位置を決定する。より具体的に述べると、制御部133は、合焦用レンズ101の位置を移動させながら撮像部11に撮影画像を順次取得させ、AF評価値が極大となる合焦用レンズ101の位置を求め、その位置を合焦位置と決定する。   The control unit 133 uses the AF evaluation value calculated by the AF evaluation value calculation unit 132 to determine the in-focus state on the image pickup surface of the image sensor 110 and to determine the in-focus state of the focusing lens 101 from which the in-focus state is obtained. Determine the position. More specifically, the control unit 133 causes the imaging unit 11 to sequentially acquire captured images while moving the position of the focusing lens 101, and obtains the position of the focusing lens 101 at which the AF evaluation value is maximized. The position is determined as the in-focus position.

なお、ガウス曲線及び二次曲線等の近似曲線又は実験により得られた特性曲線によって合焦用レンズ101の位置からAF評価値を推定し、コントラストが極大となる合焦位置を予測する技術を、制御部133による合焦位置の探索アルゴリズムに適用してもよい。これらの具体例に限らず、制御部133におけるコントラスト評価値を使用した合焦状態の判定には、公知の様々なアルゴリズムを適用可能である。   A technique for estimating an AF evaluation value from the position of the focusing lens 101 by using an approximate curve such as a Gaussian curve and a quadratic curve or a characteristic curve obtained by an experiment, and predicting a focus position where the contrast is maximized, You may apply to the search algorithm of the focus position by the control part 133. FIG. Not limited to these specific examples, various known algorithms can be applied to the determination of the in-focus state using the contrast evaluation value in the control unit 133.

レンズ駆動部134は、制御部133による制御の下で、合焦用レンズ101を光軸方向に沿って移動させる。   The lens driving unit 134 moves the focusing lens 101 along the optical axis direction under the control of the control unit 133.

ここで、合焦処理部13により実行されるオートフォーカスの処理手順について、図2、3を参照して説明する。図2は、合焦処理部13により実行されるオートフォーカスの処理手順を示すフローチャートである。図3は、AF対象領域決定部131で決定されるAF対象領域の例について説明する図である。なお、図3は撮影画面を示しており、網掛けされた領域が撮影画面内に設定された優先合焦エリアAを示している。   Here, an autofocus processing procedure executed by the focusing processing unit 13 will be described with reference to FIGS. FIG. 2 is a flowchart showing an autofocus processing procedure executed by the focusing processing unit 13. FIG. 3 is a diagram for explaining an example of the AF target area determined by the AF target area determination unit 131. FIG. 3 shows the shooting screen, and the shaded area indicates the priority focusing area A set in the shooting screen.

図2に示すように、まず、合焦処理部13に撮像部11により生成された画像データが入力される(ステップS101)。そして、顔検出部130は、顔検出アルゴリズムを実行し、入力された画像データに含まれる顔領域を検出する(ステップS102)。   As shown in FIG. 2, first, the image data generated by the imaging unit 11 is input to the focusing processing unit 13 (step S101). Then, the face detection unit 130 executes a face detection algorithm and detects a face region included in the input image data (step S102).

その後、AF対象領域決定部131により、顔領域が検出されたか否かが判定される(ステップS103)。ステップS102において顔領域が検出されなかった場合(ステップS103NO)、AF対象領域決定部131は、顔領域に着目しない通常の処理手順に従って、AF対象領域を決定する(ステップS104)。   Thereafter, the AF target area determination unit 131 determines whether a face area is detected (step S103). If no face area is detected in step S102 (NO in step S103), the AF target area determination unit 131 determines an AF target area according to a normal processing procedure that does not focus on the face area (step S104).

ここで、通常の処理手順の一例は、AF対象領域決定部131は、撮影画像内の予め定められた領域をAF対象領域とする処理手順である。例えば、撮影画面内の中央部をAF対象領域とすることができる。また、撮影画像内からコントラストの高い特徴領域を抽出し、この特徴領域をAF対象領域とすることも可能である。   Here, an example of a normal processing procedure is a processing procedure in which the AF target area determination unit 131 sets a predetermined area in the captured image as an AF target area. For example, the center portion in the shooting screen can be set as the AF target area. It is also possible to extract a feature region with high contrast from the photographed image and set this feature region as an AF target region.

一方、ステップS102において顔領域が検出された場合(ステップS103YES)、AF対象領域決定部131により顔領域の位置が特定される(ステップS105)。本実施の形態では、検出された顔領域は矩形であるものとし、ステップS105では検出された顔領域の中心点の座標が特定される。   On the other hand, when a face area is detected in step S102 (step S103 YES), the position of the face area is specified by the AF target area determination unit 131 (step S105). In the present embodiment, the detected face area is assumed to be a rectangle, and the coordinates of the center point of the detected face area are specified in step S105.

その後、AF対象領域決定部131により、位置が特定された顔領域があらかじめ設定された優先合焦エリア内に含まれているか否かが判定される(ステップS106)。図3に示すように、本実施の形態では、優先合焦エリアAは、撮影画面の上辺、下辺及び上辺から下辺に向かって延びる円弧により仕切られた領域である。なお、優先合焦エリアの形状はこれに限定されるものではなく、ユーザの指定により変更することが可能である。また、優先合焦エリアの大きさ及び撮影画面内の位置についても変更することができる。   Thereafter, the AF target area determination unit 131 determines whether or not the face area whose position has been specified is included in a preset priority focusing area (step S106). As shown in FIG. 3, in the present embodiment, the priority focusing area A is an area partitioned by an upper side, a lower side, and an arc extending from the upper side to the lower side of the shooting screen. Note that the shape of the priority focus area is not limited to this, and can be changed according to the user's designation. Also, the size of the priority focusing area and the position in the shooting screen can be changed.

顔領域が優先合焦エリアAに含まれているか否かの判定は、優先合焦エリアの中心点から周縁部までの距離と、優先合焦エリアの中心点から顔領域の中心点までの距離を比較することにより行われる。ここで、図3を参照して、AF対象領域の例について説明する。図3において、R1、R2は検出された顔領域を示している。   Whether or not the face area is included in the priority focus area A is determined by determining the distance from the center point of the priority focus area to the peripheral edge and the distance from the center point of the priority focus area to the center point of the face area. This is done by comparing Here, an example of the AF target area will be described with reference to FIG. In FIG. 3, R1 and R2 indicate detected face areas.

図3に示す顔領域R1の場合、優先合焦エリアAの中心点から周縁部までの距離は、優先合焦エリアAの中心点から顔領域R1の中心点までの距離よりも短い。従って、顔領域R1は、優先合焦エリアAに含まれないと判定される(ステップS106NO)。この場合は、ステップS104のように、AF対象領域決定部131が、顔領域に着目しない通常の処理手順に従ってAF対象領域を決定する。   In the case of the face area R1 shown in FIG. 3, the distance from the center point of the priority focusing area A to the peripheral edge is shorter than the distance from the center point of the priority focusing area A to the center point of the face area R1. Therefore, it is determined that the face area R1 is not included in the priority focus area A (NO in step S106). In this case, as in step S104, the AF target area determination unit 131 determines the AF target area according to a normal processing procedure that does not focus on the face area.

一方、図3に示す顔領域R2の場合、優先合焦エリアAの中心点から周縁部までの距離は、優先合焦エリアAの中心点から顔領域R1の中心点までの距離よりも長い。従って、顔領域R1は、優先合焦エリアAに含まれると判定される(ステップS106YES)。この場合には、AF対象領域決定部131が、当該顔領域R2をAF対象領域として決定する(ステップS107)。なお、顔領域R1とR2とが同時に検出された場合には、優先合焦エリアAに含まれる顔領域R2をAF対象領域として決定する。   On the other hand, in the case of the face region R2 shown in FIG. 3, the distance from the center point of the priority focus area A to the peripheral portion is longer than the distance from the center point of the priority focus area A to the center point of the face region R1. Therefore, it is determined that the face area R1 is included in the priority focusing area A (YES in step S106). In this case, the AF target area determination unit 131 determines the face area R2 as an AF target area (step S107). When the face areas R1 and R2 are detected at the same time, the face area R2 included in the priority focusing area A is determined as the AF target area.

そして、ステップS107又はステップS104により決定されたAF対象領域を用いて、オートフォーカス処理が実行される(ステップS108)。具体的には、ステップS108では、制御部133による制御下で、AF対象領域決定部131により決定されたAF対象領域のコントラストが極大となるように、オートフォーカス処理が実行される。すなわち、制御部133は、合焦状態を評価して、AF対象領域内の被写体にピントが合うように、合焦用レンズ101の位置を決定する。   Then, autofocus processing is executed using the AF target area determined in step S107 or step S104 (step S108). Specifically, in step S108, under the control of the control unit 133, the autofocus process is executed so that the contrast of the AF target region determined by the AF target region determination unit 131 is maximized. That is, the control unit 133 evaluates the in-focus state and determines the position of the focusing lens 101 so that the subject in the AF target area is in focus.

最後に、オートフォーカス処理が完了した状態で、新たな撮影処理が実行される(ステップS109)。ステップS109で得られた画像データは、画像処理部12による画像処理が行われた後にメモリ(不図示)に格納される。なお、図2に示したAF対象領域の決定、オートフォーカスの実行、撮影の実行を含む一連の処理は、例えば、撮像装置1に設けられたシャッターボタン(不図示)をユーザが押下する動作に応答して実行すればよい。なお、撮影処理を行う前に、オートフォーカス処理に引き続いて、撮影画像が適正な明るさとなるように自動露光(AE:Auto Exposure)処理を実行してもよい。   Finally, a new shooting process is executed with the autofocus process completed (step S109). The image data obtained in step S109 is stored in a memory (not shown) after image processing by the image processing unit 12 is performed. Note that a series of processing including determination of an AF target area, execution of autofocus, and execution of shooting illustrated in FIG. 2 is an operation in which a user presses a shutter button (not illustrated) provided in the imaging apparatus 1, for example. Just execute in response. In addition, before performing an imaging process, you may perform an auto exposure (AE: Auto Exposure) process so that a picked-up image may become appropriate brightness following an autofocus process.

このように、本発明によれば、撮像画面内に優先合焦エリアが設定されているため、当該優先合焦エリア内に特定領域である顔領域が含まれている場合には、当該顔領域をAF対象領域として設定する。このため、撮像画面内の複数の顔領域が検出された場合であっても、ユーザ自身がオートフォーカスを行う領域を指定する操作を行う必要がない。従って、オートフォーカス処理に係る時間を短縮することができる。   Thus, according to the present invention, since the priority focus area is set in the imaging screen, when the face area that is the specific area is included in the priority focus area, the face area Are set as AF target areas. For this reason, even when a plurality of face regions in the imaging screen are detected, it is not necessary for the user himself to perform an operation for designating a region for performing autofocus. Therefore, it is possible to reduce the time related to the autofocus process.

また、当該優先合焦エリア内に特定領域である顔領域が含まれていない場合には、顔領域に着目しない通常の処理手順に従ってAF対象領域を決定する。このように、ユーザ側からのAF対象領域の指定・変更を必要とせず、検出した特定領域をAF対象領域とする場合と、通常のAF対象領域の決定処理に従い決定する場合とを切替えることができる。従来は、ユーザ自身が優先的にオートフォーカスを行う領域を指定する操作を行うため、撮像装置に、オートフォーカスを行う領域を指定・変更する機構を設ける必要があった。しかし、本発明によれば、撮像装置に、オートフォーカスを行う領域を指定・変更する機構を設ける必要がなくなり、回路規模の増大、装置の大型化を抑制することが可能となる。   If the face area that is the specific area is not included in the priority focus area, the AF target area is determined according to a normal processing procedure that does not focus on the face area. As described above, it is possible to switch between the case where the detected specific area is set as the AF target area and the case where the AF target area is determined according to the normal AF target area determination process without requiring designation / change of the AF target area from the user side. it can. Conventionally, since the user himself / herself performs an operation for preferentially designating an area for autofocusing, it is necessary to provide a mechanism for designating / changing the area for autofocusing in the imaging apparatus. However, according to the present invention, it is not necessary to provide the imaging apparatus with a mechanism for designating / changing the area for autofocusing, and it is possible to suppress an increase in circuit scale and an increase in the size of the apparatus.

実施の形態2.
本発明の実施の形態2に係るオートフォーカス方法について、図4を参照して説明する。図4は、AF対象領域決定部131で決定されるAF対象領域の例について説明する図である。なお、図4は撮影画面を示しており、網掛けされた領域が撮影画面内に設定された優先合焦エリアAを示している。また、本実施の形態に係るオートフォーカス方法を実行する撮像装置としては、図1に示すものを用いることができるため、説明を省略する。
Embodiment 2. FIG.
An autofocus method according to Embodiment 2 of the present invention will be described with reference to FIG. FIG. 4 is a diagram for explaining an example of the AF target area determined by the AF target area determination unit 131. FIG. 4 shows a shooting screen, and a shaded area indicates a priority focusing area A set in the shooting screen. In addition, as the image pickup apparatus that executes the autofocus method according to the present embodiment, the image pickup apparatus shown in FIG.

図4に示すように、本実施の形態においては、優先合焦エリアAは第1優先合焦エリアA1と、第2優先合焦エリアA2を含む。第1優先合焦エリアA1は、第2優先合焦エリアA2よりも優先度が高い。すなわち、第1優先合焦エリアA1内と第2優先合焦エリアA2内のいずれにも顔領域が含まれると判定された場合には、第1優先合焦エリアA1内に含まれる顔領域がAF対象領域として決定される。   As shown in FIG. 4, in the present embodiment, the priority focusing area A includes a first priority focusing area A1 and a second priority focusing area A2. The first priority focusing area A1 has a higher priority than the second priority focusing area A2. That is, when it is determined that the face area is included in both the first priority focus area A1 and the second priority focus area A2, the face area included in the first priority focus area A1 is It is determined as an AF target area.

一方、顔領域が第1優先合焦エリアA1内には含まれない場合において、第2優先合焦エリアA2内に含まれる場合には、第2優先合焦エリアA2内に含まれる顔領域がAF対象領域として決定される。また、第1優先合焦エリアA1と第2優先合焦エリアA2のいずれにも顔領域が含まれていない場合には、顔領域に着目しない通常の処理手順に従ってAF対象領域が決定される。   On the other hand, when the face area is not included in the first priority focusing area A1, and the face area is included in the second priority focusing area A2, the face area included in the second priority focusing area A2 is not included. It is determined as an AF target area. When neither the first priority focus area A1 nor the second priority focus area A2 includes a face area, the AF target area is determined according to a normal processing procedure that does not focus on the face area.

ここで、本実施の形態に係る合焦処理部13により実行されるオートフォーカスの処理手順について説明する。本実施の形態では、図2に示すステップS101〜S105までは上述した処理と同様の処理が行われる。図2に示すステップS106において、まず、AF対象領域決定部131により、顔領域があらかじめ設定された第1優先合焦エリア内に含まれているか否かが判定される。第1優先合焦エリアA1内に顔領域が含まれると判定された場合には、第1優先合焦エリアA1内に含まれる顔領域がAF対象領域として決定される。   Here, an autofocus processing procedure executed by the focus processing unit 13 according to the present embodiment will be described. In the present embodiment, processes similar to those described above are performed from step S101 to step S105 shown in FIG. In step S106 shown in FIG. 2, first, the AF target area determination unit 131 determines whether or not the face area is included in a preset first priority focusing area. When it is determined that the face area is included in the first priority focus area A1, the face area included in the first priority focus area A1 is determined as the AF target area.

一方、顔領域が第1優先合焦エリアA1内には含まれない場合には、AF対象領域決定部131により、顔領域があらかじめ設定された第2優先合焦エリア内に含まれているか否かが判断される。第2優先合焦エリアA2内に含まれる場合には、第2優先合焦エリアA2内に含まれる顔領域がAF対象領域として決定される。図4に示す顔領域R1は第2優先合焦エリアA2内に含まれるため、この場合当該顔領域R1がAF対象領域として決定される。   On the other hand, if the face area is not included in the first priority focus area A1, whether or not the face area is included in the preset second priority focus area by the AF target area determination unit 131. Is judged. When included in the second priority focusing area A2, the face area included in the second priority focusing area A2 is determined as the AF target area. Since the face area R1 shown in FIG. 4 is included in the second priority focusing area A2, in this case, the face area R1 is determined as the AF target area.

また、第1優先合焦エリアA1と第2優先合焦エリアA2のいずれにも顔領域が含まれていない場合には、顔領域に着目しない通常の処理手順に従ってAF対象領域が決定される。図4に示す顔領域R1は第1優先合焦エリアA1、第2優先合焦エリアAのいずれにも含まれないため、この場合通常の処理手順に従ってAF対象領域が決定される。以降の処理としては、図2のステップS107と同様の処理を行うことができる。   When neither the first priority focus area A1 nor the second priority focus area A2 includes a face area, the AF target area is determined according to a normal processing procedure that does not focus on the face area. The face area R1 shown in FIG. 4 is not included in either the first priority focus area A1 or the second priority focus area A. In this case, the AF target area is determined according to a normal processing procedure. As the subsequent processing, the same processing as step S107 in FIG. 2 can be performed.

なお、顔領域R1とR2とが同時に検出された場合には、優先合焦エリアA2に含まれる顔領域R2をAF対象領域として決定する。このように、撮影画面内に、複数の優先順位の異なる優先合焦エリアを設けることにより、ユーザの撮影したい画像に近い撮影画像を得ることが容易になる。   When the face areas R1 and R2 are detected at the same time, the face area R2 included in the priority focusing area A2 is determined as the AF target area. Thus, by providing a plurality of priority focusing areas having different priorities in the shooting screen, it becomes easy to obtain a shot image close to the image that the user wants to shoot.

ところで、図1に示した顔検出部130、AF対象領域決定部131及び制御部133が実行する処理は、画像データを格納するためのメモリ及びCPU(Central Processing Unit)を有するコンピュータに、図2のステップS101〜S107までの処理手順が記述されたプログラムを実行させることによって実現可能である。   By the way, the processing executed by the face detection unit 130, the AF target area determination unit 131, and the control unit 133 shown in FIG. 1 is performed in a computer having a memory for storing image data and a CPU (Central Processing Unit). This can be realized by executing a program in which the processing procedure from steps S101 to S107 is described.

CPUを内蔵する撮像装置1の具体的な構成例を図5に示す。図5の構成図は、撮像装置1をデジタルカメラ製品に適用する際に有益なディスプレイ・デバイス等の構成要素を、図1に示した撮像装置1の主要構成に加えて図示したものである。図5において、CPU230は、メモリ231に格納されたプログラムを読み出して実行することにより、顔検出部130、AF対象領域決定部131及び制御部133に関する処理を実行する。   A specific configuration example of the imaging device 1 incorporating the CPU is shown in FIG. The configuration diagram of FIG. 5 illustrates components such as a display device useful when the imaging device 1 is applied to a digital camera product, in addition to the main components of the imaging device 1 shown in FIG. In FIG. 5, the CPU 230 reads out and executes a program stored in the memory 231, thereby executing processing related to the face detection unit 130, the AF target area determination unit 131, and the control unit 133.

メモリ231は、ROM(Read Only Memory)及びフラッシュメモリ等の不揮発性メモリ並びにDRAM(Dynamic Random Access Memory)等の揮発性メモリの集合である。メモリ231は、CPU230において実行されるプログラム、画像データ等を格納する。ディスプレイ・デバイス233は、ディスプレイ・インタフェース232を介して供給される画像を表示する。   The memory 231 is a set of non-volatile memories such as ROM (Read Only Memory) and flash memory, and volatile memories such as DRAM (Dynamic Random Access Memory). The memory 231 stores programs executed by the CPU 230, image data, and the like. The display device 233 displays an image supplied via the display interface 232.

ディスプレイ・デバイス233は、撮像部11が順次出力する撮影画像(スルー画像)の表示、顔検出アルゴリズムの実行によって検出された顔領域の表示、オートフォーカス完了後のスルー画像の表示、ユーザがシャッターボタン(不図示)を操作することによって得られた撮影画像の表示等を行なう。なお、AF評価値算出部132が行なうAF評価値の計算をCPU230に実行させてもよいことは勿論である。   The display device 233 displays captured images (through images) sequentially output by the imaging unit 11, displays a face area detected by executing the face detection algorithm, displays a through image after completion of autofocus, and allows the user to press a shutter button. A photographed image obtained by operating (not shown) is displayed. Of course, the CPU 230 may cause the AF evaluation value calculation unit 132 to calculate the AF evaluation value.

上述した発明の実施の形態では、撮像光学系10に含まれる合焦用レンズ101を移動させることによって、被写体像の結像位置を調節する例を示した。しかしながら、被写体像の結像位置の調節は、撮像素子110を移動させることにより行ってもよい。   In the embodiment of the invention described above, an example in which the imaging position of the subject image is adjusted by moving the focusing lens 101 included in the imaging optical system 10 has been described. However, the imaging position of the subject image may be adjusted by moving the image sensor 110.

なお、AF対象領域の決定手順は、上記の具体例に限定されるものではない。例えば、ステップS105において、矩形の顔領域の中心点の座標ではなく、顔領域の角部の座標を特定してもよい。また、優先合焦エリアに顔領域が含まれているか否かの判定は、顔領域の一部が優先合焦エリアに含まれる場合に優先合焦エリアに顔領域が含まれると判定してもよいし、顔領域の全部が優先合焦エリアに含まれる場合にのみ優先合焦エリアに顔領域が含まれると判定してもよい。   Note that the procedure for determining the AF target area is not limited to the above specific example. For example, in step S105, the coordinates of the corners of the face area may be specified instead of the coordinates of the center point of the rectangular face area. Further, whether or not a face area is included in the priority focus area can be determined by determining that a face area is included in the priority focus area when a part of the face area is included in the priority focus area. Alternatively, it may be determined that the face area is included in the priority focus area only when the entire face area is included in the priority focus area.

さらに、本発明は上述した実施の形態のみに限定されるものではなく、既に述べた本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。   Furthermore, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention described above.

実施の形態1に係る撮像装置を示すブロック図である。1 is a block diagram illustrating an imaging apparatus according to Embodiment 1. FIG. 実施の形態1に係る撮像装置によるオートフォーカス処理手順を示すフローチャートである。3 is a flowchart illustrating an autofocus processing procedure by the imaging apparatus according to the first embodiment. 実施の形態1に係る撮像装置で決定されるAF対象領域の例について説明する図である。6 is a diagram illustrating an example of an AF target area determined by the imaging apparatus according to Embodiment 1. FIG. 実施の形態2に係る撮像装置で決定されるAF対象領域の例について説明する図である。10 is a diagram illustrating an example of an AF target area determined by the imaging apparatus according to Embodiment 2. FIG. 本発明の実施の形態1にかかる撮像装置の構成例を示す図である。It is a figure which shows the structural example of the imaging device concerning Embodiment 1 of this invention.

符号の説明Explanation of symbols

1 撮像装置
10 撮像光学系
11 撮像部
12 画像処理部
13 合焦処理部
101 合焦用レンズ
110 撮像素子
111 アナログ信号処理部
112 A/D変換部
130 顔検出部
131 オートフォーカス対象領域決定部
132 オートフォーカス評価値算出部
133 制御部
134 レンズ駆動部
230 CPU(Central Processing Unit)
231 メモリ
232 ディスプレイ・インタフェース
233 ディスプレイ・デバイス
DESCRIPTION OF SYMBOLS 1 Imaging device 10 Imaging optical system 11 Imaging part 12 Image processing part 13 Focus processing part 101 Focusing lens 110 Imaging element 111 Analog signal processing part 112 A / D conversion part 130 Face detection part 131 Auto-focus target area | region determination part 132 Autofocus evaluation value calculation unit 133 Control unit 134 Lens drive unit 230 CPU (Central Processing Unit)
231 Memory 232 Display Interface 233 Display Device

Claims (12)

撮像光学系によって結像される被写体を撮影することにより生成される画像データに基づいて、撮影画面内の特定領域を検出する領域検出部と、
前記特定領域が前記撮影画面内に設定された優先合焦エリア内であるか否かを判定する判定部と、
前記特定領域が前記優先合焦エリア内に含まれる場合には、前記撮像光学系の合焦動作を実行するため、前記特定領域での結像状態を評価する合焦状態評価部と、
を備えるオートフォーカス装置。
An area detection unit for detecting a specific area in the shooting screen based on image data generated by shooting the subject imaged by the imaging optical system;
A determination unit that determines whether or not the specific area is within a priority focusing area set in the shooting screen;
When the specific area is included in the priority focusing area, a focusing state evaluation unit that evaluates an imaging state in the specific area in order to perform a focusing operation of the imaging optical system;
Autofocus device with
前記特定領域が前記優先合焦エリア内に含まれない場合には、前記合焦状態評価部は、前記特定領域以外の領域での結像状態を判定する請求項1に記載のオートフォーカス装置。   The autofocus device according to claim 1, wherein when the specific area is not included in the priority focus area, the focus state evaluation unit determines an imaging state in an area other than the specific area. 前記優先合焦エリアのサイズ又は前記撮像画面内の位置の少なくともいずれか一方を変更するエリア変更部をさらに備える請求項1又は2に記載のオートフォーカス装置。   The autofocus device according to claim 1, further comprising an area changing unit that changes at least one of a size of the priority focusing area and a position in the imaging screen. 前記優先合焦エリアは、第1優先合焦エリアと第2優先合焦エリアとを含み、
前記判定部は、前記特定領域が前記第1優先合焦エリア内に含まれない場合には、前記特定領域が前記第2優先合焦エリアに含まれているか否かを判定する請求項1、2又は3に記載のオートフォーカス装置。
The priority focusing area includes a first priority focusing area and a second priority focusing area,
The said determination part determines whether the said specific area | region is contained in the said 2nd priority focus area, when the said specific area | region is not contained in the said 1st priority focus area. The autofocus device according to 2 or 3.
撮像光学系によって結像される被写体を撮影して画像データを生成する撮像部を有する撮像装置におけるオートフォーカス制御方法であって、
前記画像データに基づいて、撮影画面内の特定領域を検出し、
前記特定領域が前記撮影画面内に設定された優先合焦エリア内であるか否かを判定し、
前記特定領域が前記優先合焦エリア内に含まれる場合には、前記特定領域での結像状態に基づいて、前記撮像光学系の合焦動作を実行する、
オートフォーカス方法。
An autofocus control method in an imaging apparatus having an imaging unit that shoots a subject imaged by an imaging optical system and generates image data,
Based on the image data, a specific area in the shooting screen is detected,
Determining whether or not the specific area is within a priority focusing area set in the shooting screen;
When the specific area is included in the priority focusing area, the focusing operation of the imaging optical system is executed based on the imaging state in the specific area.
Autofocus method.
前記特定領域が前記優先合焦エリア内に含まれない場合には、前記特定領域以外の領域での結像状態に基づいて前記撮像光学系の合焦動作を実行する請求項5に記載のオートフォーカス方法。   6. The auto according to claim 5, wherein when the specific area is not included in the priority focusing area, the focusing operation of the imaging optical system is executed based on an imaging state in an area other than the specific area. Focus method. 前記優先合焦エリアのサイズ又は前記撮像画面内の位置の少なくともいずれか一方を変更する請求項5又は6に記載のオートフォーカス方法。   The autofocus method according to claim 5 or 6, wherein at least one of a size of the priority focusing area and a position in the imaging screen is changed. 前記優先合焦エリアは、第1優先合焦エリアと第2優先合焦エリアとを含み、
前記特定領域が前記第1優先合焦エリア内に含まれない場合には、前記特定領域が前記第2優先合焦エリアに含まれているか否かを判定する請求項5、6又は7に記載のオートフォーカス方法。
The priority focusing area includes a first priority focusing area and a second priority focusing area,
8. The device according to claim 5, wherein when the specific area is not included in the first priority focus area, it is determined whether or not the specific area is included in the second priority focus area. Autofocus method.
撮像光学系によって結像される被写体を撮影して画像データを生成する撮像部と、
前記画像データに基づいて、撮影画面内の特定領域を検出する領域検出部と、
前記特定領域が前記撮影画面内に設定された優先合焦エリア内であるか否かを判定する判定部と、
前記特定領域が前記優先合焦エリア内に含まれる場合には、前記特定領域での結像状態に基づいて、前記撮像光学系の合焦動作を実行する制御部と、
を備える撮像装置。
An imaging unit that shoots a subject imaged by the imaging optical system and generates image data;
An area detection unit for detecting a specific area in the shooting screen based on the image data;
A determination unit that determines whether or not the specific area is within a priority focusing area set in the shooting screen;
When the specific area is included in the priority focusing area, a control unit that performs a focusing operation of the imaging optical system based on an imaging state in the specific area;
An imaging apparatus comprising:
前記特定領域が前記優先合焦エリア内に含まれない場合には、前記制御部は、前記特定領域以外の領域での結像状態に基づいて前記撮像光学系の合焦動作を実行する請求項9に記載の撮像装置。   The control unit executes a focusing operation of the imaging optical system based on an imaging state in an area other than the specific area when the specific area is not included in the priority focusing area. 9. The imaging device according to 9. 前記優先合焦エリアのサイズ又は前記撮像画面内の位置の少なくともいずれか一方を変更するエリア変更部をさらに備える請求項9又は10に記載の撮像装置。   The imaging apparatus according to claim 9, further comprising an area changing unit that changes at least one of a size of the priority focusing area and a position in the imaging screen. 前記優先合焦エリアは、第1優先合焦エリアと第2優先合焦エリアとを含み、
前記判定部は、前記特定領域が前記第1優先合焦エリア内に含まれない場合には、前記特定領域が前記第2優先合焦エリアに含まれているか否かを判定する請求項9、10又は11に記載の撮像装置。
The priority focusing area includes a first priority focusing area and a second priority focusing area,
The said determination part determines whether the said specific area is contained in the said 2nd priority focus area, when the said specific area is not contained in the said 1st priority focus area. The imaging device according to 10 or 11.
JP2008294404A 2008-11-18 2008-11-18 Autofocus device, autofocus method, and imaging device Expired - Fee Related JP5315019B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008294404A JP5315019B2 (en) 2008-11-18 2008-11-18 Autofocus device, autofocus method, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008294404A JP5315019B2 (en) 2008-11-18 2008-11-18 Autofocus device, autofocus method, and imaging device

Publications (2)

Publication Number Publication Date
JP2010122358A true JP2010122358A (en) 2010-06-03
JP5315019B2 JP5315019B2 (en) 2013-10-16

Family

ID=42323772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008294404A Expired - Fee Related JP5315019B2 (en) 2008-11-18 2008-11-18 Autofocus device, autofocus method, and imaging device

Country Status (1)

Country Link
JP (1) JP5315019B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027687A (en) * 2010-07-23 2012-02-09 Casio Comput Co Ltd Image processing apparatus and program
WO2020137602A1 (en) * 2018-12-28 2020-07-02 ソニー株式会社 Imaging device, imaging method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580248A (en) * 1991-09-19 1993-04-02 Ricoh Co Ltd Automatic focusing device
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2007225777A (en) * 2006-02-22 2007-09-06 Pentax Corp Autofocus unit and camera
JP2007233170A (en) * 2006-03-02 2007-09-13 Nikon Corp Focus detector and camera
JP2008052285A (en) * 2007-09-18 2008-03-06 Canon Inc Focus detecting device
JP2008092009A (en) * 2006-09-29 2008-04-17 Fujifilm Corp Imaging apparatus, and photographing method
JP2008257004A (en) * 2007-04-06 2008-10-23 Canon Inc Optical apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0580248A (en) * 1991-09-19 1993-04-02 Ricoh Co Ltd Automatic focusing device
JP2004317699A (en) * 2003-04-15 2004-11-11 Nikon Gijutsu Kobo:Kk Digital camera
JP2007225777A (en) * 2006-02-22 2007-09-06 Pentax Corp Autofocus unit and camera
JP2007233170A (en) * 2006-03-02 2007-09-13 Nikon Corp Focus detector and camera
JP2008092009A (en) * 2006-09-29 2008-04-17 Fujifilm Corp Imaging apparatus, and photographing method
JP2008257004A (en) * 2007-04-06 2008-10-23 Canon Inc Optical apparatus
JP2008052285A (en) * 2007-09-18 2008-03-06 Canon Inc Focus detecting device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012027687A (en) * 2010-07-23 2012-02-09 Casio Comput Co Ltd Image processing apparatus and program
WO2020137602A1 (en) * 2018-12-28 2020-07-02 ソニー株式会社 Imaging device, imaging method, and program
JPWO2020137602A1 (en) * 2018-12-28 2021-11-18 ソニーグループ株式会社 Imaging equipment, imaging methods, and programs
US11539892B2 (en) 2018-12-28 2022-12-27 Sony Group Corporation Imaging device, imaging method, and program

Also Published As

Publication number Publication date
JP5315019B2 (en) 2013-10-16

Similar Documents

Publication Publication Date Title
JP4917509B2 (en) Autofocus control circuit, autofocus control method, and imaging apparatus
US9344621B2 (en) Imaging device and control method for imaging device
JP5961929B2 (en) camera
CN107850753B (en) Detection apparatus, detection method, detection program, and imaging apparatus
US20160191810A1 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
US9160919B2 (en) Focus adjustment unit and camera system
JP2008164839A (en) Photographing apparatus and focusing method
JP4974812B2 (en) Electronic camera
JP2006319596A (en) Imaging apparatus and imaging method
JP2014081420A (en) Tracking device and method thereof
JP2008298943A (en) Focal point control device and imaging device
JP4487781B2 (en) Electronic camera
JP2015106116A (en) Imaging apparatus
JP2011053255A (en) Autofocus apparatus and method, and program
JP2013160991A (en) Imaging apparatus
US8947583B2 (en) Image pickup apparatus and control method thereof
JP5315019B2 (en) Autofocus device, autofocus method, and imaging device
JP2010134309A (en) Autofocus device, autofocus method and imaging apparatus
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP6552235B2 (en) Image pickup apparatus, control method thereof and program
US11258943B2 (en) Imaging apparatus and method for controlling the same
JP2010014883A (en) Camera
JP6645690B2 (en) Automatic focus adjustment device, imaging device, and automatic focus adjustment method
WO2019146164A1 (en) Imaging device, imaging method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130708

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees