JP2015087558A - Imaging apparatus, imaging system, method of controlling imaging apparatus, program, and recording medium - Google Patents

Imaging apparatus, imaging system, method of controlling imaging apparatus, program, and recording medium Download PDF

Info

Publication number
JP2015087558A
JP2015087558A JP2013226137A JP2013226137A JP2015087558A JP 2015087558 A JP2015087558 A JP 2015087558A JP 2013226137 A JP2013226137 A JP 2013226137A JP 2013226137 A JP2013226137 A JP 2013226137A JP 2015087558 A JP2015087558 A JP 2015087558A
Authority
JP
Japan
Prior art keywords
focus
focus detection
lens
interval
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013226137A
Other languages
Japanese (ja)
Other versions
JP6188536B2 (en
Inventor
英之 浜野
Hideyuki Hamano
英之 浜野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013226137A priority Critical patent/JP6188536B2/en
Publication of JP2015087558A publication Critical patent/JP2015087558A/en
Application granted granted Critical
Publication of JP6188536B2 publication Critical patent/JP6188536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of rapidly adjusting focus from condition with a large defocus amount.SOLUTION: An imaging apparatus includes; an imaging device including a plurality of focus detection pixels which outputs paired signals based on light flux passing through mutually different pupil areas of an image-capturing optical system including a focusing lens; focus detection means which detects a defocus amount based on a phase difference between the paired signals; setup means for setting an interval at which the imaging device outputs the paired signals; and control means which controls driving of the focusing lens. While the interval is being modified by the setup means, the control means controls driving of the focusing lens based on information on a detectable defocus range of the focus detection means.

Description

本発明は、焦点検出画素を含む撮像素子を備えた撮像装置に関する。   The present invention relates to an image pickup apparatus including an image pickup element including a focus detection pixel.

特許文献1には、各画素にマイクロレンズが形成された2次元の撮像素子を用いて瞳分割方式の焦点検出を行う装置が開示されている。マイクロレンズを介して撮影光学系の互いに異なる瞳領域を受光する場合、撮影光学系によるケラレの影響を受けやすい。ケラレが発生すると、デフォーカス量に含まれる誤差が大きくなる。また、ケラレによる影響は、デフォーカス量が大きくなるにつれて大きくなる。そしてデフォーカス量が大きくなると、焦点検出結果の信頼性が低下するため、信頼性のある焦点検出結果が得られない場合がある。   Patent Document 1 discloses an apparatus that performs pupil division type focus detection using a two-dimensional image sensor in which a microlens is formed in each pixel. When different pupil regions of the photographing optical system are received through the microlens, they are easily affected by vignetting caused by the photographing optical system. When vignetting occurs, the error included in the defocus amount increases. Further, the effect of vignetting increases as the defocus amount increases. When the defocus amount increases, the reliability of the focus detection result decreases, so that a reliable focus detection result may not be obtained.

信頼性のある焦点検出結果が得られない場合、フォーカスレンズを駆動して信頼性のある焦点検出結果が得られるか否かを探索する、いわゆるサーチ駆動を行うことが知られている。サーチ駆動を含む焦点調節処理を高速に行うには、フォーカスレンズの駆動中に、一対の出力波形を頻繁に取得しながら、より信頼性のある焦点検出結果を迅速に取得する必要がある。   When a reliable focus detection result cannot be obtained, it is known to perform so-called search driving, in which a focus lens is driven to search whether or not a reliable focus detection result is obtained. In order to perform focus adjustment processing including search driving at high speed, it is necessary to quickly acquire a more reliable focus detection result while frequently acquiring a pair of output waveforms during driving of the focus lens.

特許文献2には、瞳分割方式とは異なるコントラスト検出方式の撮像面を用いた焦点検出方式において、焦点検出中に光電変換部の出力波形を得る頻度を上げる、すなわち、より高速なフレームレートに変更する構成が開示されている。   In Patent Document 2, in the focus detection method using the imaging surface of the contrast detection method different from the pupil division method, the frequency of obtaining the output waveform of the photoelectric conversion unit during focus detection is increased, that is, the frame rate is increased. A configuration to change is disclosed.

特開2010−117679号公報JP 2010-117679 A 特開2013−25107号公報JP 2013-25107 A

しかしながら、特許文献1の焦点検出方式において、特許文献2のように焦点検出中のフレームレートを高速に変更して焦点調節を行う場合、以下のような問題がある。すなわち、撮像素子から出力信号を取得する場合、蓄積電荷のリセット動作および読み出し動作が繰り返し行われている。このため、フレームレートを変更する場合、再度リセット動作が必要となる。フレームレート変更後には、リセット動作などの処理を行うことがあるため、フレームレートの変更処理は一定の時間を要し、焦点調節に要する時間が長くなってしまう。特に、焦点調節開始時にデフォーカス量が大きく信頼性のある焦点検出結果が得られない場合に顕著となる。   However, in the focus detection method of Patent Document 1, when the focus adjustment is performed by changing the frame rate during focus detection at high speed as in Patent Document 2, there are the following problems. That is, when an output signal is acquired from the image sensor, the stored charge resetting operation and reading operation are repeatedly performed. For this reason, when the frame rate is changed, the reset operation is required again. Since processing such as a reset operation may be performed after the frame rate is changed, the frame rate changing process requires a certain time, and the time required for focus adjustment becomes longer. This is particularly noticeable when a defocus amount is large and a reliable focus detection result cannot be obtained at the start of focus adjustment.

そこで本発明は、デフォーカス量が大きい状態から高速な焦点調節が可能な撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体を提供する。   Therefore, the present invention provides an imaging device, an imaging system, an imaging device control method, a program, and a storage medium that can perform high-speed focus adjustment from a state where the defocus amount is large.

本発明の一側面としての撮像装置は、フォーカスレンズを含む撮影光学系の互いに異なる瞳領域を通過した光束に基づいて、一対の信号を出力する複数の焦点検出画素を含む撮像素子と、前記一対の信号の位相差に基づいてデフォーカス量を検出する焦点検出手段と、前記撮像素子が前記一対の信号を出力する間隔を設定する設定手段と、前記フォーカスレンズを駆動制御する制御手段とを有し、前記制御手段は、前記設定手段による前記間隔の変更処理中に、前記焦点検出手段の検出可能デフォーカス範囲に関する情報に基づいて前記フォーカスレンズを駆動制御する。   An imaging apparatus according to an aspect of the present invention includes an imaging device including a plurality of focus detection pixels that output a pair of signals based on light beams that have passed through different pupil regions of a photographing optical system including a focus lens, and the pair A focus detection unit that detects a defocus amount based on a phase difference between the signals, a setting unit that sets an interval at which the imaging element outputs the pair of signals, and a control unit that drives and controls the focus lens. The control unit drives and controls the focus lens based on information on the defocus range that can be detected by the focus detection unit during the interval changing process by the setting unit.

本発明の他の側面としての撮像システムは、撮影光学系を備えたレンズ装置と、前記撮像装置とを有する。   An imaging system according to another aspect of the present invention includes a lens device including a photographing optical system and the imaging device.

本発明の他の側面としての撮像装置の制御方法は、フォーカスレンズを含む撮影光学系の互いに異なる瞳領域を通過した光束に基づいて、一対の信号を出力する複数の焦点検出画素を含む撮像素子を備えた撮像装置の制御方法であって、焦点検出手段を用いて、前記撮像素子から第1の間隔で得られた一対の信号の位相差に基づいてデフォーカス量を検出するステップと、合焦判定を行うステップと、前記合焦判定において合焦状態ではないと判定された場合、前記第1の間隔から、該第1の間隔よりも短い第2の間隔に変更するステップと、前記第1の間隔から前記第2の間隔への変更処理中に、前記焦点検出手段の検出可能デフォーカス範囲に関する情報に基づいて前記フォーカスレンズを駆動制御するステップとを有する。   According to another aspect of the present invention, there is provided a method for controlling an image pickup apparatus including an image pickup device including a plurality of focus detection pixels that output a pair of signals based on light beams that have passed through different pupil regions of a photographing optical system including a focus lens. And a step of detecting a defocus amount on the basis of a phase difference between a pair of signals obtained from the image sensor at a first interval using a focus detection means. A step of performing a focus determination, a step of changing from the first interval to a second interval shorter than the first interval when it is determined in the in-focus determination that the focus state is not in focus, and the first Driving the focus lens based on information on a defocus range that can be detected by the focus detection means during the process of changing from the first interval to the second interval.

本発明の他の側面としてのプログラムは、コンピュータに、前記撮像装置の制御方法を実行させるように構成されている。   A program according to another aspect of the present invention is configured to cause a computer to execute a method for controlling the imaging apparatus.

本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。   A storage medium according to another aspect of the present invention stores the program.

本発明の他の目的及び特徴は、以下の実施例において説明される。   Other objects and features of the present invention are illustrated in the following examples.

本発明によれば、デフォーカス量が大きい状態から高速な焦点調節が可能な撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus, an imaging system, an imaging apparatus control method, a program, and a storage medium capable of performing high-speed focus adjustment from a state where the defocus amount is large.

本実施例における撮像システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging system in a present Example. 本実施例における撮像素子の画素部の平面図である。It is a top view of the pixel part of the image sensor in a present Example. 本実施例における撮影画素の構造を説明する平面図および断面図である。It is the top view and sectional drawing explaining the structure of the imaging pixel in a present Example. 本実施例における焦点検出画素の構造を説明する平面図および断面図である。It is the top view and sectional drawing explaining the structure of the focus detection pixel in a present Example. 本実施例における一対の焦点検出信号の例を示す図である。It is a figure which shows the example of a pair of focus detection signal in a present Example. 本実施例において、撮影範囲内の焦点検出領域および被写体の状況の例を示す図である。FIG. 6 is a diagram illustrating an example of a focus detection region and a subject state within an imaging range in the present embodiment. 本実施例における撮像装置の焦点調節および撮影工程(撮像装置の制御方法)を示すフローチャートである。It is a flowchart which shows the focus adjustment and imaging | photography process (control method of an imaging device) of the imaging device in a present Example. 本実施例における焦点調節のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of focus adjustment in a present Example. 本実施例における検出可能デフォーカス範囲の例を示す図である。It is a figure which shows the example of the defocus range which can be detected in a present Example. 本実施例において、フォーカスレンズ位置と検出可能なデフォーカス範囲との関係を示す図である。In this example, it is a figure which shows the relationship between a focus lens position and the defocus range which can be detected. 本実施例の焦点調節処理におけるフォーカスレンズ位置と時間の関係を説明する図である。It is a figure explaining the relationship between a focus lens position and time in the focus adjustment process of a present Example. 本実施例における撮影サブルーチンを示すフローチャートである。It is a flowchart which shows the imaging | photography subroutine in a present Example.

以下、本発明の実施例について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図1を参照して、本実施例における撮像システムの構成について説明する。図1は、撮像システム10の概略構成を示すブロック図である。本実施例において、撮像システム10は、焦点調節装置を備え、レンズ交換可能な一眼レフタイプのデジタルカメラシステムである。撮像システム10は、カメラ本体120(撮像装置)と、カメラ本体120に着脱可能なレンズユニット100(レンズ装置)とを備えて構成される。レンズユニット100は、図1の中央の点線で示されるマウントMを介して、カメラ本体120と接続される。なお本実施例は、これに限定されるものではなく、カメラ本体120とレンズユニット100とが一体的に構成された撮像装置にも適用可能である。   First, the configuration of the imaging system in the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a schematic configuration of the imaging system 10. In the present embodiment, the imaging system 10 is a single-lens reflex digital camera system that includes a focus adjustment device and can exchange lenses. The imaging system 10 includes a camera body 120 (imaging device) and a lens unit 100 (lens device) that can be attached to and detached from the camera body 120. The lens unit 100 is connected to the camera body 120 via a mount M indicated by a dotted line in the center of FIG. The present embodiment is not limited to this, and can also be applied to an imaging apparatus in which the camera body 120 and the lens unit 100 are integrally configured.

レンズユニット100(撮影光学系)は、第1レンズ群101、絞り兼用シャッタ102、第2レンズ群103、フォーカスレンズ104(フォーカスレンズ群)、および、駆動/制御系を有する。このようにレンズユニット100は、フォーカスレンズ104を含むとともに、被写体像(光学像)を形成する撮影レンズを有する。   The lens unit 100 (shooting optical system) includes a first lens group 101, a diaphragm / shutter 102, a second lens group 103, a focus lens 104 (focus lens group), and a drive / control system. As described above, the lens unit 100 includes the focus lens 104 and includes a photographing lens that forms a subject image (optical image).

第1レンズ群101は、レンズユニット100の先端に配置され、光軸方向OAに進退可能に保持される。絞り兼用シャッタ102は、その開口径を調節することにより撮影時の光量調節を行う。また絞り兼用シャッタ102は、静止画撮影時に露光秒時調節用シャッタとして機能する。絞り兼用シャッタ102および第2レンズ群103は、一体的に光軸方向OAに進退し、第1レンズ群101の進退動作との連動によりズーム機能を実現する。フォーカスレンズ104は、光軸方向OAの進退により焦点調節を行う。   The first lens group 101 is disposed at the tip of the lens unit 100 and is held so as to be able to advance and retreat in the optical axis direction OA. The diaphragm / shutter 102 adjusts the light amount at the time of photographing by adjusting the aperture diameter. The aperture / shutter 102 functions as an exposure time adjustment shutter during still image shooting. The aperture / shutter 102 and the second lens group 103 integrally move forward / backward in the optical axis direction OA, and realize a zoom function in conjunction with the forward / backward movement of the first lens group 101. The focus lens 104 performs focus adjustment by advancing and retreating in the optical axis direction OA.

駆動/制御系は、ズームアクチュエータ111、絞りシャッタアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116、レンズMPU117、およびレンズメモリ118を有する。   The drive / control system includes a zoom actuator 111, an aperture shutter actuator 112, a focus actuator 113, a zoom drive circuit 114, an aperture shutter drive circuit 115, a focus drive circuit 116, a lens MPU 117, and a lens memory 118.

ズームアクチュエータ111は、第1レンズ群101および第2レンズ群103を光軸方向OAに進退駆動してズーム操作を行う。絞りシャッタアクチュエータ112は、絞り兼用シャッタ102の開口径を制御して撮影光量を調節するとともに、静止画撮影時の露光時間制御を行う。フォーカスアクチュエータ113は、フォーカスレンズ104を光軸方向OAに進退駆動して焦点調節を行うとともに、フォーカスレンズ104の現在位置を検出する位置検出部として機能する。   The zoom actuator 111 performs a zoom operation by driving the first lens group 101 and the second lens group 103 forward and backward in the optical axis direction OA. The aperture shutter actuator 112 controls the aperture diameter of the aperture / shutter 102 to adjust the amount of photographing light, and controls the exposure time during still image photographing. The focus actuator 113 drives the focus lens 104 back and forth in the optical axis direction OA to perform focus adjustment, and functions as a position detection unit that detects the current position of the focus lens 104.

ズーム駆動回路114は、撮影者のズーム操作に応じてズームアクチュエータ111を駆動する。絞りシャッタ駆動回路115は、絞りシャッタアクチュエータ112を駆動制御して絞り兼用シャッタ102の開口を制御する。フォーカス駆動回路116は、焦点検出結果に基づいてフォーカスアクチュエータ113を駆動制御し、フォーカスレンズ104を光軸方向OAに進退駆動して焦点調節を行う。   The zoom drive circuit 114 drives the zoom actuator 111 according to the zoom operation of the photographer. The aperture shutter drive circuit 115 controls the aperture of the aperture / shutter 102 by drivingly controlling the aperture shutter actuator 112. The focus drive circuit 116 controls the focus actuator 113 based on the focus detection result, and performs focus adjustment by driving the focus lens 104 back and forth in the optical axis direction OA.

レンズMPU117は、レンズユニット100に関する全ての演算および制御を行い、ズーム駆動回路114、絞りシャッタ駆動回路115、フォーカス駆動回路116、および、レンズメモリ118を制御する。またレンズMPU117は、現在のレンズ位置を検出し、カメラMPU125(制御手段)からの要求に対してレンズ位置情報を通知する。レンズメモリ118は、自動焦点調節(AF制御)に必要な光学情報やレンズ駆動可能範囲などの情報を記憶する。またレンズMPU117(駆動可能範囲出力手段)は、カメラMPU125からの要求に応じて、レンズ駆動可能範囲などの情報を通知する。   The lens MPU 117 performs all calculations and control related to the lens unit 100, and controls the zoom drive circuit 114, the aperture shutter drive circuit 115, the focus drive circuit 116, and the lens memory 118. The lens MPU 117 detects the current lens position and notifies the lens position information in response to a request from the camera MPU 125 (control means). The lens memory 118 stores information such as optical information necessary for automatic focus adjustment (AF control) and a lens driveable range. The lens MPU 117 (driveable range output means) notifies information such as the lens driveable range in response to a request from the camera MPU 125.

カメラ本体120は、光学的ローパスフィルタ121、撮像素子122、および、駆動/制御系を有する。光学的ローパスフィルタ121および撮像素子122は、レンズユニット100からの光束により被写体像(光学像)を形成する撮像系である。本実施例において、第1レンズ群101、絞り兼用シャッタ102、第2レンズ群103、フォーカスレンズ104、光学的ローパスフィルタ121、および、撮像素子122により、撮影光学系が構成される。また、焦点調節のために撮影光学系(レンズユニット100)の一部を駆動する必要があるが、本実施例ではフォーカスアクチュエータ113(レンズ駆動手段)がフォーカスレンズ104を駆動する。ただし本実施例はこれに限定されるものではなく、撮像素子駆動回路123が撮像素子122を駆動することにより焦点調節を行ってもよい。   The camera body 120 includes an optical low-pass filter 121, an image sensor 122, and a drive / control system. The optical low-pass filter 121 and the imaging element 122 are an imaging system that forms a subject image (optical image) with the light flux from the lens unit 100. In the present embodiment, the first lens group 101, the diaphragm shutter 102, the second lens group 103, the focus lens 104, the optical low-pass filter 121, and the image sensor 122 constitute an imaging optical system. Further, it is necessary to drive a part of the photographing optical system (lens unit 100) for focus adjustment. In this embodiment, the focus actuator 113 (lens driving means) drives the focus lens 104. However, the present embodiment is not limited to this, and focus adjustment may be performed by the image sensor driving circuit 123 driving the image sensor 122.

光学的ローパスフィルタ121は、撮影画像の偽色やモアレを軽減する。撮像素子122は、横方向m画素、縦方向n画素からなるCMOSセンサなどの光電変換素子およびその周辺回路で構成され、各画素からの信号を独立して出力可能に構成されている。また、本実施例の撮像素子122は、被写体像を形成するための複数の撮影画素、および、複数の焦点検出画素を含む。撮像素子122は複数の焦点検出画素を含むことにより、撮像面で位相差検出方式による焦点検出(撮像面位相差AF)が可能となる。このように撮像素子122は、フォーカスレンズ104を含む撮影光学系の互いに異なる瞳領域を通過した光束に基づいて、一対の信号を出力する複数の焦点検出画素を含む。なお、撮像素子122の構成については、詳細に後述する。   The optical low-pass filter 121 reduces false colors and moire in the captured image. The image sensor 122 includes a photoelectric conversion element such as a CMOS sensor composed of m pixels in the horizontal direction and n pixels in the vertical direction and peripheral circuits thereof, and is configured to be able to output signals from each pixel independently. Further, the image sensor 122 of the present embodiment includes a plurality of shooting pixels and a plurality of focus detection pixels for forming a subject image. By including a plurality of focus detection pixels, the image sensor 122 can perform focus detection (imaging surface phase difference AF) by a phase difference detection method on the imaging surface. As described above, the image sensor 122 includes a plurality of focus detection pixels that output a pair of signals based on light beams that have passed through different pupil regions of the photographing optical system including the focus lens 104. The configuration of the image sensor 122 will be described later in detail.

カメラ本体120の駆動/制御系は、撮像素子駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群127(操作SW)、メモリ128、撮像面位相差焦点検出部129、および、TVAF焦点検出部130を含む。   The drive / control system of the camera body 120 includes an image sensor drive circuit 123, an image processing circuit 124, a camera MPU 125, a display 126, an operation switch group 127 (operation SW), a memory 128, an imaging surface phase difference focus detection unit 129, and , A TVAF focus detection unit 130 is included.

撮像素子駆動回路123は、撮像素子122の動作を制御するとともに、撮像素子122から得られた画像信号をA/D変換してカメラMPU125に送信する。また撮像素子駆動回路123は、カメラMPU125の要求に応じて、撮像素子122の駆動フレームレートを切り替える。撮像素子駆動回路123およびカメラMPU125は、駆動フレームレート切り替える出力間隔制御手段、すなわち撮像素子122が一対の信号を出力する間隔を設定する設定手段として機能する。画像処理回路124は、撮像素子122により得られた画像のγ変換、カラー補間、JPEG圧縮などの画像処理を行う。   The image sensor driving circuit 123 controls the operation of the image sensor 122 and A / D converts an image signal obtained from the image sensor 122 and transmits the image signal to the camera MPU 125. Further, the image sensor driving circuit 123 switches the drive frame rate of the image sensor 122 according to the request of the camera MPU 125. The image sensor drive circuit 123 and the camera MPU 125 function as output interval control means for switching the drive frame rate, that is, setting means for setting an interval at which the image sensor 122 outputs a pair of signals. The image processing circuit 124 performs image processing such as γ conversion, color interpolation, and JPEG compression of the image obtained by the image sensor 122.

カメラMPU125は、カメラ本体120に関する全ての演算および制御を行い、撮像素子駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、撮像面位相差焦点検出部129、およびTVAF焦点検出部130を制御する。カメラMPU125は、マウントMの信号線を介してレンズMPU117と接続され、レンズMPU117に対してレンズ位置の取得や所定の駆動量でのレンズ駆動要求を発行する。またカメラMPU125は、レンズMPU117から、レンズユニット100に固有の光学情報を取得する。   The camera MPU 125 performs all calculations and control related to the camera body 120, and includes an image sensor driving circuit 123, an image processing circuit 124, a display 126, an operation switch group 127, a memory 128, an imaging surface phase difference focus detection unit 129, and a TVAF. The focus detection unit 130 is controlled. The camera MPU 125 is connected to the lens MPU 117 via the signal line of the mount M, and issues a lens driving request with a predetermined driving amount to the lens MPU 117 to acquire a lens position. The camera MPU 125 acquires optical information specific to the lens unit 100 from the lens MPU 117.

カメラMPU125には、カメラ動作(撮像システム10またはカメラ本体120の動作)を制御するプログラムを格納するROM125a、変数を記憶するRAM125b、各種のパラメータを記憶するEEPROM125cが内蔵されている。カメラMPU125は、ROM125aに格納されたプログラムにより、後述する焦点検出を含むAF制御を行う。またカメラMPU125は、撮像面位相差AFにおいて、焦点検出位置の像高が大きい場合にケラレの影響が大きくなって焦点検出の信頼度が低下するのを回避するため、ケラレの影響を低減するための補正を行ってもよい。   The camera MPU 125 incorporates a ROM 125a that stores a program for controlling camera operations (operations of the imaging system 10 or the camera body 120), a RAM 125b that stores variables, and an EEPROM 125c that stores various parameters. The camera MPU 125 performs AF control including focus detection, which will be described later, by a program stored in the ROM 125a. Further, the camera MPU 125 reduces the influence of the vignetting in order to avoid the influence of the vignetting and reducing the reliability of the focus detection when the image height at the focus detection position is large in the imaging plane phase difference AF. May be corrected.

表示器126は、LCDなどから構成され、カメラ本体120の撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点調節時の合焦状態表示画像などを表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチなどで構成される。メモリ128は、着脱可能なフラッシュメモリであり、撮影済み画像を記録する。なお、メモリ128はフラッシュメモリに限定されるものではなく、着脱可能な汎用のメモリを用いることができる。   The display 126 includes an LCD or the like, and displays information related to the shooting mode of the camera body 120, a preview image before shooting and a confirmation image after shooting, a focus state display image during focus adjustment, and the like. The operation switch group 127 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory 128 is a detachable flash memory, and records captured images. Note that the memory 128 is not limited to a flash memory, and a removable general-purpose memory can be used.

撮像面位相差焦点検出部129(焦点検出手段)は、撮像素子122の焦点検出画素からの画素信号に基づいて、位相差検出方式による焦点検出を行う。より具体的には、撮像面位相差焦点検出部129は、撮影光学系(レンズユニット100)の互いに異なる瞳領域(一対の瞳領域)を通過する光束により焦点検出画素で形成される像ずれ量に基づいて撮像面位相差AFを行う。すなわち撮像面位相差焦点検出部129は、一対の信号の位相差(像ずれ量)に基づいてデフォーカス量を検出する。なお、撮像面位相差AFの詳細については後述する。   The imaging surface phase difference focus detection unit 129 (focus detection means) performs focus detection by the phase difference detection method based on the pixel signal from the focus detection pixel of the image sensor 122. More specifically, the imaging surface phase difference focus detection unit 129 is an image shift amount formed by the focus detection pixels by light beams passing through different pupil regions (a pair of pupil regions) of the photographing optical system (lens unit 100). The imaging plane phase difference AF is performed based on the above. That is, the imaging surface phase difference focus detection unit 129 detects the defocus amount based on the phase difference (image shift amount) between the pair of signals. Details of the imaging plane phase difference AF will be described later.

TVAF焦点検出部130は、コントラスト方式による焦点検出(TVAF)を行う。より具体的には、TVAF焦点検出部130は、画像処理回路124により得られた画像情報の高周波成分に基づいてコントラスト評価値を算出する。コントラスト方式による焦点検出は、フォーカスレンズ104を移動して得られたコントラスト評価値がピークとなるフォーカスレンズ位置を検出することに行われる。このように本実施例の撮像システム10において、撮像面位相差焦点検出部129およびTVAF焦点検出部130は、撮像面位相差AFとTVAFとを組み合わせて焦点検出を行う。カメラMPU125は、その焦点検出結果に基づいてフォーカスレンズ104を駆動制御する(合焦制御を行う)。本実施例の撮像システム10は、状況に応じて、撮像面位相差AFまたはTVAFを選択的に、または、これらを組み合わせて実行することができる。   The TVAF focus detection unit 130 performs focus detection (TVAF) using a contrast method. More specifically, the TVAF focus detection unit 130 calculates a contrast evaluation value based on the high frequency component of the image information obtained by the image processing circuit 124. The focus detection by the contrast method is performed by detecting a focus lens position where a contrast evaluation value obtained by moving the focus lens 104 reaches a peak. Thus, in the imaging system 10 of the present embodiment, the imaging plane phase difference focus detection unit 129 and the TVAF focus detection unit 130 perform focus detection by combining the imaging plane phase difference AF and TVAF. The camera MPU 125 drives and controls the focus lens 104 based on the focus detection result (performs focus control). The imaging system 10 according to the present exemplary embodiment can selectively execute the imaging plane phase difference AF or TVAF or a combination thereof depending on the situation.

次に、撮像面位相差AFについて詳述する。図2は、撮像素子122の画素部の平面図であり、被写体像が形成される受光画素(画素部)をレンズユニット100側から見た図を示している。400は、撮像素子122において、横方向にm画素、縦方向にn画素で構成される画素部全体の撮影範囲である。401は画素である。画素401上には、オンチップでベイヤー配列の原色カラーフィルタがそれぞれ形成されており、2行×2列の4画素周期で配列されている。図2においては、煩雑さをなくすため、画素部のうち左上側の10画素×10画素のみを表示し、その他の画素については省略している。   Next, the imaging surface phase difference AF will be described in detail. FIG. 2 is a plan view of the pixel portion of the image sensor 122 and shows a light receiving pixel (pixel portion) on which a subject image is formed as viewed from the lens unit 100 side. Reference numeral 400 denotes an imaging range of the entire pixel unit including m pixels in the horizontal direction and n pixels in the vertical direction in the image sensor 122. 401 is a pixel. On-chip Bayer array primary color filters are formed on the pixels 401, and are arranged in a cycle of 4 pixels of 2 rows × 2 columns. In FIG. 2, only 10 pixels × 10 pixels on the upper left side of the pixel portion are displayed and other pixels are omitted in order to eliminate complexity.

前述のように、撮像素子122は、複数の撮影画素および複数の焦点検出画素を含む。各撮影画素は、被写体像を形成する撮影光学系の射出瞳の全領域を通過する光束を受光し、その光束の受光量に応じた画素信号(被写体像を生成するための画素信号)を出力する。また、各焦点検出画素は、撮影光学系の射出瞳の一部の領域を通過する光束を受光し、その光束の受光量に応じた焦点検出信号(位相差検出方式に用いられる焦点検出信号)を出力する。各画素がベイヤー配列のカラーフィルタにより覆われている場合、撮像素子122は、2行×2列の画素のうち、対角に配置される一対のG画素を撮影画素として残し、R画素およびB画素を一対の焦点検出画素に置き換えて構成されている。このように、撮像素子122は、撮影光学系の射出瞳の互いに異なる領域を通過した光束により形成される少なくとも一対の光学像を光電変換して、少なくとも一対の焦点検出信号を出力することができる。   As described above, the image sensor 122 includes a plurality of imaging pixels and a plurality of focus detection pixels. Each photographic pixel receives a light beam that passes through the entire exit pupil area of the photographic optical system that forms the subject image, and outputs a pixel signal (pixel signal for generating a subject image) according to the amount of light received by the light beam. To do. Each focus detection pixel receives a light beam passing through a partial region of the exit pupil of the photographing optical system, and a focus detection signal (focus detection signal used in the phase difference detection method) according to the amount of light received by the light beam. Is output. When each pixel is covered with a color filter with a Bayer array, the image sensor 122 leaves a pair of G pixels arranged diagonally out of 2 × 2 columns as shooting pixels, and R and B The pixel is replaced with a pair of focus detection pixels. As described above, the image sensor 122 can photoelectrically convert at least a pair of optical images formed by light beams that have passed through different regions of the exit pupil of the imaging optical system, and output at least a pair of focus detection signals. .

図3および図4は、図2における画素401(撮影画素および焦点検出画素)の構造をそれぞれ説明する図である。本実施例において、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置したベイヤー配列が採用されている。そして、このベイヤー配列の画素間に、後述する構造の焦点検出画素が配置される。   3 and 4 are diagrams illustrating the structure of the pixel 401 (photographing pixel and focus detection pixel) in FIG. 2, respectively. In this embodiment, out of 4 pixels of 2 rows × 2 columns, a pixel having G (green) spectral sensitivity is arranged in 2 diagonal pixels, and R (red) and B (blue) are arranged in the other 2 pixels. A Bayer arrangement in which one pixel each having spectral sensitivity is arranged is employed. A focus detection pixel having a structure to be described later is arranged between the pixels in the Bayer array.

図3(a)および図4(a)は、2行×2列の画素を示す平面図である。図3(b)および図4(b)は、図1におけるレンズユニット100および撮像素子122を図1中の上側から見た場合の光学断面図である。ここでは、レンズユニット100は、仮想的な1枚のレンズとして図示している。なお、説明に不要な部材については省略している。   FIG. 3A and FIG. 4A are plan views showing pixels of 2 rows × 2 columns. 3B and 4B are optical cross-sectional views when the lens unit 100 and the image sensor 122 in FIG. 1 are viewed from the upper side in FIG. Here, the lens unit 100 is illustrated as a virtual single lens. Note that members unnecessary for the description are omitted.

図3は、撮影画素の配置および構造を示している。図3(a)は2行×2列の撮影画素の平面図であり、このベイヤー配列による2行×2列の構造が繰り返し配置される。図3(a)のA−A断面図である図3(b)において、MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFはR(赤色)のカラーフィルタ、CFはG(緑色)のカラーフィルタである。PD(Photo Diode)は、撮像素子122の光電変換素子である。CL(Contact Layer)は、撮像素子122内の各種信号を伝達する信号線を形成するための配線層である。311はレンズユニット(図1のレンズユニット100に対応)、411はレンズユニット100の射出瞳、Lはレンズユニット311の光軸である。なお図3は、撮像素子122の画素部における中心付近の画素、すなわちレンズユニット311の光軸L上付近の画素構造図である。 FIG. 3 shows the arrangement and structure of the photographic pixels. FIG. 3A is a plan view of 2 × 2 imaging pixels, and a 2 × 2 structure with this Bayer arrangement is repeatedly arranged. In FIG. 3 (b) is an A-A sectional view of FIG. 3 (a), ML denotes an on-chip microlens arranged in front of each pixel, CF R color filters R (red), CF G is This is a G (green) color filter. PD (Photo Diode) is a photoelectric conversion element of the image sensor 122. CL (Contact Layer) is a wiring layer for forming signal lines for transmitting various signals in the image sensor 122. Reference numeral 311 denotes a lens unit (corresponding to the lens unit 100 in FIG. 1), 411 denotes an exit pupil of the lens unit 100, and L denotes an optical axis of the lens unit 311. 3 is a pixel structure diagram in the vicinity of the center of the pixel portion of the image sensor 122, that is, in the vicinity of the optical axis L of the lens unit 311.

ここで、撮影画素のオンチップマイクロレンズMLと光電変換素子PDは、レンズユニット311を通過した光束を可能な限り有効に取り込むように構成されている。換言すると、レンズユニット100の射出瞳411と光電変換素子PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換素子PDの有効面積は大きい面積に設計される。図3(b)における光束410はその様子を示しており、射出瞳411の全領域が光電変換素子PDに取り込まれている。なお、図3(b)ではR画素の入射光束について説明したが、G画素及びB(青色)画素も同様の構造を有する。また、マイクロレンズMLの周辺部材(カラーフィルタCF、CF、光電変換素子PD、配線層CL)は、説明を理解し易くするために拡大して表示されているが、実際にはミクロンオーダーの形状である。 Here, the on-chip microlens ML and the photoelectric conversion element PD of the imaging pixel are configured to capture the light beam that has passed through the lens unit 311 as effectively as possible. In other words, the exit pupil 411 and the photoelectric conversion element PD of the lens unit 100 are conjugated with each other by the microlens ML, and the effective area of the photoelectric conversion element PD is designed to be a large area. A light beam 410 in FIG. 3B shows the state, and the entire region of the exit pupil 411 is taken into the photoelectric conversion element PD. In FIG. 3B, the incident light beam of the R pixel has been described, but the G pixel and the B (blue) pixel also have the same structure. Further, the peripheral members (color filters CF R , CF G , photoelectric conversion element PD, wiring layer CL) of the microlens ML are enlarged and displayed for easy understanding of the explanation, but in actual order, they are in the micron order. It is the shape.

図4は、レンズユニット311の水平方向(横方向)に瞳分割を行うための焦点検出画素の平面図および断面図を示す。ここで水平方向とは、図2中において撮像素子122の長手方向である。図4(a)は、焦点検出画素を含む2行×2列の画素の平面図である。画像の記録または観賞のための画像信号(画素信号)を得る場合、G画素で輝度情報の主成分を取得する。これは、人間の画像認識特性は輝度情報に敏感であるためであり、G画素が欠損すると画質劣化が認知されやすい。一方、R画素またはB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感である。このため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで本実施例においては、2行×2列の画素のうち、G画素は撮影画素として残し、R画素とB画素を焦点検出画素に置き換える。この焦点検出画素を、図4(a)においてSHAおよびSHBと示す。 FIG. 4 shows a plan view and a cross-sectional view of a focus detection pixel for performing pupil division in the horizontal direction (lateral direction) of the lens unit 311. Here, the horizontal direction is the longitudinal direction of the image sensor 122 in FIG. FIG. 4A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. When obtaining an image signal (pixel signal) for recording or viewing an image, the main component of luminance information is acquired by G pixels. This is because human image recognition characteristics are sensitive to luminance information, and when G pixels are lost, image quality degradation is easily recognized. On the other hand, the R pixel or the B pixel is a pixel that acquires color information (color difference information), but human visual characteristics are insensitive to color information. For this reason, it is difficult to recognize the image quality deterioration even if the pixel from which the color information is acquired has some defects. Therefore, in this embodiment, among the pixels of 2 rows × 2 columns, the G pixel is left as a photographic pixel, and the R pixel and the B pixel are replaced with focus detection pixels. The focus detection pixels are denoted as S HA and S HB in FIG.

図4(b)は、図4(a)におけるA−A断面図である。マイクロレンズMLおよび光電変換素子PDは、図3(b)に示される撮影画素と同一構造である。なお図4も、撮像素子122のうち中心付近の画素、すなわちレンズユニット311の光軸L上付近の画素の構造を示している。本実施例では、焦点検出画素からの画素信号は画像生成には用いられない。このため、色分離用カラーフィルタの代わりに、透明膜CF(白色)が配置される。また、撮像素子122において射出瞳411を分割するため、配線層CLの開口部はマイクロレンズMLの中心線に対して所定の方向(一方向)に偏心している。 FIG. 4B is a cross-sectional view taken along the line AA in FIG. The microlens ML and the photoelectric conversion element PD have the same structure as that of the imaging pixel shown in FIG. FIG. 4 also shows the structure of the pixel near the center of the image sensor 122, that is, the pixel near the optical axis L of the lens unit 311. In this embodiment, the pixel signal from the focus detection pixel is not used for image generation. For this reason, the transparent film CF W (white) is disposed instead of the color separation color filter. Further, in order to divide the exit pupil 411 in the image sensor 122, the opening of the wiring layer CL is decentered in a predetermined direction (one direction) with respect to the center line of the microlens ML.

具体的には、画素SHAの開口部OPHAは、マイクロレンズMLの中心線に対して右側に距離421HAだけ偏心しているため、レンズユニット311の光軸Lを挟んで左側の射出瞳領域422HAを通過した光束420HAを受光する。同様に、画素SHBの開口部OPHBは、マイクロレンズMLの中心線に対して左側に距離421HBだけ偏心しているため、レンズユニット311の光軸Lを挟んで右側の射出瞳領域422HBを通過した光束420HBを受光する。そして、図4(b)から明らかなように、偏心量421HAは偏心量421HBに等しい。このように、マイクロレンズMLと開口部OPの偏心により、レンズユニット311(撮影レンズ)の互いに異なる瞳領域(射出瞳領域422HA、422HB)を通過する光束420HA、420HBを取り出すことが可能である。 Specifically, since the opening OP HA of the pixel S HA is decentered by a distance 421 HA on the right side with respect to the center line of the microlens ML, the left exit pupil region across the optical axis L of the lens unit 311 The light beam 420 HA that has passed through 422 HA is received. Similarly, the opening OP HB of the pixel S HB is decentered by a distance 421 HB to the left with respect to the center line of the microlens ML, and thus the right exit pupil region 422 HB across the optical axis L of the lens unit 311. The light beam 420 HB that has passed through is received. As is clear from FIG. 4B, the eccentric amount 421 HA is equal to the eccentric amount 421 HB . As described above, the light beams 420 HA and 420 HB passing through different pupil regions (exit pupil regions 422 HA and 422 HB ) of the lens unit 311 (photographing lens) can be taken out by the eccentricity of the microlens ML and the opening OP. Is possible.

以上のような構成を有する複数の画素SHAを水平方向に配列し、これらの画素群から取得した被写体像(画素信号)をA像(A像信号)とする。また、複数の画素SHBも水平方向に配列し、これらの画素群から取得した被写体像(画素信号)をB像(B像信号)とする。そして、取得したA像とB像の相対位置を検出することにより、水平方向に輝度分布を有する被写体像の焦点ずれ量(デフォーカス量)を検出することができる。 A plurality of pixels SHA having the above configuration are arranged in the horizontal direction, and a subject image (pixel signal) acquired from these pixel groups is defined as an A image (A image signal). A plurality of pixels SHB are also arranged in the horizontal direction, and a subject image (pixel signal) acquired from these pixel groups is defined as a B image (B image signal). Then, by detecting the relative positions of the acquired A and B images, it is possible to detect the defocus amount (defocus amount) of the subject image having a luminance distribution in the horizontal direction.

なお、図4は撮像素子122の中央付近の焦点検出画素について示している。一方、中央付近以外の焦点検出画素に関しては、マイクロレンズMLと配線層CLの開口部OPHA、OPHBを図4(b)とは異なる状態で偏心させることにより、射出瞳411を分割することができる。具体的には、開口部OPHAを例として説明すると、開口部OPHAの中心と射出瞳領域422HAの中心とを結ぶ線上に略球状のマイクロレンズMLの球芯を合わせるように偏心させる。これにより、撮像素子122の周辺部においても、図4に示される中央付近の焦点検出画素と略同等の瞳分割を行うことができる。なお、取得した像信号に対して、特許文献1に記載の補正処理を行ってもよい。 FIG. 4 shows a focus detection pixel near the center of the image sensor 122. On the other hand, for the focus detection pixels other than the vicinity of the center, the exit pupil 411 is divided by decentering the openings OP HA and OP HB of the microlens ML and the wiring layer CL in a state different from that in FIG. Can do. Specifically, the opening OP HA will be described as an example. The center of the opening OP HA and the center of the exit pupil region 422 HA are decentered so that the spherical core of the substantially spherical microlens ML is aligned. Thereby, also in the peripheral part of the image sensor 122, pupil division substantially equivalent to the focus detection pixel near the center shown in FIG. 4 can be performed. Note that the correction processing described in Patent Document 1 may be performed on the acquired image signal.

ところで、画素SHA、SHBにおいては、撮影画面の水平方向に輝度分布を有する被写体、例えば縦線に対しては焦点検出可能である。しかし、垂直方向に輝度分布を有する、例えば横線などの被写体については焦点検出を行うことができない。撮影画面の垂直方向に輝度分布を有する被写体の焦点検出を行うには、撮影光学系の垂直方向にも瞳分割を行う画素を備えるように構成すればよい。本実施例では、後述するように、縦横両方向に焦点検出画素を備える。また、焦点検出画素は、本来の色情報を有さないため、撮影画像の形成の際には、周辺部の画素信号から補間演算することによって信号(撮影信号)を生成する。従って、撮像素子122において、焦点検出画素を連続的に配列するのではなく、離散的に並べる。これにより、撮影画像の画質の低減を抑制することができる。 By the way, in the pixels S HA and S HB , focus detection is possible for an object having a luminance distribution in the horizontal direction of the photographing screen, for example, a vertical line. However, focus detection cannot be performed on an object having a luminance distribution in the vertical direction, such as a horizontal line. In order to detect the focus of a subject having a luminance distribution in the vertical direction of the shooting screen, it may be configured to include pixels that perform pupil division in the vertical direction of the shooting optical system. In this embodiment, as described later, focus detection pixels are provided in both the vertical and horizontal directions. In addition, since the focus detection pixel does not have the original color information, a signal (photographing signal) is generated by performing interpolation calculation from the pixel signals in the peripheral portion when forming a photographed image. Therefore, in the image sensor 122, the focus detection pixels are not arranged continuously but are arranged discretely. Thereby, it is possible to suppress a reduction in the image quality of the captured image.

なお本実施例では、撮像素子122上に撮影画素とは別に焦点検出画素の複数の対を配置し、射出瞳の一部の領域を通過する光束を受光する焦点検出画素の出力信号を用いて焦点検出を実現する。しかしながら、撮像素子122から焦点検出用の出力信号を用いる方法は、これに限定されるものではない。例えば、撮像素子122の1画素が、複数の光電変換部を持つように構成してもよい。このような構成の撮像素子を持つ撮像装置は、特開2007−4471号公報などにも開示されている。   In this embodiment, a plurality of pairs of focus detection pixels are arranged on the image sensor 122 separately from the photographing pixels, and an output signal of the focus detection pixel that receives a light beam passing through a partial region of the exit pupil is used. Realize focus detection. However, the method of using the focus detection output signal from the image sensor 122 is not limited to this. For example, one pixel of the image sensor 122 may be configured to have a plurality of photoelectric conversion units. An imaging apparatus having an imaging element having such a configuration is also disclosed in Japanese Patent Application Laid-Open No. 2007-4471.

図5は、本実施例における一対の焦点検出信号430a、430bの例を示す図である。一対の焦点検出信号430a、430bは、撮像素子122の焦点検出画素SHA、SHBのそれぞれから得られた画素信号に対して、画像処理回路124による各種の画像処理(補正)が行われた信号である。一対の焦点検出信号430a、430bは、画像処理後、撮像面位相差焦点検出部129へ送られる。 FIG. 5 is a diagram illustrating an example of a pair of focus detection signals 430a and 430b in the present embodiment. The pair of focus detection signals 430 a and 430 b are subjected to various image processing (correction) by the image processing circuit 124 on the pixel signals obtained from the focus detection pixels S HA and S HB of the image sensor 122. Signal. The pair of focus detection signals 430a and 430b are sent to the imaging surface phase difference focus detection unit 129 after image processing.

図5において、横軸は連結された信号の画素配列方向、縦軸は信号の強度をそれぞれ示す。ここでは、レンズユニット100が撮像素子122に対してデフォーカスした状態(非合焦状態)である。このため、焦点検出信号430aは左側にずれ、焦点検出信号430bは右側にずれている。撮像面位相差焦点検出部129は、焦点検出信号430a、430bのずれ量(相対ずれ量)を、周知の相関演算などを用いて算出する。これにより、レンズユニット100のデフォーカス量を求めることができる。   In FIG. 5, the horizontal axis indicates the pixel arrangement direction of the connected signals, and the vertical axis indicates the signal intensity. Here, the lens unit 100 is in a defocused state (out-of-focus state) with respect to the image sensor 122. For this reason, the focus detection signal 430a is shifted to the left, and the focus detection signal 430b is shifted to the right. The imaging plane phase difference focus detection unit 129 calculates the shift amount (relative shift amount) of the focus detection signals 430a and 430b using a known correlation calculation or the like. Thereby, the defocus amount of the lens unit 100 can be obtained.

カメラMPU125は、レンズMPU117から送信されたフォーカスレンズ104の位置情報および撮像面位相差焦点検出部129から得られるデフォーカス量に基づいて、フォーカスレンズ104の駆動量を算出する。その後、カメラMPU125は、フォーカスレンズ104の位置情報に基づいて、レンズMPU117に対して、フォーカスレンズ104を駆動するべき位置情報を送信する。これにより、フォーカスアクチュエータ113などを用いた焦点調節を行うことが可能となる。   The camera MPU 125 calculates the drive amount of the focus lens 104 based on the position information of the focus lens 104 transmitted from the lens MPU 117 and the defocus amount obtained from the imaging surface phase difference focus detection unit 129. Thereafter, the camera MPU 125 transmits position information for driving the focus lens 104 to the lens MPU 117 based on the position information of the focus lens 104. This makes it possible to perform focus adjustment using the focus actuator 113 or the like.

図6(a)は、撮影範囲内における焦点検出領域を示す図である。図6(a)に示される焦点検出領域218、219内で撮像素子122から得られた画素信号に基づいて、撮像面位相差AFおよびTVAFが行われる。図6(a)の焦点検出領域は、図4(b)に示される撮影レンズの水平方向(横方向)に瞳分割を行う画素を含む焦点検出領域に加え、撮影レンズの垂直方向(縦方向)に瞳分割を行う画素を含む焦点検出領域を含む。また、図6(a)中の点線で示される長方形は、撮像素子122の画素が形成された撮影範囲217である。撮影範囲217内には、撮像面位相差AFを行うため、縦横それぞれ3方向の焦点検出領域218ah、218bh、218ch、218av、218bv、218cvが設けられている。そして、縦横の焦点検出領域は、互いに交わるように配置され、所謂クロス型の焦点検出領域を構成している。   FIG. 6A is a diagram illustrating a focus detection area within the imaging range. Imaging plane phase difference AF and TVAF are performed based on pixel signals obtained from the imaging element 122 in the focus detection areas 218 and 219 shown in FIG. The focus detection area in FIG. 6A includes a focus detection area including pixels that perform pupil division in the horizontal direction (lateral direction) of the photographing lens shown in FIG. ) Includes a focus detection area including pixels for pupil division. In addition, a rectangle indicated by a dotted line in FIG. 6A is an imaging range 217 in which the pixels of the image sensor 122 are formed. In the imaging range 217, focus detection areas 218ah, 218bh, 218ch, 218av, 218bv, and 218cv in three directions are provided in order to perform imaging plane phase difference AF. The vertical and horizontal focus detection areas are arranged so as to intersect with each other, and form a so-called cross-type focus detection area.

本実施例では、図6(a)に示されるように、撮影範囲217の中央部と左右2箇所の計3つの領域にてクロス型の焦点検出領域を設けるように構成されている。また、3つの撮像面位相差AFを行う焦点検出領域のそれぞれを包含するように、TVAFを行う焦点検出領域219a、219b、219cが設けられている。TVAF焦点検出部130は、焦点検出領域219a、219b、219cにおいて、図6(a)の水平方向の高周波成分を用いてコントラスト方式の焦点検出(コントラスト検出)を行う。なお、図6(a)では、撮影範囲217の中央部と左右2か所の3つの領域に焦点検出領域を配置した例を示しているが、本実施例はこれに限定されるものではない。任意の位置に複数の焦点検出領域を配置することができる。   In this embodiment, as shown in FIG. 6A, a cross-type focus detection area is provided in a total of three areas, that is, a central portion of the imaging range 217 and two left and right positions. Further, focus detection areas 219a, 219b, and 219c for performing TVAF are provided so as to include each of the focus detection areas for performing three imaging surface phase difference AFs. The TVAF focus detection unit 130 performs contrast-type focus detection (contrast detection) in the focus detection regions 219a, 219b, and 219c using the high-frequency component in the horizontal direction of FIG. FIG. 6A shows an example in which focus detection areas are arranged in three areas, that is, the central part of the photographing range 217 and two left and right areas. However, the present embodiment is not limited to this. . A plurality of focus detection areas can be arranged at arbitrary positions.

次に、本実施例におけるカメラ本体120(撮像装置)の焦点調節および撮影工程(撮像装置の制御方法)について説明する。図7は、撮像装置の制御方法を示すフローチャートであり、撮像装置のライブビュー状態で撮影を行う際のメインフローを示している。図7の各ステップは、主に、カメラMPU125の指令に基づいて実行される。   Next, the focus adjustment and imaging process (imaging device control method) of the camera body 120 (imaging device) in the present embodiment will be described. FIG. 7 is a flowchart illustrating a method for controlling the imaging apparatus, and illustrates a main flow when shooting in a live view state of the imaging apparatus. Each step in FIG. 7 is mainly executed based on a command from the camera MPU 125.

図7においてライブビュー撮影が開始されると、まずステップS1において、カメラMPU125は、撮像素子駆動回路123を制御することにより撮像素子122の撮像動作を開始して、撮像データ(画素信号)を取得する。続いてステップS2において、カメラMPU125は、ステップS1にて得られた撮像データから、画像データ(撮影信号、すなわち撮影画像)および焦点検出データ(焦点検出信号)を取得する。前述のように、本実施例の撮像素子122は、画像データ(撮影画像)を取得する際に用いられる撮影画素に加えて、焦点検出データ(焦点検出信号)を取得する際に用いられる焦点検出画素を備えており、一度に両方のデータを取得可能である。   When live view shooting is started in FIG. 7, first, in step S <b> 1, the camera MPU 125 starts the image pickup operation of the image pickup device 122 by controlling the image pickup device driving circuit 123 to obtain image pickup data (pixel signal). To do. Subsequently, in step S2, the camera MPU 125 acquires image data (shooting signal, that is, a shot image) and focus detection data (focus detection signal) from the imaging data obtained in step S1. As described above, the image sensor 122 of this embodiment uses the focus detection used when acquiring focus detection data (focus detection signal) in addition to the shooting pixels used when acquiring image data (captured image). It has pixels and can acquire both data at once.

続いてステップS3において、カメラMPU125は、ステップS2にて得られた画像データに基づいて、プレビュー画像を表示器126に表示する、所謂ライブビュー表示を行う。撮影者は、このプレビュー画像を目視して撮影時の構図決定を行う。ここで行うライブビュー表示は、撮影者が撮影範囲や撮影条件の確認を行うために行われ、第1の時間間隔(第1の間隔)で更新される。第1の時間間隔は、例えば、33.3ms(30fps)や16.6ms(60fps)に設定される。   Subsequently, in step S3, the camera MPU 125 performs a so-called live view display in which a preview image is displayed on the display 126 based on the image data obtained in step S2. The photographer looks at the preview image and determines the composition at the time of shooting. The live view display performed here is performed for the photographer to check the photographing range and photographing conditions, and is updated at a first time interval (first interval). For example, the first time interval is set to 33.3 ms (30 fps) or 16.6 ms (60 fps).

続いてステップS4において、カメラMPU125(撮像面位相差焦点検出部129)は、図6に示される3つの焦点検出領域における焦点検出データを用いて焦点検出処理を行う。すなわち撮像面位相差焦点検出部129は、図5に示されるような焦点検出信号のずれ量(第1の間隔で得られた一対の信号の位相差)に基づいて、デフォーカス量を算出するまでの処理を焦点検出処理として行う。   Subsequently, in step S4, the camera MPU 125 (imaging surface phase difference focus detection unit 129) performs focus detection processing using the focus detection data in the three focus detection areas shown in FIG. That is, the imaging surface phase difference focus detection unit 129 calculates the defocus amount based on the shift amount of the focus detection signal (phase difference between the pair of signals obtained at the first interval) as shown in FIG. The processes up to are performed as the focus detection process.

続いてステップS5において、カメラMPU125は、撮影準備開始を示すスイッチSw1のオン/オフを検出する。操作スイッチ群127の一つであるレリーズ(撮影トリガ)スイッチは、そのスイッチの押し込み量に応じて、2段階のオン/オフを検出することが可能である。スイッチSw1は、レリーズ(撮影トリガ)スイッチの1段階目のオン/オフで検出可能に構成されている。ステップS5にてスイッチSw1のオンが検出されない場合、ステップS10に進む。ステップS10において、カメラMPU125は、メインスイッチがオフされたか否かを判定する。メインスイッチがオフされていない場合、ステップS2に戻る。一方、メインスイッチがオフされた場合、本フローを終了する。   Subsequently, in step S5, the camera MPU 125 detects ON / OFF of the switch Sw1 indicating the start of shooting preparation. A release (shooting trigger) switch, which is one of the operation switch groups 127, can detect two-stage on / off according to the amount of pressing of the switch. The switch Sw1 is configured to be detected by turning on / off the first stage of a release (shooting trigger) switch. When it is not detected that the switch Sw1 is turned on in step S5, the process proceeds to step S10. In step S10, the camera MPU 125 determines whether or not the main switch is turned off. If the main switch is not turned off, the process returns to step S2. On the other hand, when the main switch is turned off, this flow ends.

一方、ステップS5にてスイッチSw1のオンが検出されると、ステップS6に進む。ステップS6において、カメラMPU125は、焦点検出領域を設定する。焦点検出領域は、撮影者が指示する焦点検出領域に設定することができる。または、ステップS4にて得られた3つの焦点検出領域のデフォーカス量の情報や焦点検出領域の撮影範囲中心からの距離の情報を用いて、カメラMPU125が焦点検出領域を設定するように構成してもよい。一般に、撮影者が意図する被写体は、より撮影距離の短い位置に存在する確率が高く、撮影範囲内の中央に存在する確率が高い。このため、カメラMPU125が焦点検出領域を設定する場合、そのような焦点検出領域が優先的に選択されることが好ましい。   On the other hand, when it is detected that the switch Sw1 is turned on in step S5, the process proceeds to step S6. In step S6, the camera MPU 125 sets a focus detection area. The focus detection area can be set to a focus detection area designated by the photographer. Alternatively, the camera MPU 125 is configured to set the focus detection area using the information on the defocus amounts of the three focus detection areas obtained in step S4 and the information on the distance of the focus detection area from the center of the shooting range. May be. In general, the subject intended by the photographer has a high probability of being present at a position where the photographing distance is shorter, and the probability of being present at the center in the photographing range is high. For this reason, when the camera MPU 125 sets a focus detection area, such a focus detection area is preferably selected with priority.

次にステップS7において、カメラMPU125は合焦判定を行う。すなわちカメラMPU125は、選択された焦点検出領域で検出されたデフォーカス量(デフォーカス量の絶対値)が所定量以下(許容値以下)であるか否か、すなわち合焦状態であるか否かを判定する。デフォーカス量が許容値以下である(合焦状態である)と判定された場合、ステップS8に進む。ステップS8において、カメラMPU125は、表示器126に合焦表示(合焦状態であることを示す表示)を行い、ステップS9に進む。   Next, in step S7, the camera MPU 125 performs in-focus determination. That is, the camera MPU 125 determines whether or not the defocus amount (absolute value of the defocus amount) detected in the selected focus detection region is equal to or less than a predetermined amount (allowable value or less), that is, whether or not it is in focus. Determine. If it is determined that the defocus amount is less than or equal to the allowable value (in-focus state), the process proceeds to step S8. In step S8, the camera MPU 125 performs in-focus display (display indicating that it is in focus) on the display 126, and proceeds to step S9.

一方、ステップS7において、選択された焦点検出領域で検出されたデフォーカス量が許容値よりも大きい(合焦状態ではない)と判定された場合、ステップS200に進む。ステップS200において、カメラMPU125(撮像面位相差焦点検出部129)は、焦点調節処理を行う。ステップS200の焦点調節処理の詳細については後述する。ステップS200の焦点調節処理が終了すると、ステップS9に進む。   On the other hand, if it is determined in step S7 that the defocus amount detected in the selected focus detection area is larger than the allowable value (not in focus), the process proceeds to step S200. In step S200, the camera MPU 125 (imaging surface phase difference focus detection unit 129) performs focus adjustment processing. Details of the focus adjustment processing in step S200 will be described later. When the focus adjustment process in step S200 ends, the process proceeds to step S9.

ステップS9において、カメラMPU125は、撮影開始指示を示すスイッチSw2のオン/オフを検出する。操作スイッチ群127の一つであるレリーズ(撮影トリガ)スイッチは、そのスイッチの押し込み量に応じて、2段階のオン/オフを検出することが可能である。スイッチSw2は、レリーズ(撮影トリガ)スイッチの2段階目のオン/オフで検出可能に構成されている。ステップS9にてスイッチSw2のオンが検出されない場合、スイッチSw2のオンが検出されるまでステップS9にて撮影待機状態を維持する。一方、ステップS9にてスイッチSw2のオンが検出されると、ステップS300に進む。ステップS300において、カメラMPU125は、撮影サブルーチンを実行する。ステップS300の撮影サブルーチンの詳細については後述する。   In step S9, the camera MPU 125 detects the on / off state of the switch Sw2 indicating a shooting start instruction. A release (shooting trigger) switch, which is one of the operation switch groups 127, can detect two-stage on / off according to the amount of pressing of the switch. The switch Sw2 is configured to be detectable by turning on / off the second stage of the release (shooting trigger) switch. If it is not detected that the switch Sw2 is turned on in step S9, the photographing standby state is maintained in step S9 until the switch Sw2 is detected to be turned on. On the other hand, when it is detected that the switch Sw2 is turned on in step S9, the process proceeds to step S300. In step S300, the camera MPU 125 executes a shooting subroutine. Details of the shooting subroutine in step S300 will be described later.

ステップS300にて撮影サブルーチンが終了すると、ステップS10に進む。ステップS10において、カメラMPU125は、メインスイッチがオフされたか否かを判定する。メインスイッチがオフされていない場合、ステップS2に戻る。一方、メインスイッチがオフされた場合、本フローの一連の動作を終了する。   When the photographing subroutine is completed in step S300, the process proceeds to step S10. In step S10, the camera MPU 125 determines whether or not the main switch is turned off. If the main switch is not turned off, the process returns to step S2. On the other hand, when the main switch is turned off, a series of operations in this flow is terminated.

次に、図8を参照して、図7のステップS200の焦点調節処理について説明する。図8は、焦点調節処理を示すフローチャートである。図8の各ステップは、主に、カメラMPU125の指令に基づいて実行される。   Next, the focus adjustment process in step S200 of FIG. 7 will be described with reference to FIG. FIG. 8 is a flowchart showing the focus adjustment process. Each step of FIG. 8 is mainly executed based on a command from the camera MPU 125.

焦点調節処理が開始されると、2つの処理が並列して行われる。第1の処理は、ステップS201のフレームレート切替処理である。ステップS201において、カメラMPU125は、合焦判定において合焦状態ではないと判定された場合、第1の時間間隔から、第1の時間間隔よりも短い第2の時間間隔に変更する。すなわちカメラMPU125は、焦点調節処理を高速に行うため、図7のステップS3にて適用される第1の時間間隔よりも短い第2の時間間隔で焦点検出データ(焦点検出信号)を取得できるように、撮像素子122の駆動を切り替える。第2の時間間隔は、例えば、8.3ms(120ps)や4.2ms(240fps)に設定される。これに応じて、表示器126におけるライブビュー表示も短い時間間隔(第2の時間間隔)で得られた画像データを用いて行われる。ライブビュー表示の更新間隔は、第2の時間間隔で行ってもよいし、画像データを間引きまたは加算するなどにより第1の時間間隔のまま行ってもよい。   When the focus adjustment process is started, two processes are performed in parallel. The first process is a frame rate switching process in step S201. In step S201, the camera MPU 125 changes from the first time interval to a second time interval shorter than the first time interval when it is determined that the in-focus state is not in focus. That is, the camera MPU 125 can acquire focus detection data (focus detection signal) at a second time interval shorter than the first time interval applied in step S3 of FIG. 7 in order to perform the focus adjustment processing at high speed. Then, the driving of the image sensor 122 is switched. The second time interval is set to, for example, 8.3 ms (120 ps) or 4.2 ms (240 fps). In response to this, live view display on the display 126 is also performed using image data obtained at a short time interval (second time interval). The update interval of the live view display may be performed at the second time interval, or may be performed at the first time interval by thinning or adding image data.

並列して行われる第2の処理は、ステップS202〜S205の処理である。まずステップS202において、カメラMPU125は、事前に得られた焦点検出結果(焦点検出データ)が信頼性の高い結果(データ)であるか否かを判定する。本実施例では、カメラMPU125は、図7のステップS4にて得られた焦点検出結果(デフォーカス量:Def量)に対して判定を行う。焦点検出結果の信頼性とは、2像(A像信号、B像信号)の一致度であり、2像の一致度が良好である場合、一般的に焦点検出結果の信頼性が高い。そこで、複数の焦点検出領域が選択されている場合、信頼性の高い情報(信頼性の高いデータ)を優先的に採用する。ただし、焦点調節結果の信頼性を判定するための指標は、2像の一致度に限定されるものではない。例えば、特開2007−52072号公報に記載されているSレベルなどを指標として用いてもよい。Sレベルは、算出の際に、2像の一致度だけでなく、相関変化量やシャープネスなどを用いている。ステップS202において、カメラMPU125(信頼性判定手段)は、このような信頼性の指標に対して所定の閾値を設けることにより、焦点検出結果(デフォーカス量)の信頼性を判定する。   The second process performed in parallel is the process of steps S202 to S205. First, in step S202, the camera MPU 125 determines whether or not the focus detection result (focus detection data) obtained in advance is a highly reliable result (data). In this embodiment, the camera MPU 125 makes a determination on the focus detection result (defocus amount: Def amount) obtained in step S4 of FIG. The reliability of the focus detection result is the degree of coincidence of two images (A image signal and B image signal). When the degree of coincidence of the two images is good, the reliability of the focus detection result is generally high. Therefore, when a plurality of focus detection areas are selected, highly reliable information (reliable data) is preferentially adopted. However, the index for determining the reliability of the focus adjustment result is not limited to the degree of coincidence of the two images. For example, the S level described in JP 2007-52072 A may be used as an index. In calculating the S level, not only the degree of coincidence of the two images but also the amount of correlation change and sharpness are used. In step S202, the camera MPU 125 (reliability determination unit) determines the reliability of the focus detection result (defocus amount) by providing a predetermined threshold for such a reliability index.

ステップS202にて焦点検出結果に信頼性があると判定された場合、ステップS203に進む。ステップS203において、カメラMPU125は、検出されたデフォーカス量(検出Def量)に基づいてレンズ駆動(フォーカスレンズ104の駆動)を行う。その後、カメラMPU125はフレームレート切替処理の終了を確認して、ステップS206に進む。   If it is determined in step S202 that the focus detection result is reliable, the process proceeds to step S203. In step S203, the camera MPU 125 performs lens driving (driving the focus lens 104) based on the detected defocus amount (detected Def amount). Thereafter, the camera MPU 125 confirms the end of the frame rate switching process, and proceeds to step S206.

一方、ステップS202にて焦点検出結果に信頼性がないと判定された場合、ステップS204に進む。ステップS204において、カメラMPU125は、検出可能デフォーカス範囲(検出可能Def範囲)を取得する。前述のように、デフォーカス量が大きい場合には焦点調節結果の信頼性が低下する。このため、焦点調節装置として高い検出精度を保てるデフォーカス範囲が制限される。本実施例の撮像システム10は、得られた焦点検出結果の信頼性が高いか否かを、ステップS202にて判定するための閾値に加えて、焦点検出結果の信頼性が、この閾値と同等となる際のデフォーカス範囲の概算値を、検出可能デフォーカス範囲として記憶している。検出可能デフォーカス範囲(検出可能Def範囲)は、EEPROM125c(記憶手段)に記憶されており、カメラMPU125の指示に応じて、EEPROM125cに記憶されている値が出力される。このようにEEPROM125cは、検出可能デフォーカス範囲に関する情報を記憶している。そしてカメラMPU125は、EEPROM125cから得られた検出可能デフォーカス範囲に関する情報に基づいてフォーカスレンズ104を駆動制御する。   On the other hand, if it is determined in step S202 that the focus detection result is not reliable, the process proceeds to step S204. In step S204, the camera MPU 125 acquires a detectable defocus range (detectable Def range). As described above, when the defocus amount is large, the reliability of the focus adjustment result is lowered. For this reason, the defocus range in which high detection accuracy can be maintained as the focus adjustment device is limited. In the imaging system 10 of the present embodiment, the reliability of the focus detection result is equal to this threshold in addition to the threshold for determining in step S202 whether or not the obtained focus detection result is highly reliable. The approximate value of the defocus range at this time is stored as a detectable defocus range. The detectable defocus range (detectable Def range) is stored in the EEPROM 125c (storage means), and the value stored in the EEPROM 125c is output in response to an instruction from the camera MPU 125. As described above, the EEPROM 125c stores information related to the detectable defocus range. Then, the camera MPU 125 drives and controls the focus lens 104 based on information on the defocusable range that can be detected obtained from the EEPROM 125c.

図9は、本実施例における検出可能デフォーカス範囲の例を示す図である。検出可能デフォーカス範囲は、フォーカスレンズ104の位置ごと、第1レンズ群101および第2レンズ群103の位置ごと(ズーム状態ごと)に記憶されている。また検出可能デフォーカス範囲は、撮影光学系のF値ごと、焦点検出領域の位置ごとにも記憶されている。このような撮影光学系の特性情報ごとに、検出可能デフォーカス範囲を記憶することにより、高精度な検出可能デフォーカス範囲情報を得ることができる。本実施例において、焦点検出領域は、図6に示されるように、中央部と左右2箇所の計3箇所を備える構成としており、左右の2箇所は、光軸に対して対称である。このため、記憶すべき検出可能デフォーカス範囲は、左右の焦点検出領域については共用することができる。このため、記憶容量を低減させることが可能である。また、図9に示されるように、離散的な情報として検出可能デフォーカス範囲を記憶しているため、実際に使用する際には補間演算などをしてもよい。その場合、より少ない記憶容量を維持しながら、高精度な検出可能デフォーカス範囲の情報を取得することができる。   FIG. 9 is a diagram illustrating an example of a detectable defocus range in the present embodiment. The detectable defocus range is stored for each position of the focus lens 104 and for each position of the first lens group 101 and the second lens group 103 (for each zoom state). The detectable defocus range is also stored for each F value of the photographing optical system and for each position of the focus detection area. By storing a detectable defocus range for each characteristic information of such a photographing optical system, it is possible to obtain highly accurate detectable defocus range information. In this embodiment, as shown in FIG. 6, the focus detection area is configured to have a total of three locations, that is, a central portion and two left and right locations, and the two left and right locations are symmetrical with respect to the optical axis. Therefore, the detectable defocus range to be stored can be shared for the left and right focus detection areas. For this reason, the storage capacity can be reduced. Further, as shown in FIG. 9, since the defocus range that can be detected is stored as discrete information, an interpolation calculation or the like may be performed when actually used. In this case, it is possible to acquire highly accurate information on the detectable defocus range while maintaining a smaller storage capacity.

ステップS204において、カメラMPU125は、現時点のズーム状態、フォーカスレンズ位置、F値、選択されている焦点検出領域に応じて、検出可能デフォーカス範囲を取得する。続いてステップS205において、カメラMPU125は、取得した検出可能デフォーカス範囲の情報に基づいてレンズ駆動を行う。すなわちカメラMPU125は、設定手段によるフレームレート(間隔)の変更処理中に、撮像面位相差焦点検出部129(焦点検出手段)の検出可能デフォーカス範囲に関する情報に基づいてフォーカスレンズ104を駆動制御する。より好ましくは、カメラMPU125は、設定手段による間隔の変更処理中に、信頼性が所定値よりも低いと判定された場合、焦点検出手段の検出可能デフォーカス範囲に関する情報に基づいてフォーカスレンズ104を駆動制御する。このレンズ駆動の詳細については後述する。レンズ駆動が終了すると、カメラMPU125はフレームレート切替処理(ステップS201)の終了を確認して、ステップS206に進む。   In step S204, the camera MPU 125 acquires a defocus range that can be detected according to the current zoom state, focus lens position, F value, and the selected focus detection area. Subsequently, in step S205, the camera MPU 125 performs lens driving based on the acquired information on the detectable defocus range. That is, the camera MPU 125 drives and controls the focus lens 104 based on the information about the defocus range that can be detected by the imaging surface phase difference focus detection unit 129 (focus detection unit) during the frame rate (interval) change processing by the setting unit. . More preferably, when the reliability of the camera MPU 125 is determined to be lower than a predetermined value during the interval changing process by the setting unit, the camera MPU 125 controls the focus lens 104 based on information on the defocus range that can be detected by the focus detection unit. Drive control. Details of this lens driving will be described later. When the lens driving is completed, the camera MPU 125 confirms the end of the frame rate switching process (step S201), and proceeds to step S206.

ステップS206において、カメラMPU125(撮像面位相差焦点検出部129)は、図7のステップS4と同様に、焦点検出処理を行い、デフォーカス量を算出する。そしてステップS207において、カメラMPU125は、図1のステップS7と同様に、合焦判定を行う。検出されたデフォーカス量が許容値より大きい(合焦状態でない)と判定された場合、ステップS209に進む。ステップS209において、カメラMPU125は、フォーカスレンズ104の位置が駆動可能範囲の端であるか否かを判定する。   In step S206, the camera MPU 125 (imaging surface phase difference focus detection unit 129) performs a focus detection process and calculates a defocus amount as in step S4 of FIG. In step S207, the camera MPU 125 performs in-focus determination as in step S7 of FIG. If it is determined that the detected defocus amount is greater than the allowable value (not in focus), the process proceeds to step S209. In step S209, the camera MPU 125 determines whether or not the position of the focus lens 104 is at the end of the drivable range.

ステップS209にてフォーカスレンズ104がまだ駆動可能である場合(すなわち、ステップS209でNoの場合)、ステップS211に進む。ステップS211において、カメラMPU125は、検出したデフォーカス量に基づいてレンズ駆動(フォーカスレンズ104の駆動)を行う。一方、ステップS209にてフォーカスレンズ104の位置が駆動可能範囲の端である場合(ステップS209でYesの場合)、ステップS210に進む。ステップS210において、カメラMPU125は、表示器126に非合焦表示(非合焦状態であることを示す表示)を行う。非合焦表示としては、例えば、焦点検出領域を示す矩形枠を、橙色などの第1の色を用いて表示する。   If the focus lens 104 can still be driven in step S209 (that is, if No in step S209), the process proceeds to step S211. In step S211, the camera MPU 125 performs lens driving (driving the focus lens 104) based on the detected defocus amount. On the other hand, if the position of the focus lens 104 is at the end of the drivable range in step S209 (Yes in step S209), the process proceeds to step S210. In step S <b> 210, the camera MPU 125 performs a non-focused display (display indicating that the camera is out of focus) on the display device 126. As the out-of-focus display, for example, a rectangular frame indicating the focus detection area is displayed using a first color such as orange.

一方、ステップS207にて、検出されたデフォーカス量が許容値以下(合焦状態である)と判定された場合、ステップS208に進む。ステップS208において、カメラMPU125は、表示器126に合焦表示を行う。合焦表示としては、例えば、焦点検出領域を示す矩形枠を、緑色などの第2の色を用いて表示する。   On the other hand, if it is determined in step S207 that the detected defocus amount is less than or equal to the allowable value (in-focus state), the process proceeds to step S208. In step S208, the camera MPU 125 performs in-focus display on the display 126. As the focus display, for example, a rectangular frame indicating a focus detection area is displayed using a second color such as green.

ステップS208またはステップS209における表示(合焦表示または非合焦表示)を終了すると、ステップS212に進む。ステップS212において、カメラMPU125は、フレームレート切替処理を行い、フレームレートを第2の時間間隔よりも長い第1の時間間隔に変更する。ここでのフレームレート切替処理は、合焦後まで更新間隔の短い状態で撮像素子122を駆動させると電力消費が大きいため、電力消費を低減したほうが好ましいからである。ステップS212のフレームレート切替処理が完了すると、本フロー(焦点調節処理のサブルーチン)は終了する。   When the display in step S208 or step S209 (in-focus display or out-of-focus display) ends, the process proceeds to step S212. In step S212, the camera MPU 125 performs a frame rate switching process, and changes the frame rate to a first time interval longer than the second time interval. This is because it is preferable to reduce the power consumption in the frame rate switching process here because the power consumption is large when the image sensor 122 is driven in a state where the update interval is short until after focusing. When the frame rate switching process of step S212 is completed, this flow (focus adjustment process subroutine) ends.

本サブルーチンのステップS203またはステップS205にて実行されるレンズ駆動は、ステップS201のフレームレート切替処理中に行われる。このため、焦点検出結果は更新されず、焦点検出を行った時刻とステップS203にてレンズ駆動を行う時刻との間にタイムラグがある場合がある。このタイムラグにより、得られた焦点検出結果や検出可能デフォーカス範囲の情報は、信頼性が低い可能性がある。このため、算出されるレンズ駆動量に対して少なめにレンズ駆動を行ってもよい。これにより、検出された合焦位置の手前までレンズ駆動を行うことができるため、焦点調節処理の高速化を図ることが可能となる。また、合焦位置を行き過ぎる、いわゆるハンチング動作が発生しにくいため、ライブビュー表示において高品位の焦点調節処理を行うことができる。   The lens driving executed in step S203 or step S205 of this subroutine is performed during the frame rate switching process in step S201. For this reason, the focus detection result is not updated, and there may be a time lag between the time when the focus is detected and the time when the lens is driven in step S203. Due to this time lag, the obtained focus detection result and detectable defocus range information may have low reliability. For this reason, the lens drive may be performed with respect to the calculated lens drive amount. As a result, the lens can be driven to the position just before the detected in-focus position, so that the focus adjustment process can be speeded up. In addition, since a so-called hunting operation that goes too far through the in-focus position is unlikely to occur, high-quality focus adjustment processing can be performed in live view display.

本実施例は、ステップS201のフレームレート切替処理と、焦点検出結果や検出可能デフォーカス範囲に基づくレンズ駆動を並列に行うように構成されている。ただし、フレームレート切替処理が先に終了した場合、並列して行われているレンズ駆動の終了を待たずに、ステップS206の焦点検出処理を行ってもよい。レンズ駆動中に得られた焦点検出結果に基づきステップS211にてンズ駆動量を更新し、レンズ駆動を継続することにより、より高速な焦点調節処理を行うことができる。   In this embodiment, the frame rate switching process in step S201 and lens driving based on the focus detection result and the detectable defocus range are performed in parallel. However, when the frame rate switching process ends first, the focus detection process in step S206 may be performed without waiting for the end of the lens driving performed in parallel. Based on the focus detection result obtained during lens driving, the lens driving amount is updated in step S211, and the lens driving is continued, so that a faster focus adjustment process can be performed.

次に、図10を参照して、検出可能デフォーカス範囲に基づくレンズ駆動について説明する。図10は、フォーカスレンズ104の位置(レンズ位置)と検出可能デフォーカス範囲との関係を示す図である。P1、P2はフォーカスレンズ104の位置である。フォーカスレンズ104の位置P1、P2において、検出可能デフォーカス範囲をフォーカスレンズ駆動量に換算して、F1、F2として示している。図10では、至近側から無限遠側までの被写体に焦点調節を行うフォーカスレンズ104の駆動可能範囲として、至近側と無限遠側の駆動範囲端も示している。このようなレンズ駆動可能範囲に関する情報は、カメラMPU125の指示によりレンズユニット100から供給される。   Next, lens driving based on the detectable defocus range will be described with reference to FIG. FIG. 10 is a diagram illustrating the relationship between the position of the focus lens 104 (lens position) and the detectable defocus range. P1 and P2 are positions of the focus lens 104. At the positions P1 and P2 of the focus lens 104, the detectable defocus range is converted into the focus lens drive amount and indicated as F1 and F2. FIG. 10 also shows the driving range ends on the near side and the infinity side as the drivable range of the focus lens 104 that performs focus adjustment on the subject from the near side to the infinity side. Information regarding such a lens driveable range is supplied from the lens unit 100 in accordance with an instruction from the camera MPU 125.

図10(a)において、焦点調節処理開始時のフォーカスレンズ104のレンズ位置はP1であり、検出可能デフォーカス範囲はF1である。図10(a)の状況では、図6(b)に示される中央の焦点検出領域が撮影者によって選択されていると想定する。中央の焦点検出領域では、人物220に対して焦点検出を行うことになる。しかし、F1は人物220に合焦するレンズ位置を含まないため、中央の焦点検出領域で信頼性のあるデフォーカス量を算出できない。このため、図8のステップS202において、信頼性の高い焦点検出結果が得られないと判定され、ステップS204に進む。ステップS204において、カメラMPU125は、検出可能デフォーカス範囲として、F1を取得する。続いてステップS205において、取得した検出可能デフォーカス範囲の情報に基づき、図10(a)のL1までレンズ駆動を行う。その後、フレームレート切替処理の完了を確認し、ステップS206以降の処理を行う。ステップS206以降の処理を行う前に、L1までレンズ駆動を行っているため、人物220に合焦するレンズ位置までのレンズ駆動量が減り、高速に焦点調節を行うことができる。   In FIG. 10A, the lens position of the focus lens 104 at the start of the focus adjustment process is P1, and the detectable defocus range is F1. In the situation of FIG. 10A, it is assumed that the center focus detection area shown in FIG. 6B is selected by the photographer. In the central focus detection area, focus detection is performed on the person 220. However, since F1 does not include the lens position for focusing on the person 220, a reliable defocus amount cannot be calculated in the central focus detection region. Therefore, in step S202 in FIG. 8, it is determined that a highly reliable focus detection result cannot be obtained, and the process proceeds to step S204. In step S204, the camera MPU 125 acquires F1 as the detectable defocus range. Subsequently, in step S205, the lens is driven up to L1 in FIG. Thereafter, the completion of the frame rate switching process is confirmed, and the processes after step S206 are performed. Since the lens drive is performed up to L1 before performing the processing after step S206, the lens drive amount to the lens position where the person 220 is focused is reduced, and the focus adjustment can be performed at high speed.

図10(a)の状況では、検出可能デフォーカス範囲F1の端の位置であるL1までのレンズ駆動をフレームレート切替処理中に行っているが、F1の他方の端の位置までのレンズ駆動も考えられる。本実施例では、焦点調節の対象となる被写体は、至近側に存在する確率が高いということに基づき、至近側の駆動範囲端に向かう方向にレンズ駆動を行った。ただし、フレームレート切替処理中のレンズ駆動方向は、これに限定されるものではない。例えば、撮影シーンの解析などにより、風景など無限遠に合焦位置のある被写体が存在する確率が高いことが検出されている場合、フレームレート切替処理中のレンズ駆動方向を無限遠側の駆動範囲端に向かう方向に設定すればよい。   In the situation of FIG. 10A, the lens drive up to L1, which is the end position of the detectable defocus range F1, is performed during the frame rate switching process, but the lens drive to the other end position of F1 is also performed. Conceivable. In this embodiment, the subject that is the subject of focus adjustment is driven in the direction toward the end of the driving range on the near side based on the high probability that the subject is on the near side. However, the lens driving direction during the frame rate switching process is not limited to this. For example, if it is detected by analysis of the shooting scene that there is a high probability that there is a subject that is in focus at infinity, such as landscapes, the lens drive direction during the frame rate switching process is set to the infinity drive range. What is necessary is just to set to the direction which goes to an edge.

図10(b)では、焦点調節処理開始時のフォーカスレンズ104のレンズ位置はP2であり、検出可能デフォーカス範囲はF2である。図10(b)の状況では、図6(b)に示される右側の焦点検出領域を撮影者によって選択されていると想定する。右側の焦点検出領域では、家屋221に対して焦点検出を行うことになる。しかし、F2は、家屋221に合焦するレンズ位置を含まないため、右側の焦点検出領域で信頼性のあるデフォーカス量を算出できない。このため、図8のステップS202において、信頼性の高い焦点検出結果が得られないと判定され、ステップS204に進む。ステップS204において、カメラMPU125は、検出可能デフォーカス範囲として、F2を取得する。続いてステップS205において、取得した検出可能デフォーカス範囲の情報に基づき、図10(b)のL2までレンズ駆動を行う。その後、フレームレート切替処理の完了を確認し、ステップS206以降の処理を行う。ステップS206以降の処理を行う前に、L2までレンズ駆動を行っているため、家屋221に合焦するレンズ位置までのレンズ駆動量が減り、高速に焦点調節を行うことができる。   In FIG. 10B, the lens position of the focus lens 104 at the start of the focus adjustment process is P2, and the detectable defocus range is F2. In the situation of FIG. 10B, it is assumed that the right focus detection area shown in FIG. 6B is selected by the photographer. In the right focus detection area, focus detection is performed on the house 221. However, since F2 does not include the lens position that focuses on the house 221, a reliable defocus amount cannot be calculated in the right focus detection region. Therefore, in step S202 in FIG. 8, it is determined that a highly reliable focus detection result cannot be obtained, and the process proceeds to step S204. In step S204, the camera MPU 125 acquires F2 as the detectable defocus range. Subsequently, in step S205, the lens is driven to L2 in FIG. 10B based on the acquired information on the detectable defocus range. Thereafter, the completion of the frame rate switching process is confirmed, and the processes after step S206 are performed. Since the lens drive is performed up to L2 before performing the processing after step S206, the lens drive amount to the lens position focused on the house 221 is reduced, and the focus adjustment can be performed at high speed.

図10(b)の状況では、検出可能デフォーカス範囲F2の至近側範囲の中に、至近側の駆動範囲端を含んでいる。これは、レンズ位置P2に対応する被写体距離より至近側には、焦点調節可能な被写体が存在しないことを示している。このような場合、他方の駆動方向である無限遠側の駆動範囲端に向かう方向にレンズ駆動を行う。同様に、検出可能デフォーカス範囲内に無限遠側の駆動範囲端を含む場合、至近側の駆動範囲端に向かう方向にレンズ駆動を行う。また、検出デフォーカス範囲が、無限遠側と至近側の両方の駆動範囲端を含む場合、焦点調節を行うことなく、非合焦表示を行ってもよい。   In the situation shown in FIG. 10B, the closest drive range end is included in the close range of the detectable defocus range F2. This indicates that there is no subject whose focus can be adjusted closer to the subject distance corresponding to the lens position P2. In such a case, the lens is driven in a direction toward the end of the driving range on the infinity side which is the other driving direction. Similarly, if the detectable defocus range includes a driving range end on the infinity side, lens driving is performed in a direction toward the driving range end on the closest side. Further, when the detected defocus range includes both the infinity side and the close side driving range ends, the out-of-focus display may be performed without performing the focus adjustment.

次に、図11を参照して、焦点調節に伴うレンズ駆動制御について説明する。図11は、図10(a)の状況における図1のステップS5からステップS200を経て焦点調節処理を行う際のフォーカスレンズ位置と時間との関係を示す図である。図11において、横軸は時間を示し、縦軸はフォーカスレンズ104の位置を示している。図1のステップS5のスイッチSw1を検出した時間をX軸上の0としている。   Next, lens drive control accompanying focus adjustment will be described with reference to FIG. FIG. 11 is a diagram showing the relationship between the focus lens position and time when performing the focus adjustment process from step S5 to step S200 of FIG. 1 in the situation of FIG. In FIG. 11, the horizontal axis indicates time, and the vertical axis indicates the position of the focus lens 104. The time when the switch Sw1 in step S5 in FIG. 1 is detected is set to 0 on the X axis.

図11を参照して、AF開始時レンズ位置からAF終了時レンズ位置への焦点調節処理について説明する。まず、カメラMPU125は、時刻T1でスイッチSw1のオンを検出すると、焦点検出領域を設定し(S6)、合焦状態でないことを判定し(S7)、焦点調節処理(S200)を開始する。またカメラMPU125は、フレームレート切替処理(S201)と並行して、信頼性の高い焦点検出結果が得られていないと判定し(S202)、検出可能デフォーカス範囲としてF1を取得する(S204)。その後、カメラMPU125は、図11の時刻T2でレンズ駆動を開始する(S205)。図11の時刻T3で、図10(a)のL1に到達によりレンズ駆動を完了した後、フレームレート切替処理の完了を待ち、再度、焦点検出処理を行う(S206)。その結果、合焦ではないと判定され(S207でNo)、現在のレンズ位置が、レンズ駆動範囲端ではないと判定される(S209でNo)。その後、図11の時刻T4でレンズ駆動を開始する(S210)。レンズ駆動が開始されると、焦点検出処理(S206)、合焦判定(S207)、レンズ駆動範囲端判定(S209)を繰り返し行い、合焦状態でもレンズ駆動範囲端でもない場合、レンズ駆動量が更新され、レンズ駆動が継続される。レンズ駆動量の更新が遅い間隔で行われる場合、レンズ駆動は間欠的にステップ駆動を行うことになる。一方、レンズ駆動量の更新が速い間隔で行われる場合、レンズ駆動は停止することなく継続的に行われる。その後、図11の時刻T5で合焦状態であると判定され、AF終了時レンズ位置に到達するとレンズ駆動を停止し、合焦表示を行い(S208)、フレームレート切替処理を行う(S212)。   With reference to FIG. 11, the focus adjustment process from the AF start lens position to the AF end lens position will be described. First, when detecting that the switch Sw1 is turned on at time T1, the camera MPU 125 sets a focus detection area (S6), determines that it is not in focus (S7), and starts focus adjustment processing (S200). In parallel with the frame rate switching process (S201), the camera MPU 125 determines that a highly reliable focus detection result is not obtained (S202), and acquires F1 as a detectable defocus range (S204). Thereafter, the camera MPU 125 starts lens driving at time T2 in FIG. 11 (S205). At time T3 in FIG. 11, the lens driving is completed by reaching L1 in FIG. 10A, and then the completion of the frame rate switching process is waited, and the focus detection process is performed again (S206). As a result, it is determined that it is not in focus (No in S207), and it is determined that the current lens position is not the end of the lens driving range (No in S209). Thereafter, lens driving is started at time T4 in FIG. 11 (S210). When the lens drive is started, the focus detection process (S206), the focus determination (S207), and the lens drive range end determination (S209) are repeatedly performed. It is updated and lens driving is continued. When the lens drive amount is updated at a slow interval, the lens drive is intermittently stepped. On the other hand, when the lens driving amount is updated at a fast interval, the lens driving is continuously performed without stopping. After that, when it is determined that the in-focus state is reached at time T5 in FIG. 11 and the lens position is reached at the end of AF, the lens driving is stopped, in-focus display is performed (S208), and frame rate switching processing is performed (S212).

本実施例において、図11の時刻T2から時刻T3までの間に行われるレンズ駆動に対して、時刻T4から時刻T5までの間に行われるレンズ駆動の駆動速度を遅く(小さく)している。これは、以下の理由による。すなわち、時刻T2から時刻T3までの間に行われるレンズ駆動は、フレームレート切替処理中に検出可能デフォーカス範囲を用いて行われるため、レンズ駆動中に新たに焦点検出結果が得られることがない。このため、できる限り早くレンズ駆動を終えることが、フレームレート切替処理の完了後に、速やかに焦点検出結果を用いたレンズ駆動に移行できるようにすることになり、焦点調節処理の高速化を可能とする。すなわち、レンズ駆動速度は速いほど好ましい。   In this embodiment, the driving speed of the lens driving performed between the time T4 and the time T5 is made slower (smaller) than the lens driving performed between the time T2 and the time T3 in FIG. This is due to the following reason. That is, since the lens driving performed between time T2 and time T3 is performed using the defocus range that can be detected during the frame rate switching process, a new focus detection result is not obtained during lens driving. . For this reason, finishing the lens drive as soon as possible enables the lens drive using the focus detection result to be shifted to the lens drive promptly after the frame rate switching process is completed, thereby enabling a high speed focus adjustment process. To do. That is, the faster the lens driving speed, the better.

一方、時刻T4から時刻T5までの間、焦点検出処理(S206)、合焦判定(S207)、レンズ駆動範囲端判定(S209)を繰り返し行いながら、レンズ駆動が行われる。この間において、高速にレンズ駆動を行うと、焦点検出結果の更新前にレンズを一度停止する必要がある場合が発生する。レンズの駆動と停止とを繰り返しながら焦点調節を行うと、焦点調節中のライブビュー表示の品位が良好でなく、または、レンズの駆動と停止の繰り返しによる停止位置の精度が劣化するなどの弊害が生じる。このため本実施例では、図11の時刻T2から時刻T3の間に行われるレンズ駆動に対して、時刻T4から時刻T5の間に行われるレンズ駆動の駆動速度を遅く(小さく)し、高速な焦点調節と焦点調節中の表示の品位や高精度な焦点調節の両立を図っている。ただし、前述の理由により、時刻T4から時刻T5までの間のレンズ駆動速度を遅くしているため、焦点検出結果の更新が十分に早い場合、この限りではなく、時刻T2から時刻T3までの間のレンズ駆動と同様に、高速にレンズ駆動を行えばよい。   On the other hand, during the period from time T4 to time T5, lens driving is performed while repeatedly performing focus detection processing (S206), focusing determination (S207), and lens driving range end determination (S209). During this time, if the lens is driven at high speed, the lens may need to be stopped once before the focus detection result is updated. If the focus adjustment is performed while driving and stopping the lens repeatedly, the quality of the live view display during focus adjustment will be poor, or the accuracy of the stop position will deteriorate due to repeated driving and stopping of the lens. Arise. For this reason, in this embodiment, the driving speed of the lens driving performed between the time T4 and the time T5 is made slower (smaller) than the lens driving performed between the time T2 and the time T3 in FIG. The focus adjustment, display quality during focus adjustment, and high-precision focus adjustment are both achieved. However, since the lens drive speed from time T4 to time T5 is slowed for the reason described above, this is not the case when the update of the focus detection result is sufficiently fast, but not from time T2 to time T3. Similarly to the lens driving, the lens driving may be performed at high speed.

次に、図12を参照して、図7の撮影サブルーチン(ステップS300)について説明する。図12は、撮影サブルーチン(ステップS300)を示すフローチャートである。図12の各ステップは、主に、カメラMPU125の指令に基づいて実行される。   Next, the photographing subroutine (step S300) in FIG. 7 will be described with reference to FIG. FIG. 12 is a flowchart showing the photographing subroutine (step S300). Each step in FIG. 12 is mainly executed based on a command from the camera MPU 125.

まずステップS301において、カメラMPU125は、光量調節絞りを駆動し、露光時間を規定するメカニカルシャッタの開口制御(絞り・シャッタ駆動)を行う。続いてステップS302において、カメラMPU125は、高画素静止画撮影のための画像読み出し、すなわち全画素の読み出しを行う。続いてステップS303において、カメラMPU125(画像処理回路124)は、読み出した画像信号の欠損画素補間を行う。すなわち、焦点検出画素の出力は撮像のためのRGBカラー情報を有しておらず、画像を得る上では欠陥画素に相当するため、周囲の撮像用画素の情報から補間により画像信号を生成する。続いてステップS304において、画像信号に対してγ補正、色変換、エッジ強調などの画像処理を行い、撮影画像(画像処理後の画像信号)を得る。そしてステップS305において、カメラMPU125は、メモリ128に撮影画像を記録する。   First, in step S301, the camera MPU 125 drives the light amount adjusting diaphragm, and performs aperture control (aperture / shutter driving) of the mechanical shutter that defines the exposure time. Subsequently, in step S302, the camera MPU 125 performs image reading for high-pixel still image shooting, that is, reading of all pixels. Subsequently, in step S303, the camera MPU 125 (image processing circuit 124) performs defective pixel interpolation of the read image signal. That is, the output of the focus detection pixel does not have RGB color information for imaging and corresponds to a defective pixel in obtaining an image, so that an image signal is generated by interpolation from information on surrounding imaging pixels. In step S304, image processing such as γ correction, color conversion, and edge enhancement is performed on the image signal to obtain a captured image (image signal after image processing). In step S305, the camera MPU 125 records the captured image in the memory 128.

続いてステップ306において、カメラMPU125は、ステップS305にて記録した撮影画像に対応させて、カメラ本体120の特性情報をメモリ128およびカメラMPU125内のメモリに記録する。カメラ本体120の特性情報とは、露光時間情報、現像時の画像処理情報、撮像素子122の撮影画素および焦点検出画素の受光感度分布情報、カメラ本体120内での撮影光束のケラレ情報である。また、カメラ本体120の特性情報は、カメラ本体120とレンズユニット100との取り付け面から撮像素子122までの距離情報、製造誤差情報なども含む。撮像素子122の撮影画素および焦点検出画素の受光感度分布情報は、オンチップマイクロレンズMLおよび光電変換素子PDにより決定されるため、これらの情報を記録してもよい。   Subsequently, in step 306, the camera MPU 125 records the characteristic information of the camera body 120 in the memory 128 and the memory in the camera MPU 125 in association with the captured image recorded in step S305. The characteristic information of the camera body 120 is exposure time information, image processing information during development, light reception sensitivity distribution information of the imaging pixels and focus detection pixels of the image sensor 122, and vignetting information of imaging light flux in the camera body 120. Further, the characteristic information of the camera body 120 includes distance information from the mounting surface of the camera body 120 and the lens unit 100 to the image sensor 122, manufacturing error information, and the like. Since the light receiving sensitivity distribution information of the imaging pixel and the focus detection pixel of the imaging element 122 is determined by the on-chip microlens ML and the photoelectric conversion element PD, these pieces of information may be recorded.

続いてステップS307において、カメラMPU125は、ステップS305にて記録された撮影画像に対応させて、レンズユニット100の特性情報をメモリ128とカメラMPU125内のメモリに記録する。レンズユニット100の特性情報としては、例えば、射出瞳411の情報、枠情報、撮影時の焦点距離やFナンバー情報、収差情報、製造誤差情報である。続いてステップS308において、カメラMPU125は、撮影画像に関する画像関連情報をメモリ128およびカメラMPU125内のメモリに記録する。画像関連情報とは、撮影前の焦点検出動作に関する情報や、被写体移動情報、焦点検出動作の精度に関わる情報などである。ステップS307が終了すると、ステップS300の撮影サブルーチンを終了し、メインルーチンのステップS10に進む。   Subsequently, in step S307, the camera MPU 125 records the characteristic information of the lens unit 100 in the memory 128 and the memory in the camera MPU 125 in association with the captured image recorded in step S305. The characteristic information of the lens unit 100 includes, for example, information on the exit pupil 411, frame information, focal length and F number information at the time of photographing, aberration information, and manufacturing error information. Subsequently, in step S <b> 308, the camera MPU 125 records image related information regarding the captured image in the memory 128 and the memory in the camera MPU 125. The image related information includes information related to a focus detection operation before photographing, subject movement information, information related to the accuracy of the focus detection operation, and the like. When step S307 ends, the shooting subroutine of step S300 ends, and the process proceeds to step S10 of the main routine.

好ましくは、設定手段は、撮像素子122が一対の信号を出力する間隔(フレームレート)として、第1の間隔(第1の時間間隔)または第1の間隔よりも短い第2の間隔(第2の時間間隔)に設定可能である。そしてカメラMPU125(信頼性判定手段)は、第1の間隔から第2の間隔への変更処理中に、第1の間隔で得られた一対の信号の位相差に基づいてデフォーカス量の信頼性を判定する。また好ましくは、カメラMPU125(信頼性判定手段)は、一対の信号の一致度に基づいてデフォーカス量の信頼性を判定する。より好ましくは、撮像面位相差焦点検出部129(焦点検出手段)の検出可能デフォーカス範囲は、カメラMPU125(信頼性判定手段)が信頼性を有すると判定するための閾値に基づいて設定されるデフォーカス範囲である。   Preferably, the setting unit sets a first interval (first time interval) or a second interval (second interval shorter than the first interval) as an interval (frame rate) at which the image sensor 122 outputs a pair of signals. Time interval). Then, the camera MPU 125 (reliability determination unit) determines the reliability of the defocus amount based on the phase difference between the pair of signals obtained at the first interval during the change process from the first interval to the second interval. Determine. Preferably, the camera MPU 125 (reliability determination unit) determines the reliability of the defocus amount based on the degree of coincidence between the pair of signals. More preferably, the defocus range that can be detected by the imaging surface phase difference focus detection unit 129 (focus detection unit) is set based on a threshold value for determining that the camera MPU 125 (reliability determination unit) has reliability. Defocus range.

好ましくは、カメラMPU125(制御手段)は、撮影光学系の特性情報または焦点検出領域の位置に応じて、検出可能デフォーカス範囲に関する情報に基づいて算出されるフォーカスレンズ104の駆動量を変更する。また好ましくは、焦点検出手段は、焦点検出領域の焦点検出画素から得られる一対の信号の位相差に基づいて、焦点検出領域におけるデフォーカス量を検出する。また好ましくは、制御手段は、第1の被写体よりも至近側に位置する第2の被写体に焦点調節を行うようにフォーカスレンズ104を駆動制御する。また好ましくは、制御手段は、フォーカスレンズ104の駆動可能範囲に関する情報に基づいて、駆動可能範囲を超えない方向にフォーカスレンズ104を駆動する。また好ましくは、制御手段は、第1の間隔から第2の間隔への変更処理中におけるフォーカスレンズ104の駆動速度よりも、第1の間隔から第2の間隔への変更完了後のフォーカスレンズの駆動速度を小さくする。   Preferably, the camera MPU 125 (control unit) changes the driving amount of the focus lens 104 calculated based on the information regarding the detectable defocus range in accordance with the characteristic information of the photographing optical system or the position of the focus detection area. Preferably, the focus detection unit detects a defocus amount in the focus detection area based on a phase difference between a pair of signals obtained from focus detection pixels in the focus detection area. Preferably, the control unit drives and controls the focus lens 104 so as to perform focus adjustment on the second subject located closer to the first subject. Preferably, the control unit drives the focus lens 104 in a direction that does not exceed the driveable range based on information on the driveable range of the focus lens 104. Further preferably, the control unit is configured so that the focus lens after completion of the change from the first interval to the second interval is faster than the driving speed of the focus lens 104 during the change process from the first interval to the second interval. Reduce the driving speed.

以上のように、AF開始時に得ているデフォーカス情報の信頼性が低い場合、検出可能デフォーカス範囲情報を用いてレンズ駆動を行うことにより、焦点検出時のデフォーカス状態によらず、高速な焦点調節を行うことができる。   As described above, when the reliability of the defocus information obtained at the start of AF is low, the lens is driven using the defocus range information that can be detected, so that the high speed can be achieved regardless of the defocus state at the time of focus detection. Focus adjustment can be performed.

本実施例では、焦点検出手段として、撮像素子内の焦点検出画素の出力信号を用いた位相差検出方式の焦点検出を行ったが、焦点検出方法はこれに限定されるものではない。例えば、コントラスト方式の焦点検出方法を用いてもよい。この場合、AF開始時に、コントラスト評価値の大小によりデフォーカス量が大きいか否かを簡易的に判定することができる。デフォーカス量が大きい場合、フレームレート切替中にレンズ駆動を行う点は、前述と同様に処理をすることにより、同様の効果を得ることができる。また、焦点検出方法として、2つの方法(位相差方式およびコントラスト方式)を組み合わせたハイブリッド式を採用してもよい。AF開始時には、位相差検出方式の焦点検出結果からフレームレート切替中のレンズ駆動を行い、その後はコントラスト方式の焦点検出を行ってもよい。   In this embodiment, the focus detection by the phase difference detection method using the output signal of the focus detection pixel in the image sensor is performed as the focus detection means, but the focus detection method is not limited to this. For example, a contrast type focus detection method may be used. In this case, it is possible to easily determine whether or not the defocus amount is large based on the magnitude of the contrast evaluation value at the start of AF. When the defocus amount is large, the same effect can be obtained by performing the same process as described above in that the lens is driven during the frame rate switching. Further, a hybrid method combining two methods (phase difference method and contrast method) may be adopted as the focus detection method. At the start of AF, the lens driving during the frame rate switching may be performed from the focus detection result of the phase difference detection method, and thereafter the focus detection of the contrast method may be performed.

また本実施例において、撮像素子の駆動をより短い第2の時間間隔に変更し、焦点調節処理を終えた後、再び、撮像素子の駆動をより長い第1の時間間隔に変更するように構成している。ただし、撮像素子の駆動を第1の時間間隔に戻すタイミングは、焦点調節処理を終えた後でなくてもよい。例えば、位相差検出方式の焦点検出を行っている際には、合焦状態近傍に近づくと、検出されるデフォーカス量の精度が向上し、合焦状態の手前で、焦点調節を終える目途が立つ場合がある。このような場合、焦点調節終了の目途が立ち次第、撮像素子の駆動を第1の時間間隔に戻す処理を開始してもよい。コントラスト検出方式の焦点検出を行う場合にも同様に、コントラスト評価値の極大値を検出でき次第、撮像素子の駆動を第1の時間間隔に戻す処理を開始してよい。これにより、更に迅速に、撮影処理に移行することができる。   Further, in this embodiment, the driving of the image sensor is changed to a shorter second time interval, and after the focus adjustment process is finished, the driving of the image sensor is changed again to a longer first time interval. doing. However, the timing for returning the driving of the image sensor to the first time interval may not be after the focus adjustment processing is completed. For example, when performing focus detection using the phase difference detection method, the accuracy of the detected defocus amount improves as the position approaches the in-focus state, and there is a possibility of completing the focus adjustment before the in-focus state. May stand. In such a case, as soon as focus adjustment ends, the process of returning the drive of the image sensor to the first time interval may be started. Similarly, when performing contrast detection focus detection, as soon as the maximum contrast evaluation value can be detected, the process of returning the image sensor to the first time interval may be started. Thereby, it is possible to shift to the photographing process more quickly.

[その他の実施形態]
本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウエア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、撮像装置の制御方法の手順が記述されたコンピュータで実行可能なプログラムおよびそのプログラムを記憶した記憶媒体は本発明を構成する。
[Other Embodiments]
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed. In this case, a computer-executable program describing the procedure of the imaging apparatus control method and a storage medium storing the program constitute the present invention.

各実施例によれば、デフォーカス量が大きい状態から高速な焦点調節が可能な撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体を提供することができる。   According to each embodiment, it is possible to provide an imaging apparatus, an imaging system, an imaging apparatus control method, a program, and a storage medium capable of performing high-speed focus adjustment from a state where the defocus amount is large.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

120 カメラ本体
122 撮像素子
123 撮像素子駆動回路
125 カメラMPU
129 撮像面位相差焦点検出部
120 Camera Body 122 Image Sensor 123 Image Sensor Drive Circuit 125 Camera MPU
129 Imaging surface phase difference focus detection unit

Claims (15)

フォーカスレンズを含む撮影光学系の互いに異なる瞳領域を通過した光束に基づいて、一対の信号を出力する複数の焦点検出画素を含む撮像素子と、
前記一対の信号の位相差に基づいてデフォーカス量を検出する焦点検出手段と、
前記撮像素子が前記一対の信号を出力する間隔を設定する設定手段と、
前記フォーカスレンズを駆動制御する制御手段と、を有し、
前記制御手段は、前記設定手段による前記間隔の変更処理中に、前記焦点検出手段の検出可能デフォーカス範囲に関する情報に基づいて前記フォーカスレンズを駆動制御する、ことを特徴とする撮像装置。
An imaging device including a plurality of focus detection pixels that output a pair of signals based on light beams that have passed through different pupil regions of a photographing optical system including a focus lens;
Focus detection means for detecting a defocus amount based on a phase difference between the pair of signals;
Setting means for setting an interval at which the image sensor outputs the pair of signals;
Control means for driving and controlling the focus lens,
The control device drives and controls the focus lens based on information on a defocus range that can be detected by the focus detection means during the interval changing process by the setting means.
前記デフォーカス量の信頼性を判定する信頼性判定手段を更に有し、
前記制御手段は、前記設定手段による前記間隔の変更処理中に、前記信頼性が所定値よりも低いと判定された場合、前記焦点検出手段の検出可能デフォーカス範囲に関する情報に基づいて前記フォーカスレンズを駆動制御することを特徴とする請求項1に記載の撮像装置。
Further comprising a reliability determining means for determining the reliability of the defocus amount;
When the reliability is determined to be lower than a predetermined value during the interval changing process by the setting unit, the control unit determines the focus lens based on information on a defocus range that can be detected by the focus detection unit. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is driven and controlled.
前記設定手段は、前記撮像素子が前記一対の信号を出力する前記間隔として、第1の間隔または該第1の間隔よりも短い第2の間隔に設定可能であり、
前記信頼性判定手段は、前記第1の間隔から前記第2の間隔への変更処理中に、該第1の間隔で得られた前記一対の信号の位相差に基づいて前記デフォーカス量の前記信頼性を判定することを特徴とする請求項2に記載の撮像装置。
The setting means can set the interval at which the imaging device outputs the pair of signals as a first interval or a second interval shorter than the first interval,
The reliability determination unit is configured to determine the defocus amount based on a phase difference between the pair of signals obtained at the first interval during the changing process from the first interval to the second interval. The imaging apparatus according to claim 2, wherein reliability is determined.
前記制御手段は、前記第1の間隔から前記第2の間隔への変更処理中における前記フォーカスレンズの駆動速度よりも、該第1の間隔から該第2の間隔への変更完了後の該フォーカスレンズの駆動速度を小さくすることを特徴とする請求項3に記載の撮像装置。   The control means has the focus after completion of the change from the first interval to the second interval, rather than the driving speed of the focus lens during the change process from the first interval to the second interval. The imaging apparatus according to claim 3, wherein the driving speed of the lens is reduced. 前記信頼性判定手段は、前記一対の信号の一致度に基づいて前記デフォーカス量の信頼性を判定することを特徴とする請求項2乃至4のいずれか1項に記載の撮像装置。   5. The imaging apparatus according to claim 2, wherein the reliability determination unit determines the reliability of the defocus amount based on a degree of coincidence of the pair of signals. 前記焦点検出手段の検出可能デフォーカス範囲は、前記信頼性判定手段が前記信頼性を有すると判定するための閾値に基づいて設定されるデフォーカス範囲であることを特徴とする請求項2乃至5のいずれか1項に記載の撮像装置。   6. The defocus range that can be detected by the focus detection unit is a defocus range that is set based on a threshold value for determining that the reliability determination unit has the reliability. The imaging device according to any one of the above. 前記検出可能デフォーカス範囲に関する情報を記憶する記憶手段を更に有し、
前記制御手段は、前記記憶手段から得られた前記検出可能デフォーカス範囲に関する情報に基づいて前記フォーカスレンズを駆動制御することを特徴とする請求項1乃至6のいずれか1項に記載の撮像装置。
Storage means for storing information relating to the detectable defocus range;
The imaging apparatus according to claim 1, wherein the control unit drives and controls the focus lens based on information on the detectable defocus range obtained from the storage unit. .
前記制御手段は、前記撮影光学系の特性情報または焦点検出領域の位置に応じて、前記検出可能デフォーカス範囲に関する情報に基づいて算出される前記フォーカスレンズの駆動量を変更することを特徴とする請求項1乃至7のいずれか1項に記載の撮像装置。   The control means changes the driving amount of the focus lens calculated based on information on the detectable defocus range according to characteristic information of the photographing optical system or a position of a focus detection region. The imaging device according to claim 1. 前記焦点検出手段は、焦点検出領域の前記焦点検出画素から得られる前記一対の信号の位相差に基づいて、該焦点検出領域における前記デフォーカス量を検出することを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。   The focus detection unit detects the defocus amount in the focus detection area based on a phase difference between the pair of signals obtained from the focus detection pixels in the focus detection area. The imaging device according to any one of the above. 前記制御手段は、第1の被写体よりも至近側に位置する第2の被写体に焦点調節を行うように前記フォーカスレンズを駆動制御することを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。   10. The control device according to claim 1, wherein the control unit drives and controls the focus lens so as to perform focus adjustment on a second subject located closer to the first subject. 11. The imaging device described. 前記制御手段は、前記フォーカスレンズの駆動可能範囲に関する情報に基づいて、該駆動可能範囲を超えない方向に該フォーカスレンズを駆動することを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。   The said control means drives the said focus lens in the direction which does not exceed this driveable range based on the information regarding the driveable range of the said focus lens, The any one of Claim 1 thru | or 10 characterized by the above-mentioned. Imaging device. 撮影光学系を備えたレンズ装置と、
請求項1乃至11のいずれか1項に記載の撮像装置と、を有することを特徴とする撮像システム。
A lens device equipped with a photographing optical system;
An imaging system comprising: the imaging device according to claim 1.
フォーカスレンズを含む撮影光学系の互いに異なる瞳領域を通過した光束に基づいて、一対の信号を出力する複数の焦点検出画素を含む撮像素子を備えた撮像装置の制御方法であって、
焦点検出手段を用いて、前記撮像素子から第1の間隔で得られた一対の信号の位相差に基づいてデフォーカス量を検出するステップと、
合焦判定を行うステップと、
前記合焦判定において合焦状態ではないと判定された場合、前記第1の間隔から、該第1の間隔よりも短い第2の間隔に変更するステップと、
前記第1の間隔から前記第2の間隔への変更処理中に、前記焦点検出手段の検出可能デフォーカス範囲に関する情報に基づいて前記フォーカスレンズを駆動制御するステップと、を有することを特徴とする撮像装置の制御方法。
A method for controlling an imaging apparatus including an imaging element including a plurality of focus detection pixels that output a pair of signals based on light beams that have passed through different pupil regions of a photographing optical system including a focus lens,
Detecting a defocus amount based on a phase difference between a pair of signals obtained from the image sensor at a first interval using a focus detection unit;
Performing in-focus determination;
When it is determined that the in-focus state is not in focus, the step of changing the first interval to a second interval shorter than the first interval;
And a step of driving and controlling the focus lens based on information on a defocus range that can be detected by the focus detection means during the process of changing from the first interval to the second interval. Control method of imaging apparatus.
コンピュータに、請求項13に記載の撮像装置の制御方法を実行させるように構成されていることを特徴とするプログラム。   A program configured to cause a computer to execute the control method of the imaging apparatus according to claim 13. 請求項14に記載のプログラムを記憶していることを特徴とする記憶媒体。   A storage medium storing the program according to claim 14.
JP2013226137A 2013-10-31 2013-10-31 IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Active JP6188536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013226137A JP6188536B2 (en) 2013-10-31 2013-10-31 IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013226137A JP6188536B2 (en) 2013-10-31 2013-10-31 IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2015087558A true JP2015087558A (en) 2015-05-07
JP6188536B2 JP6188536B2 (en) 2017-08-30

Family

ID=53050412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013226137A Active JP6188536B2 (en) 2013-10-31 2013-10-31 IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP6188536B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017209252A1 (en) * 2016-06-01 2017-12-07 富士フイルム株式会社 Imaging device, focusing control method, and focusing control program
JP2018036628A (en) * 2016-08-24 2018-03-08 キヤノン株式会社 Control device, imaging apparatus, control method, program, and storage medium

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330002A (en) * 1999-05-20 2000-11-30 Olympus Optical Co Ltd Range finder
JP2001099644A (en) * 1999-09-29 2001-04-13 Asahi Optical Co Ltd Automatic focusing device
JP2003262788A (en) * 2002-03-11 2003-09-19 Minolta Co Ltd Autofocus device and imaging device
JP2008309882A (en) * 2007-06-12 2008-12-25 Nikon Corp Digital camera
JP2010088049A (en) * 2008-10-02 2010-04-15 Nikon Corp Imaging apparatus and image recording method
US20100171844A1 (en) * 2009-01-08 2010-07-08 Panasonic Corporation Imaging apparatus
JP2010268052A (en) * 2009-05-12 2010-11-25 Canon Inc Imaging device
JP2012215900A (en) * 2012-06-29 2012-11-08 Canon Inc Imaging apparatus
JP2013007998A (en) * 2011-05-26 2013-01-10 Canon Inc Imaging element and imaging device
JP2013050691A (en) * 2011-08-04 2013-03-14 Nikon Corp Imaging apparatus
JP2013104936A (en) * 2011-11-11 2013-05-30 Nikon Corp Focusing device and imaging device
JP2013113857A (en) * 2011-11-24 2013-06-10 Canon Inc Imaging device, and control method therefor
JP2013178383A (en) * 2012-02-28 2013-09-09 Nikon Corp Lens barrel and camera system

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000330002A (en) * 1999-05-20 2000-11-30 Olympus Optical Co Ltd Range finder
JP2001099644A (en) * 1999-09-29 2001-04-13 Asahi Optical Co Ltd Automatic focusing device
JP2003262788A (en) * 2002-03-11 2003-09-19 Minolta Co Ltd Autofocus device and imaging device
JP2008309882A (en) * 2007-06-12 2008-12-25 Nikon Corp Digital camera
JP2010088049A (en) * 2008-10-02 2010-04-15 Nikon Corp Imaging apparatus and image recording method
US20100171844A1 (en) * 2009-01-08 2010-07-08 Panasonic Corporation Imaging apparatus
JP2010268052A (en) * 2009-05-12 2010-11-25 Canon Inc Imaging device
JP2013007998A (en) * 2011-05-26 2013-01-10 Canon Inc Imaging element and imaging device
JP2013050691A (en) * 2011-08-04 2013-03-14 Nikon Corp Imaging apparatus
JP2013104936A (en) * 2011-11-11 2013-05-30 Nikon Corp Focusing device and imaging device
JP2013113857A (en) * 2011-11-24 2013-06-10 Canon Inc Imaging device, and control method therefor
JP2013178383A (en) * 2012-02-28 2013-09-09 Nikon Corp Lens barrel and camera system
JP2012215900A (en) * 2012-06-29 2012-11-08 Canon Inc Imaging apparatus

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017209252A1 (en) * 2016-06-01 2017-12-07 富士フイルム株式会社 Imaging device, focusing control method, and focusing control program
CN109196403A (en) * 2016-06-01 2019-01-11 富士胶片株式会社 Photographic device, focusing control method and focusing control program
JP6476349B2 (en) * 2016-06-01 2019-02-27 富士フイルム株式会社 Imaging apparatus, focus control method, and focus control program
JPWO2017209252A1 (en) * 2016-06-01 2019-05-16 富士フイルム株式会社 Image pickup apparatus, focusing control method, and focusing control program
US10578830B2 (en) 2016-06-01 2020-03-03 Fujifilm Corporation Imaging device, focusing control method, and computer readable non-transitory recording medium
US10746958B2 (en) 2016-06-01 2020-08-18 Fujifilm Corporation Imaging device, focusing control method, and focusing control program
CN109196403B (en) * 2016-06-01 2020-11-24 富士胶片株式会社 Imaging device, focus control method, and focus control program
US10859791B2 (en) 2016-06-01 2020-12-08 Fujifilm Corporation Imaging device
US11372196B2 (en) 2016-06-01 2022-06-28 Fujifilm Corporation Imaging device and focusing control method
US11693207B2 (en) 2016-06-01 2023-07-04 Fujifilm Corporation Imaging device, focusing control method, and computer readable non-transitory recording medium storing a focusing control program
JP2018036628A (en) * 2016-08-24 2018-03-08 キヤノン株式会社 Control device, imaging apparatus, control method, program, and storage medium

Also Published As

Publication number Publication date
JP6188536B2 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
US10212334B2 (en) Focusing adjustment apparatus and focusing adjustment method
JP6555857B2 (en) Imaging apparatus and control method thereof
JP5424679B2 (en) Imaging apparatus and signal processing apparatus
JP5917207B2 (en) Focus adjustment device
JP5676988B2 (en) Focus adjustment device
US8988579B2 (en) Imaging apparatus
JP5753371B2 (en) Imaging apparatus and control method thereof
JP6298362B2 (en) Imaging apparatus, control method therefor, and imaging system
JP2014153509A (en) Imaging device and imaging method
JP6415140B2 (en) Imaging apparatus and control method thereof
JP2013160991A (en) Imaging apparatus
JP2013113857A (en) Imaging device, and control method therefor
JP5548490B2 (en) Imaging device
JP6188536B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2017223760A (en) Imaging device and focus adjustment method
JP6561437B2 (en) Focus adjustment device and imaging device
JP2018066864A (en) Focus detection device and method, imaging device, lens unit, and imaging system
JP2016142924A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP2013041075A (en) Focus detecting device and image pickup apparatus
JP2016071275A (en) Image-capturing device and focus control program
JP2014206601A (en) Imaging apparatus and focus adjustment method
JP5911530B2 (en) Imaging device
JP2014211589A (en) Focus adjustment device and imaging device
JP2016006463A (en) Imaging device and control method therefor
JP2009038589A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170801

R151 Written notification of patent or utility model registration

Ref document number: 6188536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151